11月8日,南开大学讲席教授、中国公司治理研究院院长、武汉大学经济与管理学院咨询委员会委员李维安教授在武汉大学经济与管理学院院庆系列活动之“双一流”学科建设2023院长论坛做了主旨报告,分享了AI技术的伦理和道德挑战以及如何培养AI治理所需的新型管理人才等重要观点。
李维安教授首先指出,人工智能是数字经济的重要标志。人工智能技术出现后,随之带来该技术治理的问题。在VivaTech峰会上,马斯克警告称,AI是有史以来最具颠覆性的技术。如果人类在研发通用人工智能时不够谨慎,可能会带来灾难性的后果。在今年6月举办的全球首届人工智能安全峰会上,我国提出了《全球人工智能治理倡议》,并积极宣介人工智能治理的中国方案。
面对即将到来的数智时代,李维安教授指出,我们面临着AI技术的伦理和道德挑战。AI技术制造出智能人,但智能人可以通过数据迭代和自我学习不断提高自身的能力,最后在某一时刻超越人类的控制。按常理说,智能人在制造之初,便应具有向善的道德走向。然而,由于AI向善与企业盈利性之间存在矛盾,这就意味着在追求经济利益的同时,AI企业可能会陷入经济和伦理取舍的困境。企业为了实现盈利而编写的核心算法,在经过迭代后,存在引发道德和社会问题的可能性。加之AI系统内部运作不透明,AI企业信息披露不充足,政府和公众难以对AI运作实现有效监管。
以OpenAI的发展路线为例,李维安教授介绍了AI企业的公司治理设计。OpenAI成立之初,是一个非营利性的研究组织,致力于推动人工智能的发展,以确保该技术能够安全地造福全人类。随着时间的推移,OpenAI逐渐意识到人工智能对社会和商业的潜在影响,决定开始向商业领域拓展。在2019年,OpenAI获得了微软的投资,重组成为一个营利性的公司,并于2022年正式推出chatGPT。根据股权投资协议规定,在OpenAI利润达到1500亿美元后,微软和其他投资者的股份将无偿转让给OpenAI的非营利组织,之后OpenAI将变成一个社会企业。
李维安教授指出AI技术的核心是算法,基础是数据。数字人工智能治理的最大问题就是数据治理、数据社会化与平台企业数据垄断之间的矛盾等等。在AI价值创造过程中,用户是数据的源头。但商家和用户均处于相对信息弱势的地位,AI企业可以利用技术强势来满足企业利益而忽视社会利益,也即获取数字私利。例如,AI平台企业“二选一”、大数据杀熟等行为都是企业滥用AI获取私利的表现。为防范数字私利行为的危害,就需要健全相应的AI治理设计,将对现有算法治理、规则以及数据技术治理层面的研究上升到利益相关者层面的治理。
对于人工智能治理目前存在的问题,李维安教授也提出了他的看法。目前全球有关此问题的讨论还停留在科技伦理层面,且当前的伦理委员会有所欠缺。以阿里巴巴与蚂蚁集团的数据资产关联交易为例,蚂蚁集团会收集、处理和分析公司生态系统参与者在商业活动中产生的数据,会在合规的前提下收集和使用个人数据。这一行为引出诸多问题,作为数据的源头,用户是否应对数据付费或让利,数据资产的交易是否应得到用户许可,数据资产如何定价,数据资产交易如何规范以及政府与公众在数据网络中的权利与主体作用如何保证等等。上述问题需要得到解决,并实现有效监管。
最后,李维安教授提出,培养AI治理所需的新管理人才,成为我国经济数字化转型的必然要求。要培养AI治理管理人才,可从加强学科交叉教育、强调伦理和道德、提供实践机会和案例研究、突出持续学习和更新知识的重要性等方面入手,培养数字型人才、绿色型人才、价值创造型人才、应急型人才。
AI治理与管理人才培养是一项严峻而繁重的任务,李维安教授的报告充分阐述了AI技术的伦理和道德的重要性。相信未来中国能够实现健全有效的人工智能治理,推动人工智能技术造福全人类,开创更加美好的未来。
(本文根据大会录音整理)
(通讯员:邹一歆;审核:李雪松)