文章转载来源:元宇宙日爆

图片[1] - 面对AI“龙卷风”破坏力,白宫“软着陆”欧盟“硬防御”

ChatGPT的风靡与风险将OpenAI的CEO山姆·奥特曼(Sam Altman)送进白宫,他被蹲守在美国总统府邸的记者们围追,面对5月4日白宫发起的AI风险治理会议,奥特曼很官方地给出“重要也很及时”的回应,自信的反复强调“我们可以应付”。

与奥特曼一起被白宫邀约的还有谷歌、微软、Anthropic这三家AI公司的负责人,他们与美国总统拜登、副总统哈里斯及高级政要会面,阐述人工智能的安全问题。

总统都在关心AI的风险了,美国看似十分重视AI安全,但其实还没有一部直接与人工智能相关的法律出台,政府部门仍处于听取建议的阶段。相反,欧盟更为果决,将在5月、6月推动欧洲《人工智能法》的出台进程。

面对AI“龙卷风”释放出的破坏力,西方国家在监管层面并未站在同一个阵营,美国释放出宽容的“软着陆”姿态,欧盟则打算以立法“硬防御”。

白宫召集AI“四巨头”

5月4日,谷歌、微软、OpenAI、Anthropic四家公司的主要负责人齐聚白宫,他们所在的公司几乎掌握了当前人工智能领域最领先的技术与人才。

AI“四巨头”一同出现在美国总统府邸,出席由副总统哈里斯主持的AI风险治理会议,会议内容包括企业对政策制定者更透明地介绍其人工智能产品,评估人工智能产品的安全性,减少有偏见的算法决策等等。

图片[2] - 面对AI“龙卷风”破坏力,白宫“软着陆”欧盟“硬防御”

谷歌CEO皮查伊(左)与OpenAI CEO奥特曼抵达白宫

美国总统拜登在会议进行中“突然来访”,据白宫官员透露,他此前已经听取了关于ChatGPT的简报,还亲自测试过该产品。

会议内容虽然不对外公开,但会后,拜登在推特分享了一段他在会议上的讲话,“你们在做的事有着巨大的潜力和巨大的危险”,他的另一句话颇值得玩味,“希望你们能指导我们,对于保护社会而言,哪些事是最需要做的”。面对科技突破和风险,这位美国总统似乎调低了政府姿态。

视频中的拜登发言也可以视作他对人工智能的表态:

人工智能是我们这个时代最强大的工具之一,但是在抓住它带来的机会之前,我们必须首先降低它的风险。今天,我与人工智能行业的领导者会面,讨论了在创新的同时负起责任以及保护民众权利和安全的重要性。

至于这些AI公司的大佬们对总统说了什么,并未见诸公开消息。但早早蹲守在白宫外的记者们堵到了OpenAI的CEO山姆·奥特曼(Sam Altman),他几乎是这轮AI狂潮中“最靓的仔”,其公司研发的自然语言大模型GPT生成了一个风靡全球的文本对话ChatGPT,这个产品从去年年底火到了现在。

奥特曼一边赶往白宫一边匆忙回答记者提问,他称,很激动能参会,并认为这些讨论是“重要也很及时”。在被记者问到人工智能的风险时,他信心十足,多次重复强调“我们可以应付,这是肯定的”。

图片[3] - 面对AI“龙卷风”破坏力,白宫“软着陆”欧盟“硬防御”

OpenAI CEO奥特曼被记者围堵采访

但并不是所有人都这么有信心。近日,有“AI教父”之称的杰弗里·辛顿 (Geoffrey Hinton)宣布从工作了10余年的谷歌离职,他“对过去的工作感到后悔”,AI学界的顶尖学者突然变成了AI风险的“吹哨人”, 辛顿警觉地指出,AI的持续发展会对人类构成威胁,并可能最终“导致人类灭亡”。

3月底,辛顿也在“呼吁所有AI实验室立即暂停训练人工智能系统至少6个月”的公开信上签过名。这封信受到科技圈精英广泛关注,其中就提到了政策制定者在人工智能发展过程中需要承担的角色,即加快“AI管理制度的开发”。一个多月了,签名的人数仍在增加,截至目前,签名总数已达到27565个,几乎较公开信刚发布时翻了一倍。

面对人工智能的浪潮,美国政府也早在此次“白宫会谈”前开始行动。去年10月,白宫科技政策办公室发布了《人工智能权利法案蓝图:让自动化系统为美国人民服务》(以下简称《蓝图》);今年1月,隶属于美国商务部的美国国家标准与技术研究院(NIST)发布了《人工智能风险管理框架(AI RMF)》的1.0版(以下简称《框架》)。

《蓝图》除了阐释人工智能对公民权利的危害和案例,还列出了人工智能应遵守的五个原则:安全且有效的系统;算法歧视保护原则;数据隐私原则;通知和解释原则;人工选择、考虑和退出原则。《框架》旨在指导各机构在开发人工智能时降低安全风险、减少偏见和其他负面后果以及提高人工智能的可信度。

业内人士虽然对《蓝图》和《框架》的评价较为正面,但这两份文件并不具备法律约束力,也没有监管执行方面的细节,仅供设计、开发和使用人工智能系统的机构和组织自愿使用。很多声音认为,想要真正让这些指导生效,美国国会应该推动人工智能相关立法,制定专门规范人工智能应用的联邦法律,以及更具体的实施细则。

欧盟推动欧洲《人工智能法》出台

美国还没有为AI立法,总统还在听取AI巨头的“指导”,相比之下,欧盟更雷厉风行,直接给AI风险分级、工具分类,甚至开始酝酿法律。

一向被诟病被“办事拖拉”的欧盟,最近在人工智能立法上进展神速。近日,欧洲议会成员已经就《人工智能法((Artificial Intelligence Act))》提案达成临时政治协议。5月11日,欧盟委员会将对协议进行投票;6月中旬,欧盟将进行全体投票。该协议如果顺利通过,将为欧洲《人工智能法》的出台铺平道路。

据悉,欧洲的立法者根据风险的不同级别对AI工具进行分类,使用AI工具的政府机构和企业将根据风险级别承担不同的义务。比如,关于基础设施、执法、教育的AI工具就被认定是高风险的,这一类别的AI工具虽然不会被禁止,但使用者在操作中需要保持高透明度,使用前要完成风险评估,使用时还要向当局提供数据。

有法律界人士指出,《人工智能法》颁布后将产生全球影响,因为法案适用于在欧盟区内运行的所有人工智能系统,不管其供应方是来自当地还是其他国家。

相比欧盟,与美国比邻的加拿大,去年6月就提出了《数字宪章实施法案》,明确指出企业要在监管框架下开发人工智能系统。该法案包括三项内容:《消费者隐私保护法案》、《个人信息和数据保护法庭法案》和《人工智能和数据法案》。其中,《人工智能和数据法案》规定,拥有“高影响”的人工智能系统的组织,需要设立程序,以识别和减轻因这些系统可能使用有偏见的数据而产生伤害的风险。

在立法监管人工智能层面,美国政府这次显得慢半拍,甚至有点“假紧张、真支持”的意思。

上个月,美国商务部还在公开征求意见,要求社会各界对人工智能的问责措施发表评论。这个月,在白宫约见AI领域的四公司时,白宫官员宣布,美国国家科学基金会将拨款1.4亿美元用于新的人工智能研究中心。

白宫会议之后,副总统哈里斯在一份声明中首次提及了立法,“拜登总统和我致力于推进潜在的新法规以及支持立法,让每个人都能安全地从技术创新中受益。”他指出,政府、私营公司和社会其他方面必须共同应对这些挑战。

面对AI风险 美国手段为何不如欧盟“硬”?

立法前,“政府、私营公司和社会其他方面”的多方参与,给美国对AI的监管留下了超长的讨论时间,甚至有一些立法障碍还得从国会内部清扫。

图片[4] - 面对AI“龙卷风”破坏力,白宫“软着陆”欧盟“硬防御”

拜登出现在AI风险治理会议上

美国的立法机关是国会,而国会议员对人工智能的认知构成了第一道鸿沟。当前,美国国会议员的平均年龄为59岁,其中1/4议员的年龄超过70岁。对于这一高龄群体,深入理解人工智能等前沿科技实在颇具挑战性。

加州的共和党众议员杰伊·奥伯诺尔特 (Jay Obernolte)是国会里唯一拥有人工智能硕士学位的人。他对媒体表示,在讨论监管问题前,人们应该就“什么是危险的”达成一致,而这需要“对人工智能有深入理解”。“你会惊讶于我花了很多时间向我的同事解释:人工智能的主要危险不是来自眼睛射出红色激光的邪恶机器人”,奥伯诺尔特对此有点哭笑不得。

也有议员“活到老学到老”,现年72岁的弗吉尼亚州民主党众议员唐纳·拜尔(Don Beyer)正在攻读机器学习的硕士,企图将学识用于立法工作。他此前在国会提出过关于人工智能和面部识别系统的修正案,要求禁止执法部门用联邦资金购买面部识别技术,但结果不尽如意。

“大城市警察部门已经采用面部识别系统,但这些系统显示出了严重的偏见和不准确……越来越多的数据表明,目前正在部署的技术还没准备好被如此广泛地应用,”拜耳在国会如此解释过,但这项法案未能获得支持,因为议员们认为这个问题“并不紧迫”。

除了政府内部共识,在外部,美国的企业界、学界对人工智能的看法也尚未达成共识。

要知道,这波AI“龙卷风”就是从美国公司中刮起来的,今年的2月,OpenAI、谷歌、微软以“日更速度”竞相争奇斗艳。微软手握ChatGPT,谷歌就推出Bard;微软用AI升级浏览器和搜索引擎,谷歌就开始酝酿纯AI驱动的搜索系统Magi。

两大知名科技巨头的竞争,也让全球看到了美国在人工智能领域的人才优势与企业领导地位。这或许是美国在监管层面对AI显示出宽容态度的原因之一。

别看OpenAI 的CEO山姆·奥特曼、微软CEO萨提亚·纳德拉都参加了白宫的会议,但他们仍然是通用人工智能(AGI)的信徒,虽然也承认AI的风险,但在商业与科技并行发展的思路下,他们更愿意让人们看到AI带给世界的改变。特斯拉 CEO埃隆·马斯克也在反AI的公开信上签了名,但这并不妨碍他囤积AI芯片以及支持刚刚收购的Twitter研发自己的大模型。

而在学界,科学家们站在了企业家的反面,最近持续输出AI带来的“末日论”。除了“AI教父”杰弗里·辛顿之外,图灵奖获得者约书亚·本吉奥等很多学界精英持有类似的悲观态度。

还有一些美国固有的“政治正确”在影响着政府对AI立法监管的进程,包括监管与创新之间平衡以及“国家竞争论”。比如,一些学者认为,过度的监管可能会阻碍人工智能发挥其全部潜力。而谷歌前CEO埃里克·施密特曾对抵制AI进度的公开信表示反对,他给出的理由是暂停训练“只会让中国受益”。

如此现状下,欧洲在制定法律时可以毫无顾忌地向其他国家的公司“下狠手”,美国要考虑的问题就多得多。随着AI大模型应用的不断出现,AI“龙卷风”很难止息,科技推动力与新科技风险以“一体两面”的姿态卷向全球,考验各国监管能力的挑战才刚刚开始。