欧盟委员呼吁“数月内”出台人工智能行为准则
欧盟竞争事务专员马格丽特·维斯塔格(Margrethe Vestager)表示,数月内应出台一项新的“人工智能行为准则”。作为欧盟委员会调查大型科技公司行为的负责人之一,维斯塔格希望欧盟和美国共同推动一项针对人工智能行业的自愿性行为准则,作为临时措施,直到制定出新的法律来规范这项强大的技术。说服白宫支持这一措施可能并不容易,因为一些美国官员并不认同欧盟的方法。维斯塔格表示,欧盟和美国应推动制定具体的行为准则,而不是仅仅做出泛泛的风险声明。她警告说:“我们需要立即采取行动。”她还提到,人工智能法案在理想情况下将需要两年半到三年才能生效,“这显然太晚了”。去年11月推出的ChatGPT出人意料的成功引发了人工智能的革命,促使谷歌、微软和Salesforce等公司改变商业模式,并在产品中添加生成式AI。这也促使各国政府考虑基础模型人工智能对国家安全、就业和知识产权的影响。维斯塔格强调,美国和欧盟应在制定准则的过程中发挥主导作用,而不仅仅依赖于企业。她说:“我认为我们可以推动一些措施,让我们对生成式AI如今在世界上迅速发展这一事实感到更加安心。” 行业应积极参与制定行为准则的过程,并且应尽快完成。她说:“这就是你需要的速度。” 这应该在“未来几周或几个月内”完成,而不是几年,这样才能增强公众对这项技术的信任。欧盟和美国G7领导人正在就人工智能的影响进行会谈,特别是围绕通过虚假信息对国家安全构成的威胁。他们呼吁制定技术标准以确保AI的可信度。同时,企业也在努力提高AI的可信赖性。谷歌旗下的英国人工智能实验室DeepMind发布了一个“早期预警”框架,以标记某个AI模型是否可能对人类构成重大风险。包括OpenAI的山姆·奥尔特曼(Sam Altman)在内的一群行业领袖签署了一封公开信,呼吁紧急缓解风险。尽管欧盟正在通过立法来控制人工智能,但拜登政府内部对如何应对这一问题仍存在分歧。一些商务部官员支持与欧盟类似的法规,但国家安全和国务院的官员则认为这会削弱美国的竞争力。最初,美国似乎正追随欧盟对人工智能使用的监管,尤其是在法律和医疗等高风险领域。这一思路曾是美国早期人工智能系统框架的一部分,但欧盟随后对基础模型人工智能的监管进一步收紧。一些欧盟国家已开始使用现有法律应对人工智能的崛起。例如,意大利在OpenAI完全遵守《通用数据保护条例》(GDPR)之前禁止了ChatGPT的使用,而谷歌则因符合GDPR的问题而迟迟未能推出新的AI工具。美国国家安全委员会发言人亚当·霍奇(Adam Hodge)在接受彭博社采访时表示,政府正在努力制定一项“全面而协调的应对人工智能相关风险与机遇的方法”。**本文主题**:人工智能、欧盟
查看全文
作者最近更新
评论0条评论