这就是GPT-4的监管方式
AI公司应欢迎监管——至少这是Mira Murati传达的信息。“我们需要在这个系统中加入大量输入,而这些输入应远远超出技术本身”,OpenAI首席技术官在接受《时代》杂志采访时称,“这些输入当然也来自于监管者和政府以及其他人。” 然而,Murati并没有明确说明这种监管应采取何种形式,因为在一个月之内,OpenAI即将发布其最新、最强大的模型GPT-4。相反,这次采访突然转向了Murati的文化偏好,从她对Radiohead乐队的歌曲《Paranoid Android》的热爱开始——这首歌当然不是最鼓舞人心的,“但非常美丽且发人深省”。对大多数公司来说,监管是一种必要的邪恶。然而,OpenAI公开呼吁监管机构像天使一样降临,这为其工作增添了一丝神秘色彩——暗示其开发者正在涉足某种非凡却又难以预测的事物,这显然超出了公众的常规认知。他们或许是正确的。GPT-4比其前身GPT-3更加复杂、灵活和强大,似乎随时可能颠覆从艺术和广告、到教育和法律服务的各行各业。当然,这也带来了该模型以及类似模型被用于更邪恶目的的风险——比如编写完美的恶意软件,或协助传播有害和危险的虚假信息。然而,全球范围内的监管机构在生成式AI可能永远改变我们所熟知的产业形态这一前景面前,大多保持沉默。同时,活动人士中也出现了一种呼声,他们呼吁制定全面的立法框架,最好将基础模型置于某种受到严格监管的“监管盒”中,以便对其监控,并对开发者可能的不当行为进行处罚。欧洲新数字研究中心(European New School of Digital Studies)法律与伦理学教授Philipp Hacker表示,欧盟正在关注这一呼声。两名欧洲议会成员提出的一项建议正在迅速获得支持,他们提议将GPT-4这类基础模型归类为欧盟《人工智能法案》草案中的“高风险”模型。然而,Hacker认为,将重点放在对模型本身的监管上是错误的。同时,欧洲议会似乎也对在该法案最后阶段出现的生成式AI感到不安。因此,他提出,“我们现在开始看到的,是一种匆忙地监管某种立法者并未真正准备好应对的事物。” 在美国、英国和欧盟,监管机构似乎对GPT-4的最新发布以及公众对生成式AI的普遍好奇心感到措手不及。(Tada Images/Shutterstock拍摄) GPT-4 vs. 欧盟与美国 Hacker认为,欧盟与ChatGPT以及无疑也将与GPT-4之间的问题主要是定义上的。目前,《人工智能法案》中对所谓“通用人工智能系统”(GPAIAS)有规定,指的是开发者意图用于执行“一般应用功能”的模型,比如模式识别、问题解答和语音识别。这些模型也被视为“高风险”,因此若要在欧盟境内继续运营,其开发者必须遵守严格的报告要求。2023年2月,两名欧洲议会成员提议将基础模型纳入这一定义,这意味着OpenAI、谷歌、Anthropic等公司必须报告其系统被滥用的任何实例,并采取适当措施以防止此类情况发生。Hacker认为,这一点在两个层面上是荒谬的。一方面,尽管基础模型的发布的确伴随着许多理论上的风险,但将GPT-4这样的系统归类为“高风险”,也会使一些相对无害的应用——比如为孩子制作生日贺卡——在监管角度来看变得异常危险。此外,这些模型是由众多个人开发者和公司进行调整的,因此对于任何单个开发者来说,监控和追踪某个大型语言模型(LLM)何时或如何被滥用都变得极其困难且昂贵。将GPAIS本身归类为高风险也会对即使是基础模型的开发者施加繁重的要求。Hacker表示:“如果我开发了一个非常简单的图像识别线性分类器,它甚至无法很好地区分人类和老鼠,那么根据这一定义,它也可能被视为‘通用人工智能系统’。” 从我们的合作伙伴获得的内容 为什么时尚的未来在云端 技术在应对物流人才危机中的作用 通过ESG构建更可持续的业务 在大型科技公司和AI智库的担忧和些许困惑之后,新的语言被提出,扩大了对基础模型滥用进行报告的责任组织范围,包括那些对原始系统进行了重大修改的企业用户。Hacker欢迎这些变化,但仍然不同意欧盟对AI治理的广泛方式。他建议,与其过于专注于对模型进行如此密切的监管,不如制定总体立法,传播更通用的AI治理原则,制定一部可以为新出现的、技术中立的规则提供灵感的法律。这也可以通过技术上的“安全港”来补充,让企业可以在不担心立即监管报复的情况下自由尝试新的大型语言模型(LLM)。查看所有通讯 欢迎订阅我们的通讯 报告、见解和分析将直接送达您 由《The Tech Monitor》团队提供 点此订阅 Hacker还表示,也有现有法规可以修改或以不同方式实施,以更好地适应生成式AI。“我认为我们必须修改《数字服务法案》(DSA)”,他表示。“我们也可以看看《通用数据保护条例》(GDPR)以及一些老旧但有效的反歧视法律。这些法律已经可以完成部分工作,并涵盖一些最重要的方面。” 这在某种程度上已经在美国发生,尽管是被动的。在缺乏对AI治理的整体联邦法律框架的情况下,大多数对生成式AI的官方回应都留给了各个政府机构。联邦贸易委员会(FTC)尤其对公司在该领域虚假宣传自己的能力表达了强烈态度,一名在其广告行为部门工作的律师甚至大胆地将生成式AI与犹太民间传说中的巨人“盖姆”(golem)进行了比较。 但正如BNH.AI律师事务所的专家Andrew Burt所说,尽管一些联邦机构正在思考和讨论如何最好地适应GPT-4以及其无疑会带来的生成式AI服务的“丰收”,但采用欧洲模式的全面立法改革的可能性似乎很低。“我认为最重要的、最实际的结果——尽管我肯定不会对此抱太大希望——是某种由两党支持的国家级隐私法规”,Burt表示,他认为这将包含一些关于算法决策的规定。在拜登政府和共和党控制的众议院共存的这个时代,其他任何事情都不太可能通过。 这部分是因为这个问题似乎超出了许多议员的理解范围,尽管议长麦卡锡承诺为众议院情报委员会成员提供AI课程,并且美国商会也在呼吁某种监管框架。Henry Ajder,一位合成媒体专家警告称,个别监管机构目前还没有能力对生成式AI对其所在行业的影响做出明智的评估。“鉴于该领域的发展速度之快,即使是有充足资源的团队也很难跟上形势,更不用说资金不足的监管机构了”,他表示。这似乎在2023年7月由图灵研究所进行的一项调查中得到了证实,该调查显示“在AI的监管和用于监管的AI方面,都存在重大的准备差距”。同样,布鲁塞尔也在面对这一现实。“我认为许多人现在才开始意识到,你实际上必须建立这些双人团队,你必须开始雇佣计算机科学家”,Hacker说,这是欧盟监管机构正在做的。Engler也表示,美国也在一定程度上如此,尽管如果我们知道拜登政府是否真的实施了2019年的行政命令(要求所有联邦政府部门提出应对AI相关挑战的计划),我们将更清楚各个联邦机构的具体能力。但就个人而言,布罗金斯的Engler表示,他目前还不确定监管机构的工作是否会因生成式AI的到来而变得极其复杂。虽然已经发现了严重的危害,但他表示,应对这些危害的建议可以借鉴关于算法歧视、网络安全最佳实践和平台治理的旧讨论——尤其是在英国,这尤其相关,因为最新版本的《在线安全法案》将对恶意深度伪造内容进行刑事处罚。 因此,当Engler没有听到政策制定者打算如何具体监管生成式AI时,“我通常会认为这是负责任的政策制定的一个迹象。” 总之,称赞GPT-4为AI的“第二次到来”是可以的,政策制定者可以评估其影响,时间跨度长一些也是可以的。“对于许多人来说,生成式AI是一件全新且引人注目的事物,它有点令人害怕,也很有趣”,Engler表示。“但我并不确定我们是否已经清楚该如何从监管的角度来应对它。” 阅读更多:OpenAI的ChatGPT正让世界其他地区对AI产生焦虑 本文主题:GPT-4、OpenAI
查看全文
作者最近更新
评论0条评论