科技巨头们如何制定生成式AI的监管准则

techmonitor 20231023

  • 企业合规
  • 生成式AI
  • AI治理
你的同事是否在暗中使用生成式人工智能?统计数据表明,他们中的一些人正在这么做,而且短期内可能不会向管理者说明此事。根据德勤今年早些时候的一项调查,大约十分之一的英国成年人曾使用生成式人工智能处理工作事务。当被问及他们的管理者是否会批准他们使用类似ChatGPT的服务来协助完成日常任务时,只有23%的人认为他们的管理者会认可这种非常规的工作方式。情况甚至更糟。在那些实际上已经在工作中使用生成式人工智能的人中,有43%的人错误地认为它始终提供的是事实准确的答案,而38%的人则相信其生成的答案是没有偏见的。这种集体性的误判,未能认识到这类模型中“准确性”的定义在实践中往往不过是一场幻想,对于经验最丰富的首席信息官来说,这也应该引起极大的不安。同样令人担忧的是,生成式人工智能模型可能会剽窃艺术作品和代码,或者无意中泄露敏感的公司数据,而这些数据是由办公室员工不小心输入的。这些因素叠加在一起,意味着企业可能在顷刻之间陷入严重的法律危机。这并不仅仅是在英国发生的事。在大西洋彼岸,一项更早的调查显示,几乎所有70%的美国员工在工作中使用过ChatGPT,但并未向他们的直线经理说明这一点——这些受访者声称就职于多家财富500强公司。作为回应,许多公司干脆禁止员工使用ChatGPT或未经高层批准的任何其他生成式人工智能模型。显然,这种技术的潜在生产效率提升远远无法抵消它所带来安全风险。美国电信公司Verizon的一位发言人早在2月时表示:“我们公司系统中无法访问ChatGPT,因为这可能会导致我们失去对客户信息和源代码等数据的控制。作为一个公司,我们希望以安全的方式拥抱新兴技术。”但正如生成式人工智能专家亨利·阿杰德(Henry Ajder)所解释的那样,“风险容忍度和采用速度远远不一致。” 事实证明,许多大公司相信,可以在受监督的情况下在工作场所中使用生成式人工智能,从而减少对整体公司可能造成的声誉或法律风险。麦肯锡在6月份自信地宣布,它已允许“大约一半”的员工在监督下使用这项技术。接下来的月份,保险公司AXA宣布部署了“AXA Secure GPT”,该系统利用了微软Azure的OpenAI服务,用于“生成、总结、翻译和纠正文本、图像和代码”。阿杰德指出,这些高价值但低风险的任务正是各大公司最热衷于部署生成式人工智能的地方。“如果你有一些人为监督,这些技术可以很快且很容易地得到部署,”他补充道,希望是生产效率的提升自然而然地随之而来。员工对生成式人工智能日益增长的兴趣和使用,迫使管理者们想出创造性的方法,以规范对ChatGPT和Copilot等服务的使用。(照片来源:la pico de gallo/Shutterstock) 生成式人工智能的约束 任何一家公司,如果试图在其工作场所内建立自己的内部规则以规范生成式人工智能的使用,都需要明确自己在使用这项技术时对风险的容忍度——这一过程通常由委员会共同制定。过去一年中,许多大型金融机构、咨询公司,甚至电影工作室都已开始组建专门的人工智能任务小组,对整个公司各个部门进行走访,了解其使用可能带来的各种灾难性后果。在这些问题被厘清之后,关于适当使用的标准也开始被定义。阿杰德解释说,这些指南在公司之间有所不同,但存在一些共通之处。许多公司制定了“明确的规则,例如关于公司数据的摄入、向客户披露是否使用了生成式人工智能模型,以及在任何缺乏最终应用或输出的人为监督的情况下不使用该技术。”在那些具有严格合规预算的机构中,比如银行和律师事务所,这些模型甚至可能被限制在部门层面,比如只允许“从事市场营销工作,或者在自由度较高领域工作的人使用。”这再次回到了“风险”这一核心问题。例如,与一名审计人员利用生成式人工智能生成应由他们自己撰写的欧盟法规更新报告相比,经过编辑的大型语言模型生成的新闻稿造成保险公司声誉严重损失的可能性要小得多。当生成式人工智能在工作流程中引入错误时,谁应对此负责,目前尚无统一结论。阿杰德最近观察过的一家公司中,“责任始终落在管理模型的经理身上”,他补充道,这可能引发一些员工的不安,因为他们正被上级施压使用这些服务。来自我们的合作伙伴的内容 Reynolds Catering通过升级其ERP系统来提升其能力的规模化 Zeelandia利用人工智能优化精度、效率和定价 金融服务公司如何为欧盟的DORA规定做好准备 关于大型语言模型的技术能力和限制的一些更微妙的问题,阿杰德认为也可以通过公司内部的沙盒测试来回答。这些测试可以让员工在风险可控的环境中“随意尝试”不同的模型。一些公司还选择采用一种近乎宪法式的AI风险方法。Salesforce——既是生成式人工智能的用户,也是生产者——制定了一套关键原则,这些原则指导着公司业务各个层面使用此类模型的政策。查看所有时事通讯 注册我们的时事通讯 由《科技监控》团队提供的数据、见解和分析在此送达 注册此处 “我们的AI研究团队早在ChatGPT进入主流之前就开始进行生成式人工智能的研究,”Salesforce负责责任AI和技术的架构师约阿夫·施莱辛格(Yoav Schlesinger)表示。他声称,公司早在整个科技界之前就预见到了围绕大型语言模型“幻觉”——他更喜欢使用“虚构”这一词,因为这个词的拟人化程度较低——的许多担忧。Salesforce的关键原则包括:对大型语言模型输出的准确性设定现实的期望,并认识到其潜在的毒性或偏见;诚实地说明用于训练模型的数据来源;并确保这些系统用于可持续发展,以增强而不是取代人类的能力。这些原则不仅为Salesforce内部员工适当使用生成式人工智能提供指导框架,也适用于其对外提供的AI服务。“我们制定了一系列禁止行为……希望也能引导客户避免高风险,”施莱辛格表示,其中包括禁止其聊天机器人欺骗消费者相信他们正在与人类对话,禁止在生物识别识别中使用此类模型,甚至禁止其提供个性化医疗建议。大多数大公司都围绕真实和感知的风险制定了内部使用生成式人工智能产品的规则,这往往导致这些模型被限制在营销或IT部门的边缘应用领域。(图片来源:la pico de gallo/Shutterstock) 与时俱进 据施莱辛格称,Salesforce的整体目标是“确保重要的人类始终在环中,以应对可能出现的其他风险。”其他企业AI解决方案提供者似乎也有相同的看法。他们都认识到,要赢得全球首席信息官的心和思想,必须不断解决他们对安全和声誉风险的真实担忧。微软最近关于该主题的一篇文章中提到,生成式人工智能可以在各种方式上提高工作效率,但应在“基于严格数据清洁的适当治理措施”之后才进行。企业AI提供商同样敏感地意识到围绕生成式平台的许多网络安全问题。虽然阿杰德提到“有几起知名案例显示,公司数据在被大型语言模型摄入后发生泄露”,但“我认为现在对面向企业主流服务的这种担忧被夸大了。”他补充说,大多数此类服务现在都可以进行调整,以防止敏感数据被无意中收集用于训练未来模型。为了进一步推动犹豫不决的首席信息官,微软和其他公司甚至承诺向因不满程序员和艺术家指控版权侵权而被起诉的公司支付法律费用。然而,这种提议在平均合规部门看来是否具有说服力仍有待观察。阿杰德认为,许多此类公司正在等待英国、欧盟和美国的新立法,以正式定义与人工智能模型使用相关责任的范围。尽管当前的监管环境正在相对快速地变化,但许多首席信息官仍持观望态度。“他们意识到,如果他们现在完全投入当前形式的生成式人工智能,并在当前的监管环境中实施,他们最终可能会不得不完成实施一些不再合规,或者维护起来非常昂贵的项目,”阿杰德说。至于施莱辛格,他认为首席执行官、首席信息官和首席技术官都应该对生成式人工智能在工作场所中的潜力保持开放心态。“生成式人工智能具有巨大的潜力,可以帮助释放人类的潜力,我们应该想象并期待人们会利用它来增强自己的工作,”他说。“试图对抗这一趋势是一场徒劳无功的错误。” 了解更多:在人工智能驱动世界中,首席技术官的角色是什么?

查看全文

点赞

techmonitor

作者最近更新

  • Microsoft’s OpenAI love-in and Royal Mail cyberattack – January 2023 in review
    techmonitor
    2023-12-20
  • IBM pays €2bn for Software AG’s enterprise integration platforms
    techmonitor
    2023-12-20
  • ‘Unintended harms’ of generative AI pose national security risk to UK, report warns
    techmonitor
    2023-12-19

期刊订阅

相关推荐

  • 贝壳回应被美国 SEC 列入“预摘牌名单”:一直在寻求可能的解决方案

    2022-04-22

  • 欧美人工智能监管政策新趋势

    2022-04-28

  • 年度AI技术趋势发布 生成式AI持续升维商业前景大有可为

    2022-05-06

  • 伊隆·马斯克:推特应该遵守印度当地法律

    2022-08-09

评论0条评论

×
私信给techmonitor

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告