人工智能越来越强大。但研究人员能让它有原则吗?
1936年艾伦·图灵开创计算机科学研究不久后,便开始思考人类是否有一天可以制造出具备与人类相当智能的机器。如今,人工智能这门现代学科正致力于回答这一问题,并取得了长足进展。然而,真正能自主完成多种任务的智能机器仍尚未出现。尽管科幻作品早已设想未来人工智能可能会以不道德的类人机器人或杀人终结者的形式出现,但今天的人工智能研究者更担忧的,是那些已经深深嵌入我们日常生活的人工智能算法,以及它们带来的问题。虽然当前的人工智能尚只能自动化某些特定任务,但其引发的担忧已十分显著。在过去十年中,工程师、学者、举报人和记者反复记录了人工智能系统——由软件和算法组成——如何造成或助长对人类的严重伤害。司法系统中使用的算法可能会不公平地建议拒绝对罪犯假释;社交媒体动态可能把有害内容推送给容易受影响的青少年;人工智能指导的军用无人机可以在完全缺乏道德推理的情况下杀人。此外,人工智能算法更像是一个难以理解的黑箱,而非精密的机械装置。研究人员常常无法理解这些基于复杂方程、涉及数十亿次运算的算法是如何得出结果的。人工智能的问题并未被忽视,学术研究者正努力使这些系统更安全、更道德。开发人工智能产品的公司也在努力消除这些危害,尽管它们往往对自身努力缺乏透明度。加州大学伯克利分校的人工智能研究员乔纳森·斯特雷(Jonathan Stray)表示:“它们并没有坦率地公布信息。”人工智能已知的危险以及其未来潜在风险,已成为推动新人工智能研究的重要动力。即使是专注于更抽象问题,如人工智能算法效率的研究人员,也无法忽视其研究领域对社会的影响。香港科技大学的人工智能研究员帕斯卡尔·冯(Pascale Fung)表示:“随着人工智能变得越来越强大,人们对其安全性和可靠性的要求也越来越高。”“在我从事人工智能的过去三十年里,大多数时间人们并不真正在意这些问题。”随着人工智能的广泛应用,担忧也逐渐加剧。例如,在2010年代中期,一些网络搜索和社交媒体公司开始在其产品中嵌入人工智能算法。他们发现可以设计算法来预测哪些用户更可能点击哪些广告,从而增加利润。计算能力的提升使得这一切成为可能,因为这些算法的“训练”取得了巨大突破,使其能够通过学习示例来实现高性能。但随着人工智能逐步进入搜索引擎和其他应用,观察者开始注意到问题并提出质疑。2016年,调查记者声称某些用于假释评估的算法存在种族偏见。虽然该报告的结论遭到质疑,但如今设计公平、无偏见的人工智能已成为人工智能研究者的核心问题。每当人工智能被用来对来自不同人口统计群体的人做出预测时,相关担忧就会出现。随着人工智能嵌入越来越多的决策过程,如筛选简历和评估租房申请,公平性问题也日益受到关注。近年来,人工智能在社交媒体应用中的使用也引发了新的担忧。许多这些应用使用称为推荐系统的算法,其工作方式与广告投放算法类似,决定向用户展示哪些内容。目前,数百个家庭正在起诉社交媒体公司,指控这些算法驱动的应用将有毒内容推送给儿童,导致心理健康问题。西雅图公立学校最近提起诉讼,指控社交媒体产品具有成瘾性和剥削性。但解开一个算法的真实影响并非易事。社交媒体平台很少发布用户行为数据,而这正是独立研究人员进行评估所需的。“关于所有技术的复杂之处在于,它们总是伴随着成本和收益。”斯特雷表示,他的研究重点是推荐系统。“我们现在所处的境地是,很难知道哪些是真正有害的影响。”人工智能所面临的问题性质也在变化。过去两年中,多个“生成式人工智能”产品面世,能够生成高质量的文本和图像。越来越多的人工智能研究者现在相信,强大的未来人工智能系统可能建立在这些成就之上,并最终带来全球性、灾难性的危险,相比之下,如今的问题将显得微不足不足道。这种未来的威胁会以什么形式出现?10月,谷歌母公司Alphabet的子公司DeepMind在预印本平台arXiv.org发表的一篇论文中描述了一种灾难性场景。他们设想工程师开发出一种基于现有科学原理的代码生成人工智能,并要求它说服人类程序员采用其代码。其设想是,随着人工智能提交越来越多的代码,其中一些被拒绝,人类反馈将帮助它学习编写更优的代码。但研究人员指出,这个人工智能若仅仅以被采用为唯一目标,可能会发展出一种悲剧性的不良策略,例如,实现世界统治以强制人类采用其代码——哪怕这会颠覆人类文明。一些科学家认为,现有的问题,它们已经具体且数量众多,应优先于那些关于未来灾难的假设性研究。杜克大学的计算机科学家和人工智能研究员辛西娅·鲁丁(Cynthia Rudin)表示:“我认为我们今天面临的问题已经糟糕得多。”强化这一观点的是,人工智能尚未直接导致任何大规模灾难——尽管也有一些存在争议的案例表明,该技术并不需要具备未来科技水平就能造成危害。例如,非营利人权组织“国际特赦组织”在去年9月发布的报告中指控,Facebook母公司Meta开发的算法通过放大煽动暴力的内容,“极大地导致了罗兴亚人”(缅甸的一个穆斯林少数群体)的不利人权影响。Meta向《科学美国人》杂志的评论请求作出回应时,引用了其亚太地区公共政策主管拉斐尔·弗兰克尔(Rafael Frankel)此前对《时代》杂志做出的声明,承认缅甸军方对罗兴亚人犯下罪行,并表示Meta目前正参与联合国及其他组织主导的跨国调查行动。其他研究人员则表示,防止一个强大的未来人工智能系统造成全球性灾难已成为主要关注点。“对我来说,我们亟需解决的问题就在此。”人工智能研究公司OpenAI的研究员扬·莱克(Jan Leike)表示。尽管这些危险迄今为止完全是推测,但它们无疑推动着越来越多的研究人员致力于各种减少危害的方法。一种被称为“价值对齐”的方法由加州大学伯克利分校的人工智能科学家斯图尔特·拉塞尔(Stuart Russell)率先提出,研究人员试图训练人工智能系统学习人类价值观并据此行动。这种方法的优势之一是可以在未来系统带来灾难性危害之前,如今就加以开发和应用。批评者指出,价值对齐过于狭隘地关注人类价值观,而忽视了使人工智能安全所需的其他许多要求。例如,正如人类一样,基于可靠、事实的知识基础,对于人工智能系统做出良好决策至关重要。“问题不在于人工智能拥有错误的价值观,”艾伦人工智能研究所的研究员奥伦·埃茨尼翁(Oren Etzioni)表示。“事实是,我们所做的选择是价值和知识共同作用的结果。”考虑到这些批评,其他研究人员正在努力开发一种更通用的人工智能对齐理论,旨在确保未来系统的安全性,而不像价值对齐那样过于专注于人类价值观。一些科学家正在尝试他们认为更实际、与现实更紧密相关的人工智能对齐方法。以最近生成文本技术的进展为例:领先案例包括DeepMind的Chinchilla、Google Research的PaLM、Meta AI的OPT和OpenAI的ChatGPT,它们都能生成带有种族偏见、非法或欺骗性的内容——每个公司都承认这一挑战。包括OpenAI和DeepMind在内的部分公司认为,这些问题属于对齐不足所致。他们目前正致力于改进文本生成人工智能的对齐,并希望这能为未来系统的对齐提供启示。研究人员承认,通用的人工智能对齐理论仍然缺失。“我们真的还没有一套方法,可以对齐比人类更聪明的系统,”莱克表示。但无论人工智能最严重的问题是在过去、现在还是未来,至少,解决这些问题最大的障碍已不再是缺乏尝试。
查看全文
作者最近更新
-
我们进化的历史可以教会我们人工智能的未来scientific2023-11-11
-
“ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文scientific2023-11-11
-
人工智能需要规则,但谁将拥有制定规则的权力?scientific2023-11-07
评论0条评论