开源大语言模型可能使人工智能变得更加危险,人工智能“教父”如是说
据一位英国人工智能先驱称,开源大型语言模型(LLM)可能会使人工智能变得更具危险性。被誉为“人工智能之父”的杰弗里·欣顿(Geoffrey Hinton)因其在神经网络领域的开创性工作而闻名。他认为,如果这些技术的代码可以自由地在互联网上获取,那么它们更有可能被恶意利用。近几个月来,全球各地的AI实验室纷纷开发了大型语言模型(Tada Images/Shutterstock 摄影)。OpenAI的GPT-4和Google的PaLM等大型语言模型构成了诸如ChatGPT等生成式AI系统的基础,它们近期在企业和消费者中迅速普及。这些工具在几秒钟内自动生成详细的图像和文本的能力可能会对许多行业产生变革性的影响,但AI模型的封闭性质和开发成本的高昂,使得访问这些技术变得昂贵。许多人认为,开源的大型语言模型可以提供一种更具成本效益的替代方案,特别是对于那些希望利用人工智能力量并使用类似ChatGPT工具的小公司而言。开源大型语言模型的隐患欣顿表示,他上个月离开Google的工作,就是为了能够自由地表达他对人工智能发展的担忧。他认为,开源大型语言模型的兴起可能会带来问题。在周四晚间于剑桥大学存在风险研究中心(Centre for the Study of Existential Risk)发表演讲后,欣顿说:“开源的危险在于,它使更多疯狂的人可以对人工智能做疯狂的事。” 他表示,他认为这些大型语言模型如果仍然局限于如OpenAI等公司实验室中,最终可能证明是更有益的做法。“如果这些技术确实存在危险,那么最好是由几家大公司——最好是来自不同国家的公司——来开发这些技术,并同时开发控制它的方法。” 他说,“一旦你将一切都开源,人们就开始用它做各种疯狂的事情。这将是快速发现人工智能可能出错的方式。”欣顿在演讲中重申了他的观点,即所谓的“超智能人工智能”的能力将很快超过人类智能。他说,他相信GPT-4已经显现出智能的迹象。“这些技术将变得比我们更聪明,并且可能很快就会发生,”他说。“我以前认为这种事至少还要50到100年才会发生,但现在我认为是5到20年。” 他补充道,“如果这件事在五年内就要发生,我们不能仅仅依靠哲学家来决定我们该怎么做,我们需要有实际经验的人。”来自我们合作伙伴的内容如何在混合云中获得最佳体验 企业网络安全的关键在于纵深防御 2023年的网络安全是双速系统 他还补充道:“我希望我能有一个简单的答案(关于如何处理人工智能)。我最好的猜测是,开发人工智能的公司应被强制投入大量工作来检查他们开发的人工智能模型的安全性。我们需要积累这些经验,了解它们可能如何试图逃脱以及如何加以控制。”注册我们的所有通讯注册我们的通讯,获取数据、见解和分析直接送达您由Tech Monitor团队提供 在这里注册 周五,欣顿前雇主Google旗下的AI实验室DeepMind表示,它已开发出一种早期预警系统,可用于识别人工智能可能带来的风险。开源大型语言模型如何对企业有益开源大型语言模型在网上相对较多,特别是自从Meta的LLaMa大型语言模型的源代码于3月泄露以来。软件供应商也在试图从企业对可安装、定制化和个性化大型语言模型日益增长的需求中获利。4月份,Databricks发布了一个名为Dolly 2.0的大型语言模型,Databricks将其宣传为首个开源的、用于商业用途的、遵循指令的大型语言模型。Databricks表示,Dolly 2.0具有类似ChatGPT的功能,并可在内部运行。开源模型的支持者认为,它们有潜力使像ChatGPT这样的人工智能系统得以民主化访问。本月早些时候,Tech Monitor在与使用开源模型的软件开发者基尔塔纳·戈帕拉克里希南(Keerthana Gopalakrishnan)谈话时了解到,她说:“我认为降低进入门槛以进行实验是重要的。” 她补充说:“有很多人对这项技术很感兴趣,他们真的想要进行创新。”更多信息:英国人工智能监管计划回避ChatGPT问题
查看全文
作者最近更新
评论0条评论