人工智能聊天机器人即将进入搜索引擎。你能相信他们吗?
几个月前,聊天机器人ChatGPT凭借其不寻常的类人写作和回答问题能力震惊了世界,如今人工智能(AI)正进入网络搜索领域。上周,全球三大搜索引擎——谷歌(Google)、必应(Bing)和百度——宣布,它们将把ChatGPT或类似技术整合到各自的搜索产品中,使用户可以获取直接答案或进行对话,而不再仅仅在输入一个词或问题后看到一串链接。这将如何改变人们与搜索引擎的互动方式?这种人机互动形式是否存在风险?微软的必应使用的是与ChatGPT相同的技术,而ChatGPT由美国旧金山的OpenAI开发。但所有三家公司都在使用大型语言模型(LLMs)。LLMs通过模仿大型数据库中的文本统计模式,生成看起来真实可信的句子。谷歌于2023年2月6日宣布的AI驱动搜索引擎“巴德”(Bard),目前正由一小群测试者使用。微软的版本目前已广泛可用,尽管要获得无限制访问权限仍需排队等候。百度的“文心一言”(ERNIE Bot)将在3月推出。在这些公告之前,一些较小的公司已经推出了AI驱动的搜索引擎。旧金山的计算机科学家阿鲁文·斯里尼瓦斯(Aravind Srinivas)于去年8月共同创立了一家基于LLM的搜索引擎公司Perplexity,他表示:“搜索引擎正在进入一种新状态,你可以像跟朋友聊天那样与它们对话。”信任的转变与传统互联网搜索相比,对话的私密性和互动性可能会影响用户对搜索结果的看法。瑞士苏黎世大学的计算社会科学家阿莱桑德拉·乌曼(Aleksandra Urman)表示,人们可能更信任与他们对话的聊天机器人提供的答案,而不是传统搜索引擎给出的答案。2022年,由美国佛罗里达州盖恩斯维尔大学一支团队进行的一项研究发现,当参与者与亚马逊和百思买等公司使用的聊天机器人互动时,他们越觉得对话像人类,就越信任相关公司。这可能是一个优势,使搜索更加高效顺畅。但考虑到AI聊天机器人也会犯错,这种增强的信任感也可能引发问题。谷歌的Bard在自家技术演示中就曾错误地回答了关于詹姆斯·韦伯太空望远镜的问题,并自信地给出了错误答案。而ChatGPT则倾向于对其不知道的问题编造答案,业内称之为“幻觉”。谷歌的一位发言人表示,Bard的这个错误“突显了严格测试流程的重要性,我们本周正通过可信测试者计划启动相关测试”。不过,一些人认为,这类错误,一旦被发现,反而可能导致用户对基于聊天的搜索失去信心。总部位于加州山景城的计算机科学家斯里达尔·拉马斯瓦米(Sridhar Ramaswamy)是1月推出的LLM驱动搜索引擎Neeva的首席执行官,他表示:“用户最初的印象可能会产生巨大影响。”Bard的这个错误使谷歌市值蒸发了1000亿美元,投资者对未来的担忧促使他们抛售股票。透明度的缺乏除了准确性问题,AI搜索还缺乏透明度。通常,搜索引擎会向用户展示其来源——即链接列表——并让用户自行决定信任哪个。相比之下,LLMs通常不会告诉用户自己是基于什么数据训练的——是百科全书,还是八卦博客?苏黎世大学的乌曼表示:“AI驱动的搜索引擎运作方式完全不透明,这可能会带来重大影响,如果语言模型出现错误、产生幻觉或传播虚假信息。”Urman指出,如果搜索机器人犯的错误足够多,那么,它们的对话能力反而会削弱用户对搜索引擎作为事实中立仲裁者的信任。她目前尚未发表的研究表明,目前人们对搜索引擎的准确性仍抱有较高信任。她研究了用户如何看待谷歌用来提升搜索体验的两种现有功能:一种是“特色摘要”(featured snippets),即从与搜索高度相关的一篇网页中提取的摘要内容,显示在链接之上;另一种是“知识卡片”(knowledge panels),即谷歌自动为对某人或组织的搜索生成的摘要。乌曼调查的受访者中,近80%认为这些功能是准确的,约70%认为它们是客观的。巴黎的人工智能数据科学平台Hugging Face的首席伦理学家吉亚达·皮斯蒂利(Giada Pistilli)表示,聊天机器人驱动的搜索模糊了机器和人类之间的界限。她担心公司采用AI技术的速度太快来不及控制:“我们总是被层出不穷的新技术冲击着,却没有控制手段或教育框架来了解如何使用这些技术。”本文经授权转载,最初于2023年2月13日发布。
查看全文
作者最近更新
-
我们进化的历史可以教会我们人工智能的未来scientific2023-11-11
-
“ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文scientific2023-11-11
-
人工智能需要规则,但谁将拥有制定规则的权力?scientific2023-11-07
评论0条评论