人们,而非谷歌的算法,在网络上为自己创造了党派性的“信息泡沫”# 示例输入和输出 **输入** 人工智能(AI)是计算机科学的一个分支,旨在开发表现出人类智能的软件或机器。这包括从经验中学习、理解自然语言、解决问题以及识别模式。 **输出** 人工智能(AI)是计算机科学的一个分支,旨在开发表现出人类智能的软件或机器。这包括从经验中学习、理解自然语言、解决问题以及识别模式。

scientific 20230525

  • 人工智能
  • 社交媒体
  • 信息过滤
从感恩节晚餐的对话到流行文化的讨论,人们很容易感觉持有不同政治理念的个体仿佛生活在完全不同的世界中,尤其是在网络上。人们常常将算法——那些塑造在线环境的隐形规则,从社交媒体到搜索引擎——视为将用户隔离在数字“过滤气泡”中的元凶,因为它们只推送强化我们既有世界观的内容。算法总是带有偏见:研究表明,Facebook广告针对特定的种族和性别群体,约会应用程序根据用户之前滑动记录进行匹配,而搜索引擎优先显示它们认为最相关的结果。但根据最新研究,并非所有算法都会加剧政治极化。今天发表于《自然》(Nature)的一篇研究发现,谷歌搜索引擎并没有返回明显偏向某一方的政治结果。相反,政治立场极端的谷歌用户倾向于通过点击极端新闻网站的链接而自我隔绝。这些发现表明,至少对于谷歌搜索而言,人们摆脱网络回音室可能比想象中更容易——但前提是他们有意愿这么做。算法几乎渗透了我们在线生活的方方面面,并有能力塑造我们看待世界的方式。“它们确实对人们如何消费信息、从而形成观点产生一定影响,”罗格斯大学(Rutgers University)传播学研究员、新研究的共同作者凯瑟琳·奥格尼亚诺娃(Katherine Ognyanova)说。但这些程序在多大程度上推动政治极化,有时却难以量化。奥格尼亚诺娃指出,算法会考虑“你是谁、你在哪里、你用什么设备进行搜索、地理位置和语言”等信息,但“我们并不真正知道算法是如何运作的,它是一个黑箱。”大多数分析算法驱动政治极化的研究都专注于社交媒体平台,如Twitter和Facebook,而不是搜索引擎。这是因为,直到最近,研究人员更容易从提供公开软件接口的社交媒体网站上获取可用数据。“对于搜索引擎来说,并没有这样的工具,”马里兰大学(University of Maryland)媒体与民主新任助理教授丹尼尔·特里埃利(Daniel Trielli)说,他并未参与这项研究。但奥格尼亚诺娃和她的合著者找到了一个解决办法。他们没有依赖匿名化的公开数据,而是向志愿者发送了一个浏览器扩展程序,记录他们几个月内的谷歌搜索结果以及他们从结果页点击的链接。这个扩展程序就像后院设置的摄像机陷阱,用来拍摄野生动物——在这里,它为每个参与者提供他们在网络世界中的快照。研究人员从2018年美国中期选举前三个月以及2020年美国总统选举前九个月,收集了数百名谷歌用户的数据。随后,他们将这些数据与参与者的年龄和政治立场(根据1到7的量表,从坚定的民主党人到坚定的共和党人)进行分析。亚利桑那大学(University of Arizona)计算社会科学家约塔姆·施马加德(Yotam Shmargad)表示,这种方法将参与者的搜索行为与关于他们政治倾向的调查信息结合在一起,是一种“开创性的”做法。宾夕法尼亚大学(University of Pennsylvania)网络安全研究员霍玛·侯赛因玛迪(Homa Hosseinmardi)也指出,从政策制定的角度来看,这种类型的实地数据极其有价值。侯赛因玛迪并未参与这项研究。为了确保像谷歌这样每日处理超过85亿次搜索请求的搜索引擎巨头以人们的利益为重,仅仅了解算法的运作方式是不够的。侯赛因玛迪表示:“你需要观察人们如何使用算法。”尽管许多立法者目前正在推动大型科技公司公开匿名用户数据,但一些研究人员担心,这将促使平台发布误导性、偏倚或不完整的信息。一个显著的实例是,Facebook母公司Meta曾聘请一支科学家团队调查该平台与民主和政治极化之间的关系,但却未能兑现一半承诺的数据共享。斯坦福大学(Stanford University)网络科学家、新研究的主要作者罗纳德·罗伯逊(Ronald Robertson)表示:“我认为直接从用户入手要更有意义得多。”最终,团队发现,一次快速的谷歌搜索并不会根据用户的意识形态向其提供新闻故事的选择。“谷歌总体上并不会做太多个性化处理,”罗伯逊说,“而如果个性化程度低,那么算法对页面的调整也就不会那么大。”相反,立场极端的用户更有可能点击与他们已有世界观一致的极端链接。但这并不意味着谷歌的算法毫无瑕疵。研究人员注意到,在搜索结果中仍会出现不可靠甚至完全误导的新闻来源,无论用户是否与它们互动。“谷歌在其他一些方面也做过一些非常有问题的事情,”罗伯逊提到,例如在图像搜索结果中严重低估有色人种女性的出现频率。谷歌的一位发言人表示,公司“赞赏这项新研究中研究者的工作”。在一封电子邮件声明中,公司表示,它努力使自己的算法“相关且可靠”。公司称,搜索功能的设计并不是为了在结果中推断敏感信息——如种族、宗教或政治倾向。施马加德指出,如果将研究数据细分到更具体的层面,研究结果并不完全无偏见。他说:“看起来不同政党之间并没有太多算法偏见,但在不同年龄群体之间可能存在一些偏见。”65岁及以上的用户,在谷歌搜索结果中看到的右翼内容链接比其他年龄群体更多,无论其政治立场如何。然而,由于这一影响较小,且这一最年长的群体仅占总参与者的大约五分之一,因此在宏观分析中,这一影响对整体研究结果的影响消失了。尽管如此,这些发现反映了越来越多的研究成果,表明算法在制造政治气泡中的作用可能被夸大了。特里埃利表示:“我对指责平台本身并无异议。”他补充道,“但知道平台表现良好并不足以令人安心。”我们个人仍然强烈地出于政治偏见选择过滤所读内容,“我们自己也希望被分裂开来。”奥格尼亚诺娃指出的积极一面是,“这项研究表明,人们并不那么难以逃离他们的意识形态气泡。”这也许是对的。但首先,他们必须有逃离的愿望。

查看全文

点赞

scientific

作者最近更新

  • 我们进化的历史可以教会我们人工智能的未来
    scientific
    2023-11-11
  • “ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文
    scientific
    2023-11-11
  • 人工智能需要规则,但谁将拥有制定规则的权力?
    scientific
    2023-11-07

期刊订阅

相关推荐

  • 传感器应该推进人工智能实现整体进化

    2018-12-07

  • AI结合智能手机传感器 可预测人类压力水平

    2019-07-10

  • 简单的智能玻璃揭示了人工视觉的未来

    2019-07-12

  • 英特尔开发出含800万神经元的类脑芯片系统

    2019-07-18

评论0条评论

×
私信给scientific

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告