bot.gif
取消
选择语言
确认
简体中文
繁体中文
English
close
正在加载
研究人员警告:人工智能“集群”可能加剧网络虚假信息和操纵行为
互联网 · 2026-01-26 03:59
490
摘要
一篇新的学术论文探讨了自主人工智能代理如何使影响力活动更难被发现,并使其在规模上更有效 。
币界网报道:

根据一项新的研究,容易被检测到的僵尸网络时代即将结束。报告发表于科学周四,研究人员在研究中警告说,虚假信息传播活动正在转向能够模仿人类行为、实时适应环境且几乎不需要人工监督的自主人工智能群体,这使得检测和阻止这些活动变得更加复杂。

该报告由包括来自牛津大学、剑桥大学、加州大学伯克利分校、纽约大学和马克斯·普朗克研究所的研究人员组成的研究团队撰写。这描述了一种数字环境,在这种环境中,操纵行为越来越难以识别。与以往与选举或政治相关的短暂行动不同,这些人工智能活动可以持续更长时间地营造某种叙事。

研究人员写道:“如果这些工具落入政府手中,可能会压制异议或巩固当权者的权力。因此,只有在严格、透明且民主问责的框架下,才能考虑部署防御性人工智能。”

一个蜂群是一群自治的人工智能代理研究人员表示,人工智能集群能够协同工作,比单个系统更高效地解决问题或完成目标。他们指出,人工智能集群利用了社交媒体平台现有的弱点,在这些平台上,用户往往无法接触到不同的观点。

他们写道:“事实证明,虚假新闻的传播速度和范围都比真实新闻更快、更广,加剧了现实的碎片化,并侵蚀了共同的事实基础。最近的证据表明,以用户参与度为导向的内容推送与社会极化有关,平台算法甚至不惜牺牲用户满意度来放大分裂性内容,进一步损害了公共领域。”

南加州大学计算机科学教授、Sahara AI 首席执行官 Sean Ren 表示,这种转变已经在主要平台上显现出来,人工智能驱动的账户越来越难以与普通用户区分开来。

“我认为更严格的KYC(了解你的客户)或账户身份验证机制会有很大帮助,”任先生说。解密“如果创建新账户更难,监控垃圾邮件发送者更容易,那么特工就更难利用大量账户进行协同操纵。”

早期的舆论战主要依赖规模而非技巧,成千上万个账号同时发布相同的信息,这使得检测相对容易。相比之下,该研究指出,人工智能群体展现出“前所未有的自主性、协调性和规模”。

任先生表示,单靠内容审核不太可能阻止这些系统。他认为,问题在于平台如何大规模管理身份。他指出,更严格的身份验证和账户创建限制,即使单个帖子看起来像是真人发布,也能更容易地检测到协同行为。

他说:“如果代理人只能使用少量账户发布内容,那么就更容易发现可疑的使用情况并封禁这些账户。”

没有简单的解决办法

研究人员得出结论,这个问题没有单一的解决方案,潜在的选择包括改进对统计异常协调的检测和提高自动化活动的透明度,但他们表示,仅靠技术措施不太可能足够。

任教授表示,即使平台引入了新的技术保障措施,经济利益仍然是协同操纵攻击的一个持续驱动因素。

他表示:“这些代理群通常由一些团队或供应商控制,他们会从外部机构或公司获得金钱报酬,从而进行协同操纵。平台应该加强KYC(了解你的客户)和垃圾邮件检测机制,以识别和过滤掉被代理操纵的账户。”

相关资讯