close
正在加载
谷歌警告称,人工智能助手用户可能会对他们产生“情感依恋”
互联网 · 2024-04-24 07:41:06
币界网报道:

由人工智能驱动的虚拟个人助理在各个技术平台上变得无处不在,每一家主要的科技公司都在其服务中添加了人工智能,数十项专业服务涌入市场。谷歌的研究人员表示,尽管这非常有用,但人类可能会对它们过于依恋,导致一系列负面的社会后果。

谷歌DeepMind人工智能研究实验室的一篇新研究论文强调了先进、个性化的人工智能助手在改变社会各个方面的潜在好处,称它们“可以从根本上改变工作、教育和创造性追求的性质,以及我们如何相互沟通、协调和谈判,最终影响我们想要成为谁。”

当然,如果人工智能的发展在没有深思熟虑的规划的情况下继续加速,这种巨大的影响可能是一把双刃剑。

一个关键风险?不恰当的亲密关系的形成——如果助手出现类似人类的表情或面孔,这种情况可能会加剧。该论文称:“这些人工智能体甚至可能表达他们对用户所谓的柏拉图式或浪漫的情感,为用户对人工智能形成长期的情感依恋奠定了基础。”。

如果不加以控制,这种依恋可能会导致用户失去自主性和社会联系,因为人工智能可以取代人类互动。

这种风险并非纯粹是理论上的。即使在人工智能处于某种原始状态的时候,人工智能聊天机器人的影响力也足以说服用户在2023年长时间聊天后自杀。八年前,一个名为“Amy Ingram”的人工智能电子邮件助理足够现实,可以提示一些用户发送爱情短信,甚至试图在工作中拜访她。

DeepMind伦理研究团队的研究科学家、该论文的合著者Iason Gabriel没有回应Decrypt的置评请求。

然而,Garbriel在一条推文中警告称,“越来越个人化和人性化的助理形式带来了关于拟人化、隐私、信任以及与人工智能的适当关系的新问题。”

因为“数以百万计的人工智能助理可以部署在社会层面,在那里他们可以相互交流,也可以与非用户互动,”Gabriel说,他认为需要更多的保障措施和更全面的方法来应对这一新的社会现象。

该研究论文还讨论了价值取向、安全性和滥用在人工智能助手开发中的重要性。尽管人工智能助手可以帮助用户改善他们的幸福感,增强他们的创造力,优化他们的时间,但作者警告说,还有其他风险,如与用户和社会利益不一致,将价值观强加给他人,用于恶意目的,以及易受对抗性攻击。

为了应对这些风险,DeepMind团队建议为人工智能助理开发全面的评估,并加快开发对社会有益的人工智能助理。

“我们目前正处于这个技术和社会变革时代的开端。因此,作为开发者、研究人员、政策制定者和公共利益相关者,我们现在有机会采取行动,塑造我们希望在世界上看到的人工智能助理。”

人工智能错位可以通过人工反馈强化学习(RLHF)来缓解,RLHF用于训练人工智能模型。保罗·克里斯蒂安诺(Paul Christiano)等专家警告说,人工智能训练方法的不当管理可能会以灾难告终。克里斯蒂安诺是OpenAI语言模型比对团队的负责人,现在是非营利比对研究中心的负责人。

Paul Christiano去年在Bankless播客上表示:“我认为人工智能接管的可能性大约为10-20%,许多人或大多数人已经死亡。”。“我非常认真。”

由Ryan Ozawa编辑。

s_logo
App内打开