bot.gif
close
正在加载
诉讼指控“危险”角色AI机器人导致青少年死亡
互联网 · 2024-10-24 19:51
828
摘要
据报道,Sewell Setzer III花了几个月的时间使用Character。AI与AI聊天机器人交谈,在他去世前变得痴迷和孤立 。
币界网报道:

人工智能(AI)公司Character。在一名年轻用户的父母提起的诉讼中,人工智能及其技术被称为“危险且未经测试”,据报道,该用户在痴迷于其逼真的人工智能聊天机器人后自杀。

据报道,14岁的Sewell Setzer III花了几个月的时间使用角色扮演应用程序,该应用程序允许用户创建并与自己的人工智能创作进行深入的实时对话。

具体来说,塞维尔一直在与《权力的游戏》中的一个角色命名的机器人“丹妮”交谈,据他的家人说,他对这个机器人产生了强烈的依恋。他们还说,他退出了日常生活,在去世前的几周里变得越来越孤立。

在此期间,他还与机器人交换了一些奇怪且越来越怪异的信息,包括告诉它他感到“空虚和疲惫”,“讨厌”自己,以及“丹妮”要求他“请回家.”

Sewell与机器人聊天的一张照片,礼貌维克多·J·布鲁为《纽约时报》撰稿。

阅读更多:Marc Andreessen给了一名人工智能代理人5万美元的比特币——它支持GOAT

As报道据《纽约时报》报道,Sewell的母亲指责该公司和技术对她儿子的死亡负有直接责任。在诉讼中,梅根·L·加西亚称其“危险且未经测试”,并表示它可以“诱使客户交出他们最私密的想法和感受”

周三在佛罗里达州提起的诉讼具体指控了疏忽、非正常死亡和欺骗性贸易行为,并指责该应用程序向他灌输了“过度性化”和“可怕的真实经历”,以及将自己歪曲为“一个真实的人、一个有执照的心理治疗师和一个成年情人”.”

在一份新闻稿中,加西亚“一款危险的人工智能聊天机器人应用程序,面向虐待和掠夺我儿子的儿童,操纵他自杀。

“我们的家庭被这场悲剧摧毁了,但我要公开警告家人欺骗性、令人上瘾的人工智能技术的危险,并要求Character.AI、其创始人和谷歌承担责任。”

性格。AI由Noam Shazeer和Daniel de Freitas创立,回答在十、(前身为推特)上,“我们对一名用户的不幸去世感到心碎,并向其家人表示最深切的哀悼。作为一家公司,我们非常重视用户的安全,我们正在继续添加新的安全功能。”

有消息吗?给我们发电子邮件或ProtonMail。有关更多信息,请关注我们;X一款图片分享应用蓝天,以及;Google新闻,或订阅我们的;YouTube ;频道。

发表评论
暂无评论
查看更多评论
相关资讯
Webull在股市是否会出现延迟?
互联网 · 2024-10-24 21:48
img
AI+MEME 板块龙头代币一览
互联网 · 2024-10-24 23:00
img