bot.gif
close
正在加载
角色AI在青少年用户自杀后实施新的安全规则
互联网 · 2024-10-24 03:39
768
摘要
一名14岁的男子爱上了一个以《权力的游戏》为主题的聊天机器人,然后开枪自杀,这是最近一次困扰角色AI的事件 。
币界网报道:

在一名2月份自杀身亡的青少年用户的母亲提起诉讼后,人工智能驱动的聊天机器人平台Character AI正在引入“严格”的新安全功能。

一位公司发言人告诉记者,这些措施将包括“改进与违反我们的条款或社区指南的用户输入相关的检测、响应和干预”,以及花时间通知解密,并指出该公司无法对未决诉讼置评。

然而,Character AI确实对用户的死亡表示同情,并概述了其安全协议在博客文章中星期三 ;

Character.ai在推特上写道:“我们对一名用户的不幸去世感到心碎,并向其家人表示最深切的哀悼。”。“作为一家公司,我们非常重视用户的安全。”

据《每日邮报》报道,在他去世前的几个月里,14岁的佛罗里达州居民Sewell Setzer III越来越喜欢一个以《权力的游戏》中角色Daenerys Targaryen命名的用户生成聊天机器人 《纽约时报》他经常每天与机器人互动数十次,有时还会交换浪漫和性内容。

塞泽尔在死亡前的几分钟与机器人进行了沟通,之前曾分享过自杀的想法时代据报道 ;

Setzer的母亲,律师Megan L.Garcia周二提起诉讼,要求Character AI及其创始人Noam Shazeer和Daniel De Freitas对儿子的死亡负责。起诉书称,除其他指控外,该诉讼还指控被告“选择支持、创造、推出和瞄准未成年人一种他们知道是危险和不安全的技术”。加西亚要求赔偿金额不详。

谷歌有限责任公司和Alphabet股份有限公司也被列为诉讼被告。谷歌于8月重新聘请了Shazeer和De Freitas,他们都于2021年离开了这家科技巨头,成立了Character AI,这是27亿美元交易的一部分,其中还包括授权这家聊天机器人初创公司的大型语言模型 ;

该公司的声明称,除了其他安全措施外,Character AI“在过去六个月里实施了许多新的安全措施,包括一个弹出窗口,将用户引导到由自残或自杀意念引发的国家自杀预防生命线”。它还将改变其模式,“以降低18岁以下用户遇到敏感或暗示性内容的可能性” ;

Character AI是市场上许多AI陪伴应用程序之一,这些应用程序的安全准则通常不如ChatGPT等传统聊天机器人严格。角色AI允许用户自定义他们的同伴并指导他们的行为 ;

这起诉讼发生之际,家长们越来越担心技术对儿童和青少年的心理影响,声称他对机器人的依恋对他的心理健康产生了负面影响。塞泽尔小时候被诊断为轻度阿斯伯格综合征,最近被诊断为焦虑和破坏性情绪调节障碍时代据报道 ;

该诉讼是法院正在测试根据《通信规范法》第230条为社交媒体公司提供的法律保护的几起诉讼之一,该法案保护他们免于承担与用户生成内容相关的责任。TikTok正在申请重审一宗案件,在该案件中,一名10岁女孩在试图完成她在应用程序上看到的“停电挑战”时死亡,法官裁定TikTok可能要承担责任。这是Character AI的最新问题,上个月遭到抨击因为托管了一个以谋杀案受害者名字命名的聊天机器人 ;

发表评论
暂无评论
查看更多评论
相关资讯