bot.gif
close
正在加载
人工智能公司正在对聊天机器人进行个性改造
互联网 · 2024-10-21 04:33
925
摘要
他们希望聊天机器人感觉更人性化,同时对日常用户和企业保持安全和有用。这三家公司正在竞相破解这个密码, 。
币界网报道:

人工智能不再只是让机器更聪明。现在,像OpenAI、谷歌和Anthropic这样的大型人工智能公司面临着一个新的挑战:如何赋予人工智能模型个性。

他们希望聊天机器人感觉更人性化,同时对日常用户和企业保持安全和有用。这三家公司正在竞相破解这一密码,每家公司都有不同的看法。

定制个性和模范行为

OpenAI的ChatGPT旨在保持客观,而谷歌的Gemini仅在被询问时提供一系列视图。

人类?他们都在努力让克劳德模型公开自己的信仰,同时仍然倾听他人的意见。这场战斗的赢家可能会接管不断增长的人工智能市场。

OpenAI产品模型行为负责人Joanne Jang表示,他们希望人工智能能够避开个人意见。但她承认这很难 ;

她解释说:“让模特试图主动改变用户的想法是一个滑坡。”。目标是确保ChatGPT不会操纵或引导用户朝任何方向发展。但为人工智能系统定义一个“目标”是一个巨大的挑战,这仍然是一项正在进行的工作。

然后是Anthropic,它采取了一条完全不同的路线。Anthropic的角色训练负责人Amanda Askell认为,人工智能模型永远不会完全中立。

她说:“我宁愿非常明确地说,这些模型不是中立的仲裁者。”。Anthropic专注于确保其模型克劳德不害怕表达自己的信仰。但他们仍然希望它对其他观点持开放态度。

训练AI表现得像人类

Anthropic有一种独特的方法来塑造他们的人工智能个性。自从3月份发布Claude 3以来,他们一直在进行“角色训练”,这是在人工智能模型的初始训练之后开始的。

这涉及到给人工智能一套书面规则和指令,然后让它与自己进行角色扮演对话。

目标是观察它遵守规则的程度,并根据它们与所需角色的匹配程度对其反应进行排名。

克劳德训练的一个例子?它可能会说,“我喜欢尝试从许多不同的角度看待事物,从多个角度分析事物,但我并不害怕表达我认为不道德、极端或事实错误的观点。”

Amanda Askell解释说,这种性格训练有时“相当具有编辑性”和“哲学性” ;

随着时间的推移,OpenAI也一直在修补ChatGPT的个性。Joanne Jang承认,她过去觉得这个机器人“很烦人”,因为它过于谨慎,拒绝了某些命令,并且不再说教。

从那以后,他们一直在努力让它变得更加友好、礼貌和乐于助人——但这是一个持续的过程。正如张所说,在聊天机器人中平衡正确的行为既是“科学也是艺术”

人工智能不断进化的记忆和推理能力

人工智能推理和记忆能力的演变可能会进一步改变游戏。现在,像ChatGPT这样的模型可能会被训练为对某些主题(如入店行窃)给出安全的响应。

如果被问到如何偷东西,机器人可以判断用户是在寻求犯罪建议还是试图阻止犯罪。

这种推理有助于公司确保他们的机器人给出安全、负责任的答案。这意味着他们不必花那么多时间训练人工智能来避免危险的结果。

人工智能公司也在努力使聊天机器人更加个性化。想象一下,告诉ChatGPT你是穆斯林,然后几天后要求一句鼓舞人心的名言。

机器人会记住并提供古兰经经文吗?据乔安妮·张说,这就是他们试图解决的问题。虽然ChatGPT目前不记得过去的交互,但这种定制是人工智能的发展方向。

克劳德采取了不同的方法。该模型也不记得用户交互,但该公司考虑了如果用户过于依恋会发生什么。

例如,如果有人说他们因为花太多时间和克劳德聊天而孤立自己,机器人应该介入吗?

Amanda Askell说:“一个好的模型在尊重人类自主性和决策制定之间取得了平衡,不做任何非常有害的事情,但也要思考什么对人们真正有益。”.

发表评论
暂无评论
查看更多评论
相关资讯