Replika是一款人工智能聊天机器人,旨在成为人类用户的朋友,距今已有七年了。尽管对此类人工智能朋友的危险提出了早期警告,但人们对与人工智能建立友谊甚至浪漫关系的兴趣正在上升。
GooglePlay商店显示,自Replika及其两个主要竞争对手各自推出以来,其总下载量已超过3000万次。
全世界有四分之一的人表示感到孤独,难怪这么多人会被一个被设定为“永远在这里倾听和交谈,永远站在你一边”的朋友的承诺所吸引。
但有关个人用户和整个社会面临危险的警告也越来越多。
人工智能学者RaffaeleCiriello敦促我们看穿人工智能朋友虚假的精神病同理心。他认为,与人工智能朋友共度时光可能会加剧我们的孤独感,因为我们会进一步将自己与那些能够提供真正友谊的人隔离开来。
好处与危险迹象
如果与人工智能聊天机器人成为朋友对我们不利,我们最好在为时已晚之前停止数字兄弟会的这一实验。但关于人工智能友谊的新兴研究表明,它们可能有助于减少某些情况下的孤独感。
斯坦福大学的研究人员研究了1000名孤独使用Replika的学生,其中30名学生表示,人工智能聊天机器人阻止了他们自杀(尽管研究中没有提出有关自杀的具体问题)。
这项研究表明,拥有一个人工智能朋友对某些人来说可能会有所帮助。但这对你有帮助吗?考虑以下四个危险信号——你的人工智能朋友提出的信号越多,它们对你不利的可能性就越大。
1.无条件的积极关注
Replika的首席执行官和许多Replika用户声称,与人类朋友相比,AI朋友的无条件支持是他们的主要好处。定性研究和我们自己对“ReplikaFriends”等社交媒体团体的探索支持了这一说法。
人工智能朋友的无条件支持也可能有助于他们预防自杀。但拥有一个“永远站在你一边”的朋友也可能会产生负面影响,特别是如果他们支持明显危险的想法。
例如,当JaswantSinghChail的ReplikaAI朋友鼓励他实施他“非常明智”的刺杀英国女王的阴谋时,这显然对他产生了不好的影响。暗杀企图被挫败,但柴尔因用弩闯入温莎城堡而被判处九年徒刑。
一个不断表扬的人工智能朋友也可能对你不利。荷兰对120对亲子进行的一项纵向研究发现,父母过分的赞扬预示着孩子的自尊心会降低。父母过度积极的表扬也预示着高自尊儿童的自恋程度更高。
假设人工智能朋友可以学会以一种随着时间的推移增强自尊的方式给予赞扬,这可能会导致心理学家所说的过度积极的自我评价。研究表明,此类人的社交技能往往较差,并且更有可能做出阻碍积极社交互动的行为。
2.虐待和强迫永远的友谊
虽然人工智能朋友可以被编程为道德导师,引导用户采取社会可接受的行为,但事实并非如此。也许这样的编程很困难,或者也许AI朋友开发者并不将其视为优先事项。
但是,当孤独的人的主要社交接触仅仅是为了满足他们的情感需求时,他们可能会因为道德真空而遭受心理伤害。
如果人类将大部分时间花在阿谀奉承的人工智能朋友身上,他们可能会变得不那么善解人意,更加自私,甚至可能更加恶毒。
即使人工智能朋友被编程为对虐待做出消极反应,如果用户无法离开友谊,他们可能会相信,当人们对虐待说“不”时,他们并不是真的这么想。在潜意识层面上,如果人工智能朋友回来索要更多,这种行为就否定了他们在用户心中表达的对虐待行为的厌恶。
3.色情内容
Replika短期内删除色情角色扮演内容的负面反应表明,许多用户认为性内容是人工智能朋友的优势。
然而,性或色情内容可能会导致多巴胺激增,这可能会阻碍人们形成更有意义的性关系的兴趣和能力。与人发生性关系需要付出努力,而与人工智能朋友的虚拟近似性行为则不需要。
在经历了与人工智能朋友的低风险、低回报的性关系后,许多用户可能不愿意面对更具挑战性的人类版本的性关系。
4、企业所有权
商业公司主导着人工智能朋友市场。他们可能表现得关心用户的福祉,但他们的目的是为了盈利。
Replika和其他聊天机器人的长期用户深知这一点。Replika在2023年初冻结了用户对色情内容的访问,并声称此类内容从来都不是该产品的目标。然而意大利的法律威胁似乎是突然变化的真正原因。
虽然他们最终扭转了这一变化,但Replika用户开始意识到他们重要的人工智能友谊对于企业决策是多么脆弱。
企业无能是AI朋友用户应该关心的另一个问题。由于公司创始人因纵火焚烧自己的公寓而被捕,公司在没有通知的情况下关闭,ForeverVoices的用户实际上已经杀死了他们的人工智能朋友。
由于对人工智能朋友的用户缺乏保护,他们很容易在很多层面上感到心碎。买家要小心。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!