揭示 AI 关系聊天机器人的真相
  • 72

艾玛麦戈文 2024年2月14日

最近,Mozilla发布了一份报告,指出浪漫AI聊天机器人的爆炸性增长正在引发全新的隐私问题。

自1960年代以来,AI浪漫伴侣便已成为流行文化的一部分。从《我的定制情人》中的全身机器人Rhoda Miller,到2013年电影《她》中斯嘉丽约翰逊扮演的无形声音,我们几代人以来就一直在梦想著人工智慧能满足我们所有的情感需求。现在,随著生成式AI的发展和推出,这个梦想似乎终于有可能成为现实。

梯子npv加速

但这真的是梦想吗?还是我们正处于一起隐私噩梦的梦游中?Mozilla的研究团队在他们最近的浪漫AI聊天机器人隐私未考虑特别报告中,针对这一问题进行了探讨。

研究结果令人震惊,11个测试的聊天机器人中有10个未达到Mozilla的最低安全标准。(这意味著,除了其他问题之外,它们未要求用户创建强密码或提供处理安全漏洞的方式。) 而在Google Play商店中,预估下载量超过一亿,OpenAI的应用商店最近也正迎来一波浪漫聊天机器人,这一巨大问题只会不断扩大。

但这份报告不仅仅是数字的堆砌;它还涉及到这些发现的重大隐私潜在影响。例如以Replika AI为例。根据Mozilla的说法,人们在这款应用上与AI灵魂伴侣分享了他们最私密的想法、感受、照片和视频,而该应用不仅记录这些信息,还可能会将其出售给数据经纪人。此外,它还允许用户创建像111111这样的弱密码帐号,让所有敏感信息面临骇客攻击的风险。

Calder表示,虽然这些隐私和安全缺陷已经令人气愤,但其中一些聊天机器人甚至声称能帮助用户的心理健康。她以Romantic AI为例,该公司的条款和条件中指出:

Romantic AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他任何专家才能做到这一点。Romantic AI不对该服务提供治疗、医疗或其他专业帮助的声明、担保或保证负责。

揭示 AI 关系聊天机器人的真相

然而,该网站却宣称Romantic AI在此维护您的心理健康强调为他们的说法。尽管我们无法得知有多少人阅读了条款和条件与多少人查看了网站,但可以肯定的是,更多的人注意到了网站的信息,而非免责声明。

在心理健康声称与用户自愿分享个人及私密信息的情况下,Calder担心这些机器人可能轻易操纵人们做出平常不会做的事情。

有什么能阻止坏人创造聊天机器人来了解他们的灵魂伴侣,然后利用这种关系来操纵这些人做出可怕的事情、接受吓人的意识形态,或伤害自己或他人?Calder说。这就是为什么我们迫切需要在这些AI应用中增强透明度和用户控制。

因此,尽管AI聊天机器人承诺能提供陪伴,但我们尚未达到她的那种境界:当前的现状揭示了一个残酷的现实,即用户隐私的保障成为了代价。是时候让用户、开发者和政策制定者在AI关系领域要求透明度、安全性和对个人界限的尊重了。只有这样,我们才有希望在不妥协自己数字身份的情况下,安全地探索这些数字伴侣的潜力。