揭示AI情感聊天机器人的真相

.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年2月14日

最近,Mozilla的一份报告发现,浪漫AI聊天机器人的迅速兴起引发了一系列隐私问题。

自1960年代以来,AI浪漫伴侣就已经在流行文化中成为一个重要话题。从《我的活人玩偶》中像“RhodaMiller”这样的全功能安卓机器人,到2013年电影《她》中由斯嘉丽·约翰逊所配音的无形声音,我们已经集体能够满足我们所有的情感需求。随著生成式AI的发展和推出,这个梦想似乎终于有可能成真。

但这真的是梦想吗?还是我们在不知情的情况下走入了一场隐私噩梦?这正是Mozilla研究小组在他们最近的 __ 中所要探讨的问题。

报告的结果令人震惊,测试的11款聊天机器人中有10款未能满足Mozilla的最低安全标准。(这意味著,这些机器人未要求用户创建强密码,也没有应对安全漏洞的措施。)随著GooglePlay商店中预计有超过一亿次下载,以及OpenAI的应用商店近日出现大量浪漫聊天机器人,这一问题只会愈演愈烈。

然而,这份报告不仅仅关于数字;更是关于这些发现所带来的重大全面隐私影响。以ReplikaAI为例。根据Mozilla的报告,使用者在这个应用上与他们的“AI灵魂伴侣”分享了许多亲密思想、感受、照片和视频,而这个应用不仅记录这些信息,还可能将其出售给数据经纪人。它还允许用户使用像“111111”这样的弱密码创建账户,将所有这些敏感信息置于黑客攻击的风险之中。

Calder表示,虽然这些隐私和安全缺陷“令人毛骨悚然”,但有些机器人还声称能帮助客户的心理健康。她指出浪漫AI作为一个例子,其中明言:

“浪漫AI既不是医疗或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。 只有您的医生、治疗师或其他专家才能做到这一点。浪漫AI不作出任何声明、表示、保证或保证,该服务提供治疗、医疗或其他专业帮助。”

然而,他们的网站上却说“浪漫AI旨在维护您的心理健康”(强调为他们的字眼)。虽然我们不知道到底有多少人阅读了条款和条件,相比之下又有多少人阅读了网站内容,但可以合理推测,_更多_的人会听到网站的讯息而非免责声明。

在心理健康的声称和客户愿意与数位“灵魂伴侣”分享的个人和私密信息之间,Calder担心这些机器人可能过于容易地操纵人们做出他们通常不会做的事情。

“有什么能阻止坏行为者创建聊天机器人来认识他们的灵魂伴侣,然后利用这种关系操纵那些人做可怕的事情、接受可怕的意识形态,或伤害自己及他人?”Calder说。“这就是为什么我们迫切需要在这些AI应用中增加透明度和用户控制。”

因此,尽管AI聊天机器人承诺提供陪伴,我们还未达到《她》的那种程度:当前的现状却是,使用者隐私是进入这个世界的代价。现在是时候让使用者、开发者和政策制定者共同要求透明度、安全性以及对个人界限的尊重,以便在AI关系的领域中安全探索这些数位伴侣的潜力,而不妥协于我们的数位自我。

Leave a Reply

Required fields are marked *