Emma McGowan 2024年2月14日
最近Mozilla发表的一份报告指出,浪漫AI聊天机器人的激增带来了全新的隐私问题。
自1960年代以来,AI浪漫伴侣就一直是流行文化的一部分。从《我爱我的玩偶》中名为“Rhoda Miller”的全自动机器人,到Scarlett Johansson在2013年的电影《她》中所扮演的无体声音,我们几代人来都在共同幻想著人工智慧可以满足我们的情感需求。而现在,随著生成式AI的开发与问世,这个梦想似乎终于成为现实。
但这真的是梦想吗?还是我们正无意间步入隐私的噩梦?这正是Mozilla研究小组在其最近的隐私不包括浪漫AI聊天机器人的专题报告中探讨的问题。
报告的发现令人震惊,测试的11款聊天机器人中有10款未达到Mozilla的最低安全标准。这意味著它们不要求用户设定强密码,也没有处理安全漏洞的方法。随著Google Play商店下载量超过1亿,并且OpenAI的新应用商店也迎来了浪漫聊天机器人的浪潮,这个庞大的问题只会愈加严重。
不过,这份报告不仅仅是数字的问题,更涉及到这些发现引发的重大隐私隐忧。例如,Replika AI。根据Mozilla的说法,人们在这个应用上分享了他们最私密的想法、感受、照片和视频,而该应用不仅会记录这些信息,还可能将其出售给数据经纪商。此应用还允许用户使用像“111111”这样的弱密码创建账户,让这些敏感信息处于被黑客攻击的风险中。
Calder表示,尽管这些隐私和安全缺陷已经“令人不安”,但有些聊天机器人还声称可以帮助客户的心理健康。她特别提到Romantic AI的例子,其条款和条件中指出:
“Romantic AI 既不是医疗或健康服务提供者,也不提供医疗、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专业人士可以做到这一点。Romantic AI 不对所提供的服务作出任何治疗、医疗或其他专业的帮助的声明、保证或担保。”
绿叶加速器官方然而,他们的网站却宣称“Romantic AI 旨在维护您的心理健康”强调部分是他们的。尽管我们没有关于有多少人阅读条款和条件与有多少人阅读网站的数据,但可以安全地猜测,更多 人看到的是网站的信息而不是免责声明。
在心理健康的声称以及客户自愿与数字“灵魂伴侣”分享个人和私密信息之间,Calder担心这些聊天机器人有可能轻易地操控人们做出他们不会主动选择的行为。
“什么能阻止坏人设计聊天机器人来了解他们的灵魂伴侣,然后利用这种关系操控这些人做可怕的事情、接受可怕的意识形态,或对自己或他人造成伤害?”Calder说。“这就是为什么我们迫切需要这些AI应用程序提供更多透明度和用户控制。”
因此,尽管AI聊天机器人承诺提供陪伴,但我们还没有达到《她》的水平:当前的现状揭示了用户隐私的代价。现在是用户、开发者和政策制定者要求在AI关系领域中实现透明度、安全性和尊重个人界限的时候了。只有这样,我们才能希望在不妨碍我们数字身份的情况下安全地探索这些数字伴侣的潜能。
发表评论