Loading...
Emma McGowan 2024年2月14日
Mozilla最近的一份报告指出,浪漫AI聊天机器人的迅速兴起正在引发全新的隐私问题。
自1960年代以来,AI浪漫伴侣便已成为流行文化中的一个现象。从《我的生活娃娃》中的全机械人Rhoda Miller,到2013年《她》中斯嘉丽约翰逊声音演绎的无形角色,我们集体已经梦想著人工智慧能满足我们所有的情感需求。而如今,随著生成式AI的发展与推出,这个梦想似乎终于有实现的可能。
但这真的是梦想吗?还是我们正在梦游进入一个隐私噩梦?这正是Mozilla研究团队在其最近的浪漫AI聊天机器人隐私不可包含特别报告中探讨的问题。
报告的结果令人震惊,11种测试的聊天机器人中有10种未能达到Mozilla的最低安全标准。这意味著,这些聊天机器人不要求用户创建强密码或提供应对安全漏洞的方式。随著在Google Play商店的预估下载量超过1亿,以及OpenAI的应用商店最近大量涌入浪漫聊天机器人,这一重大问题只会愈演愈烈。
不过,该报告不仅仅是数字的罗列;它还涉及到这些发现可能带来的重大隐私影响。以Replika AI为例,根据Mozilla的说法,人们在这个应用上与“AI灵魂伴侣”分享他们最私密的想法、感受、照片和视频,而这些信息不仅会被记录,还可能被出售给数据经纪人。此外,该应用允许用户使用类似“111111”这样的弱密码创建账户,这使得所有敏感信息都面临被黑客入侵的风险。
白鲸加速器apk下载Calder表示,尽管这些隐私和安全缺陷已经“令人毛骨悚然”,但某些聊天机器人还声称可以帮助用户的心理健康。她以Romantic AI为例,该平台的服务条款中写道:
“Romantic AI既不是提供医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他任何专家才能做到这一点。Romantic AI不对该服务是否提供治疗性、医疗或其他专业帮助做出任何声明、保证或承诺。”
然而,他们的网站却声称“Romantic AI在此维护您的心理健康”强调为他们的措辞。尽管我们没有数据显示有多少人阅读了服务条款与阅读网站内容的比例,但可以肯定的是,更多的人受到网站信息的影响,而非免责声明。
在心理健康的声称与顾客自愿分享的个人和私密信息之间,Calder担心这些聊天机器人可能会过于轻易地操控人们做出他们本不会选择的事情。
“有什么能阻止坏人创建旨在与灵魂伴侣建立联系的聊天机器人,然后利用这种关系操控他们,让他们做出可怕的事情,接受令人害怕的意识形态,或自我伤害?”Calder表示。“这就是为什么我们迫切需要在这些AI应用中增加透明度和用户控制。”
因此,虽然AI聊天机器人承诺提供陪伴,但我们距离《她》中那种程度还有一段距离:目前的现状揭示了用户隐私是进入此领域的代价。是时候让用户、开发者和政策制定者要求在AI关系领域实现透明度、安全性及尊重个人界限。只有这样,我们才能在不妨碍数位自我的情况下安全探索这些数位伴侣的潜力。