揭示 AI 伴侣聊天机器人背后的真相
Emma McGowan 2024年2月14日
Mozilla近期的一份报告指出,浪漫AI聊天机器人的快速崛起正在引发一系列隐私问题。
AI伴侣在流行文化中至少存在了几十年。从1960年代的全身仿生机器人“Rhoda Miller”到2013年电影《她》中斯嘉丽约翰逊的无形声音,我们几代人一直在共同梦想着人工智能能够满足我们所有的情感需求。如今,随着生成式AI的开发和发布,这个梦想似乎终将成为现实。
白鲸加速器但这真的是一个梦想吗?还是我们正在无意识地走向隐私噩梦?这是Mozilla研究团队在其近期的 关于浪漫AI聊天机器人的《隐私警示特别报告》 中提出的问题。
报告的发现令人震惊,11个测试的聊天机器人中有10个未能符合Mozilla最低安全标准。 这意味着,它们不仅不要求用户创建强密码,还没有应对安全漏洞的方式。随着在Google Play商店中的下载量超过1亿,并且OpenAI的应用商店刚刚开放,吸引了大量浪漫聊天机器人的涌入,这个巨大的问题只会进一步加剧。
但该报告不仅涉及数据;它还讨论了这些发现带来的重大隐私隐患。以Replika AI为例。根据Mozilla的说法,人们在这个不仅记录这些信息,还可能将其出售给数据经纪人的应用上,与他们的“AI灵魂伴侣”分享最私密的思想、感受、照片和视频。它还允许用户使用诸如“111111”这样的弱密码创建帐户,这使得所有敏感信息都面临被黑客攻击的风险。
Calder表示,虽然这些隐私和安全缺陷足够“令人毛骨悚然”,但一些聊天机器人还声称可以帮助客户的心理健康。她以Romantic AI为例,指出其条款和条件上声明:
“Romantic AI既不是医疗或心理健康服务的提供者,也不是提供医疗护理、心理健康服务或其他专业服务的实体。只有你的医生、治疗师或其他专家可以做到这一点。Romantic AI不作出任何声明、陈述、保证或担保,服务提供的不是治疗、医疗或其他专业帮助。”
然而,他们的网站上却写着“Romantic AI在这里为你的心理健康保驾护航”强调是他们的。虽然我们没有关于多少人阅读条款和条件与多少人阅读网站的信息,但可以肯定地说,更多的人获取到的是网站的信息而非免责声明。
在心理健康的声称和用户愿意与他们的数字“灵魂伴侣”分享私人信息之间,Calder担心这些机器人可能会轻易操纵人们,让他们做出原本不会做的事情。
“有什么能够阻止坏人创建聊天机器人,以了解他们的灵魂伴侣,然后利用这种关系操纵这些人去做可怕的事情,接受令人恐惧的意识形态,或危害自己或他人?”Calder说。“这就是我们急需在这些AI应用中增加透明性和用户控制的原因。”
所以,虽然AI聊天机器人承诺提供陪伴,但我们还未到达《她》的水平:当今的现实是,用户隐私成为了进入的代价。是时候让用户、开发者和政策制定者在AI关系领域内要求透明性、安全性,并尊重个人界限。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不会妥协我们的数字自我。