揭示 AI 交友聊天机器人的真相
Emma McGowan 2024年2月14日
Mozilla最近的一份报告指出,浪漫人工智慧聊天机器人的激增引发了一系列新的隐私问题。
自1960年代以来,人工智慧的浪漫伴侣就一直是流行文化中的一个重要主题。从《我的活玩偶》中像Rhoda Miller这样的全身机器人,到2013年《她》中斯嘉丽约翰逊所配音的无形声音,我们几代人来一直在梦想著人工智慧能满足我们所有的情感需求。而如今,随著生成性人工智慧的发展与推出,这一梦想似乎终于有可能变为现实。
但这是否真的是美好的梦想?还是我们正沉浸在隐私的噩梦中?这正是Mozilla的研究团队在其最近的 隐私不在:浪漫AI聊天机器人专题报告 中提出的问题。
结果令人震惊,11个测试过的聊天机器人中有10个未能达到Mozilla的最低安全标准。这意味著,除了其他问题外,它们不要求用户创建强密码,也没有处理安全漏洞的方式。随著谷歌Play商店的下载量估计已超过1亿,而OpenAI最近开设的应用商店也吸引了大量浪漫聊天机器人,这个问题只会愈演愈烈。
然而,这份报告不仅仅是数据;它还涉及到这些发现的重大潜在隐私影响。以Replika AI为例。根据Mozilla的说法,人们在这个应用中与其AI灵魂伴侣分享了最亲密的想法、情感、照片和视频,而这个应用不仅会记录这些信息,还可能将其出售给数据经纪人。此外,它还允许用户用如111111这样的弱密码注册账户,使这些敏感信息面临被黑的风险。
Calder表示,尽管这些隐私和安全缺陷已经让人毛骨悚然,但一些机器人还宣称能帮助用户的心理健康。她以Romantic AI为例,该平台的条款和条件指出:
Romantic AI既不是健康护理或医疗服务的提供者,也不提供医疗、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专业人士才能做到这一点。Romantic AI不作任何声明、陈述、保证或担保,该服务能提供治疗、医疗或其他专业帮助。
然而,他们的网站却声称Romantic AI旨在维护您的心理健康强调为他们的表述。尽管我们无法确定有多少人阅读了条款和条件与网站的内容,但可以肯定的是,更多的人看到网站信息的机率大于看到免责声明的机率。
在心理健康主张和客户自愿与数字灵魂伴侣分享个人隐私信息之间,Calder担心这些机器人可能会轻易操控用户做出他们本不会做的事情。
海鸥梯子加速器有什么东西能阻止坏人设计聊天机器人以了解他们的灵魂伴侣,然后利用这种关系操控他们做可怕的事情、接受可怕的意识形态,或伤害自己或他人?Calder说。这就是为什么我们迫切需要在这些AI应用中增加透明度和用户控制。
因此,尽管AI聊天机器人承诺能提供陪伴,但我们距离《她》中的美好境界仍有一段距离:当前的现状揭示了一个残酷的现实,在这里,用户的隐私成为了进入的代价。是时候让用户、开发者和政策制定者共同要求透明度、安全性,以及尊重个人边界,在AI关系的领域里,只有这样我们才能希望安全地探索这些数字伴侣的潜力,而不会妨害到我们的数位自我。
恶意PDF、深度伪造和情感诈骗只是我们去年看到的100亿次网络攻击中的一部分。
Emma McGowan 2024年2月7日揭示我们的Avast 2023年第四季度威胁报告中惊人的网路威胁激增。去年超过100亿次攻击显示了我们必须重视这一问题的必要性。如果你曾希望网路攻击有所下降,那就准备好接受现实检查吧:2023年是网路威胁前所未有的一年。我们目睹了超过100亿次攻击,打破...