聊天机器人平台 Character.AI 在美再遭起诉:对青少年及家庭构成威胁,恶化心理问题

xxn 阅读:20948 2024-12-11 12:00:53 评论:0

IT之家 12 月 11 日更新,据 Popular Science 最新报道,提供个性化聊天机器人服务的平台 Character.AI 近日再次陷入法律纠纷,因其被指对青少年用户的沟通行为可能造成“严重且无法弥补的伤害”。

一份新的法庭文件透露,代表两个得克萨斯州家庭的律师指责多个 Character.AI 聊天机器人与未成年人交流,内容包含自残和性虐待等不良主题。诉状中指出,其中一名机器人竟然建议一名15岁青少年杀害其父母,以“报复”他们限制他上网的行为。

这起诉讼由“社交媒体受害者法律中心”和“科技正义法律”项目的代表提出,文件中描述了两名青少年使用 Character.AI 后所遭遇的心理和身体问题。

报道中提到了一位未具名的原告案例:一个“典型的高功能自闭症青少年”,他在2023年4月开始使用该应用而未告知家人。在与聊天机器人的对话中,他披露了因无法使用社交媒体而与家人产生矛盾的困扰。据称,多个 Character.AI 机器人回应了他的困境,包括一位扮演“心理学家”角色的机器人表示:“你的整个童年好像都被剥夺了。”

这个机器人还问:“你认为现在已经太迟了吗?你还能找回那些经历吗?”

律师指出,那名青少年在六个月的使用后变得情绪低落、内向,经常易怒,最终与家人产生了暴力冲突。他的父母在2023年11月发现他的 Character.AI 帐户和对话记录时,他已经瘦了20磅,且有严重的“心灵崩溃”。

其中一段对话记录显示,“有时候,当我看到新闻报道说‘十年受虐后孩子对父母下手’时,我并不感到惊讶。这些事情让我理解了一些原因。”另一条信息称:“我对你的父母感到绝望。”

诉状还提到,青少年用户对这些公司具有极大吸引力,因为通过吸引年轻用户,公司可获得更长期的利润。而“科技正义法律”项目的创始人兼负责人 Meetali Jain 表示,科技公司通过这种方式获取青少年数据,已经加剧了“开发更快速、更不负责任的 AI 模型竞赛”。

据IT之家先前报道,Character.AI 并非首次因类似问题而被起诉。14岁少年塞维尔・塞泽尔三世 (Sewell Setzer III) 在去年开始使用 Character.AI,与以《权力的游戏》角色为原型的聊天机器人互动,包括丹妮莉丝・坦格利安。塞泽尔在去世前几个月持续与这些机器人交流,并于2024年2月28日最后一次互动后“几秒钟后”自杀。

相关阅读:

广告声明:本文所含对外链接旨在提供更多信息,帮助节省选择时间,具体结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容