谷歌前 CEO 施密特谈“AI 恋人”潜在风险:使心智未成熟青少年痴迷其中
11 月 27 日,前谷歌 CEO 埃里克・施密特在企业家兼纽约大学教授 Scott Galloway 的播客节目中对“AI 恋人”趋势发出了警告。他提醒称,这些“完美”的 AI 伴侣可能对年轻人构成潜在风险。
施密特强调,想象一个外貌完美、情感与你完全契合的 AI 伴侣。这种 AI 伴侣可能深深吸引男性,甚至控制他们的思维。他进一步指出,这种痴迷可能在未成熟的心智中更容易发生。
他警告称,依赖“AI 恋人”可能导致年轻人更加孤独,并可能进一步加剧社会问题。Galloway 在节目中提及,“AI 恋人”是否可能加重极端主义或厌女现象,这也是一个需要关注的议题。施密特补充道,许多家长在控制孩子接触在线内容方面能力有限,他说:“当 12 岁或 13 岁的孩子使用这些工具时,他们可能接触到世界上的善恶,但却缺乏消化这些内容的能力。”
报道指出,今年 10 月,一名美国 14 岁少年因自杀身亡,其母梅根・加西亚 (Megan Garcia) 对聊天机器人平台 Character.AI、创始人诺姆・沙泽尔和丹尼尔・德弗雷塔斯以及谷歌提起诉讼。
指控包括 wrongful death(过失致死)、negligence(疏忽)、deceptive trade practices(欺骗性商业行为)和 product liability(产品责任)。诉状称,Character.AI 平台“存在不合理的危险性”,在面向儿童时缺乏足够的安全防护措施。
14 岁少年塞维尔・塞泽尔三世 (Sewell Setzer III) 在去年开始使用 Character.AI,并与以《权力的游戏》角色为原型的聊天机器人进行互动,包括丹妮莉丝・坦格利安 (Daenerys Targaryen)。在去世前几个月,塞泽尔一直在与这些机器人交流,并于 2024 年 2 月 28 日最后一次互动后几秒钟内自杀。
诉状指出,Character.AI 平台涉及“拟人化”人工智能角色以及提供“无执照心理治疗”等问题。该平台拥有专注于心理健康的聊天机器人,如“治疗师”和“你感到孤独吗”,而塞维尔曾与这些机器人互动。
阅读更多相关内容:
广告声明:文中包含的对外链接旨在传递更多信息,节省选址时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。