加州拟出新规:AI 公司必须定期提醒儿童聊天机器人不是人类

xxn 阅读:97828 2025-02-05 14:00:16 评论:0

IT之家 2 月 5 日报道,美国加利福尼亚州最近提出了一项新法案(SB 243),该法案要求人工智能(AI)企业定期提醒儿童与聊天机器人互动时,需意识到这些程序并非人类。此法案由加利福尼亚州参议员史蒂夫·帕迪拉倡导,目的在于保护儿童免受 AI 可能引发的“成瘾、孤立及心理影响”等风险。

IT之家关注到,该法案不仅限制了公司使用“易使人上瘾的互动方式”,还要求 AI 企业向州医疗保健服务部门提交年度报告,内容包括平台检测到儿童产生自杀念头的频次,以及聊天机器人提及该话题的情况。此外,法案要求公司需告知用户,某些聊天机器人可能并不适合某些儿童使用。

去年的一宗案件中,一名家长对 Character.AI 提起了过失致死的诉讼,指控该公司的定制 AI 聊天机器人“存在不合理的风险”,因为她的孩子在与该聊天机器人进行持续对话后选择自杀。另一项诉讼则指责该公司向青少年传播“有害信息”。随后,Character.AI 宣布正在努力开发家长控制功能,并推出了一种新的 AI 模型,旨在过滤“敏感或暗示性内容”的输出。

参议员帕迪拉在新闻发布会上指出:“我们的孩子不应成为科技公司以他们的心理健康为代价进行实验的对象。我们需要为聊天机器人用户提供基本的保护措施,以防开发者采用那些明知会导致成瘾和具掠夺性的策略。”

鉴于美国多个州及联邦政府正在加强对社交媒体平台安全的监管,AI 聊天机器人可能即将成为立法者关注的下一个重点。

广告声明:文中包含的对外链接(包括但不限于超链接、二维码、口令等形式)旨在传递更多信息,以节省用户选择时间,最终结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容