欧盟已封禁存在“不可接受风险”的 AI 系统,违规企业面临巨额罚款
根据IT之家于2月3日的报道,当地时间2月2日,欧盟人工智能法案(AI Act)的首轮合规期限正式开始生效。这一变化意味着,欧盟的监管机构现在可以禁止那些被视为存在“不可接受风险”或可能危害的AI系统。该法案是经过多年讨论并在去年3月得到欧洲议会批准的全面人工智能监管措施,并于8月1日正式实施。
生效的法规规定了首批合规要求,这些要求主要针对法案第五条列举的“不可接受风险”的AI应用。具体包括:用于社会评分的AI、通过潜意识或欺骗手段操控人类决策的AI、对年龄、残疾或社会经济状况等弱点进行利用的AI、通过外表预测犯罪的AI、推断个人特征(比如性取向)的生物识别技术AI、在公共场合“实时”收集生物识别数据用于执法的AI、试图在职场或学校推测情绪的AI,以及通过抓取网络或监控摄像头素材来扩展面部识别数据库的AI。
任何在欧盟境内使用上述AI应用的公司,不论其总部所在地,都可能面临罚款,最高可达3500万欧元(约合人民币2.64亿元)或上一个财年7%的营收,两者中选择更高者。
英国律师事务所Slaughter and May的技术主管Rob Sumroy在接受采访时指出,虽然各组织应在2月2日前完全遵守规定,但罚款并不会立即生效。下一个关键的期限在8月届时,我们将了解到具体的监管机构以及罚款和执法条款的具体实施情况。
在去年9月,超过100家公司签署了欧盟人工智能契约,自愿承诺在人工智能法案生效之前开始遵循其原则。签署方包括亚马逊、谷歌和OpenAI,它们承诺识别潜在的高风险AI系统。然而,Meta和苹果等一些大型科技公司并未参与该契约,甚至法国初创公司Mistral也没有签署。
Sumroy表示,鉴于所列禁止示例的特性,大多数企业不会从事相关活动。他强调,组织最为关注的是,确切的指导方针、标准和行为准则是否能及时出台,以及这些政策能否为其提供合规的明确性。
法案中针对某些禁令规定了特例。例如,它允许执法机关使用特定在公共场合收集生物识别数据的系统,以协助进行“有针对性的搜索”,比如寻找绑架受害者,或预防“具体、重大且迫在眉睫”的生命威胁。不过,这样的豁免必须得到相应管理机构的批准,并强调执法机关不能仅凭这些系统的结果作出可能产生法律不利后果的决定。此外,该法案也为工作场所和学校情绪推测的系统提供了例外情况,前提是具备“医疗或安全”理由,比如用于治疗的相关系统。
欧盟委员会之前表示,预计将在11月与利益相关者进行磋商后,于“2025年初”发布更多指导方针,但目前这些指导方针尚未公布。Sumroy指出,目前尚不清楚现行法令将如何与人工智能法案的禁令及相关规定相结合。这一切可能要到今年晚些时候,随着执行窗口的临近,情况才能逐步明朗。
Sumroy强调,各组织需要意识到,人工智能监管并非独立存在。其他法律框架,如GDPR、NIS2和DORA,将与人工智能法案相互作用,可能会造成潜在挑战,特别是在重叠事件通知要求上。理解这些法律如何相互结合,对掌握人工智能法案的内涵同样重要。
广告声明:本文中可能包含对外跳转链接(比如超链接、二维码、口令等形式),旨在传递更多信息并节省筛选时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。