欧盟人工智能立法有何新动向?

99ANYc3cd6 人工智能 5

核心法规:《人工智能法案》

《人工智能法案》是欧盟为人工智能系统建立的第一个全面的、具有法律约束力的规则框架,它于2025年6月14日正式通过,预计将在2025年7月正式生效,并在不同阶段逐步实施(大部分条款将在生效后24个月,即2026年左右开始适用)。

欧盟人工智能立法有何新动向?-第1张图片-广州国自机器人
(图片来源网络,侵删)

该法案的立法目标是:在促进人工智能创新和发展的同时,确保一个高水平的保护,以维护欧盟的基本权利、民主和法治。


核心原则与监管逻辑:“基于风险的方法”

《人工智能法案》最核心、最创新的理念是采用“基于风险的方法”,根据AI应用可能带来的风险水平,将其划分为四个等级,并施加不同程度的监管。

不可接受的风险

这类AI应用被明确禁止,因为它们违背了欧盟的基本价值观和人权。

  • 示例
    • 社会评分系统:用于给个人社会行为打分并据此决定其权利的系统(类似于中国的社会信用体系)。
    • 利用AI进行无差别、实时的远程生物识别监控:在公共场所使用AI实时识别人脸情绪、性别、种族等,以推断其政治倾向或性取向(例外:在特定严重犯罪(如恐怖主义、人口贩卖)调查中,在获得司法授权后,可以对特定个体进行有限制的实时生物识别监控)。
    • 利用AI进行潜意识操纵或行为操纵,以损害用户或他人的行为。
    • 利用AI进行社会评分或用于评估个人可信度的类似系统。

高风险

这是法案监管最严格的部分,高风险AI系统指的是那些如果失效,会对安全、健康、基本权利、民主或环境造成严重负面影响的系统,它们需要遵守一套严格的合规要求才能在欧盟市场投放或使用。

欧盟人工智能立法有何新动向?-第2张图片-广州国自机器人
(图片来源网络,侵删)

高风险AI系统主要分为两类:

  • A. 附属于特定产品的AI系统:根据欧盟现有安全法规(如《产品指令》)被归类为高风险的产品,其内置的AI系统也属于高风险。
    • 示例:自动驾驶汽车、医疗设备(如AI辅助诊断系统)、电梯、玩具等。
  • B. 独立运行于特定领域的AI系统:法案明确列出了8个关键领域。
    • 示例
      • 关键基础设施管理:如电力网络的AI管理。
      • 教育或职业培训:如AI评分系统。
      • 就业管理:如AI筛选简历、进行招聘面试。
      • 获取公共服务:如福利申请、评分系统。
      • 执法:如预测性警务、犯罪地点分析、生物识别分类系统。
      • 移民、边境控制与庇护:如用于评估庇护申请者可信度的AI、人脸识别用于边境检查。
      • 司法与行政:如预测再犯风险、辅助法官量刑。
      • 特定产品的安全:如AI控制的产品安全组件。

高风险AI系统必须满足的合规要求包括

  • 高质量的数据集管理:确保数据无偏见、高质量,并记录数据处理过程。
  • 技术文档:详细记录系统的设计、目的和性能。
  • 清晰的用户信息:让用户知道他们正在与AI系统互动。
  • 适当的透明度:特别是对于“深度伪造”(Deepfake)内容,必须明确标注。
  • 人类监督:确保有有效的人类监督机制,防止AI造成伤害。
  • 高水平的稳健性、准确性和安全性
  • 上市后监管:持续监控系统性能,并建立事件报告机制。

有限风险

这类AI系统需要履行一定的透明度义务,以保护用户免受欺骗或误导。

  • 示例
    • 聊天机器人:必须让用户知道他们正在与机器互动。
    • 深度伪造:生成或操纵图像、音频、视频内容以模仿真实人物的行为,必须明确告知用户内容是人工智能生成的。
    • 情感识别系统:在远程或工作场所使用时,需告知用户。

最小风险

绝大多数AI应用属于此类,

欧盟人工智能立法有何新动向?-第3张图片-广州国自机器人
(图片来源网络,侵删)
  • 垃圾邮件过滤器
  • 电子游戏中的AI
  • AI驱动的拼写检查

对于最小风险的AI,法案不设任何限制,鼓励自由创新,欧盟委员会也鼓励企业自愿为这些系统遵循行为准则,例如建立“信任标签”或“质量标签”。


《人工智能法案》的关键影响

  1. 全球“布鲁塞尔效应”:由于欧盟是一个巨大的单一市场,任何希望进入欧盟市场的科技公司(无论是否来自欧盟)都必须遵守其规则,这迫使全球企业按照欧盟的标准来设计和开发AI产品,从而使其法规成为事实上的全球标准。
  2. 合规成本高昂:对于高风险AI系统的开发者来说,满足严格的合规要求意味着巨大的前期投入,包括数据治理、文档编写、测试和认证等。
  3. 推动“可信赖AI”发展:法案将迫使企业从一开始就将伦理、安全和隐私保护融入AI系统的设计(“Privacy by Design”和“Ethics by Design”),推动整个行业向更负责任的方向发展。
  4. 监管机构:法案设立了“人工智能办公室”(AI Office)作为中央协调机构,并在每个成员国设立“国家主管机构”(National Supervisory Authority)来负责执行和监督。

其他相关法规和倡议

除了《人工智能法案》,欧盟还有其他几项重要法规共同构成了其AI治理的“工具箱”:

  1. 《数据治理法案》:旨在促进数据共享,为AI发展提供高质量的数据资源,同时保护个人数据隐私。
  2. 《数字服务法》:虽然主要针对在线平台,但其对“推荐系统”和“广告”的规定,与AI的透明度和问责制要求高度相关。
  3. 《数字市场法》:针对“看门人”平台(如谷歌、Meta),限制其利用其市场优势地位不公平地推广自己的AI服务。
  4. 《通用数据保护条例》:作为欧盟最基础的数据保护法规,它为所有处理个人数据的AI系统(包括高风险系统)设定了严格的隐私保护底线,例如关于“自动化决策”和“数据可携权”的规定。

面临的挑战与未来展望

  1. 执法挑战:如何确保27个成员国以统一的方式执行法规,避免出现“监管套利”(即公司选择监管最松的国家)。
  2. 技术快速迭代:AI技术发展日新月异,法规可能很快会落后于技术发展,需要建立灵活的更新机制。
  3. 创新与监管的平衡:过于严格的监管可能会抑制欧洲本土AI初创企业的创新活力,使其在与美国、中国科技巨头的竞争中处于劣势。
  4. 定义和边界模糊:某些AI应用的风险等级划分在实践中可能存在争议,需要监管机构提供清晰的指导。

欧盟的AI立法开创了全球AI监管的先河,它不是要扼杀AI,而是要为其建立一个“护栏”,确保这项强大的技术能够以一种安全、可信赖、尊重人权和基本自由的方式发展,其“基于风险的方法”为全球其他国家和地区制定AI政策提供了重要的参考蓝本,全球AI产业的竞争,很大程度上也将是各国在“创新”与“监管”之间寻求最佳平衡点的竞争,欧盟的《人工智能法案》无疑是这场竞赛中一个关键的里程碑。

标签: 欧盟人工智能法案最新进展 欧盟AI立法草案更新 欧盟人工智能监管新规

抱歉,评论功能暂时关闭!