欧盟人工智能法禁止行为指南解读
摘要
2025年2月2日,欧盟《人工智能法》首批关键条款正式生效,其中关于禁止人工智能行为的规定备受关注。欧盟委员会发布了140页的详细指南,明确界定了八大类禁止的AI实践,包括有害操纵、社会评分、情绪识别、生物特征分类等。违规企业可能面临最高3500万欧元或全球营业额7%的罚款。本文将全面解读该法案的风险分类体系、禁止事项的具体内容以及实施要点。
内容框架与概述
欧盟《人工智能法》建立了全球首个全面的人工智能监管框架,采用基于风险的分级管理方法。该法案将AI系统分为四个风险等级:不可接受风险(禁止)、高风险(严格监管)、透明度风险(需履行透明义务)和最小至无风险(自愿遵守)。自2025年2月2日起,首批关键条款开始适用,包括人工智能素养要求和禁止的AI行为规定。
法案第5条明确列出了八类被禁止的人工智能实践,这些禁令适用于所有AI系统,无论其是专用还是通用用途,也无论是否集成到其他系统中。被禁止的行为包括:使用潜意识技术或操纵性技术造成行为扭曲、利用人群弱点实施伤害、基于社会行为进行评分、仅根据人格特征预测刑事犯罪风险、无针对性抓取面部图像构建数据库、在工作场所或教育机构进行情绪识别、根据生物特征进行敏感分类、以及在公共场所的实时远程生物特征识别(少数执法例外情况除外)。
违规处罚极为严厉,违反第5条禁令被视为最严重的违规行为,可能面临最高3500万欧元的罚款,或相当于企业前一个财政年度全球总营业额7%的罚款,以较高者为准。此外,法案第4条还规定,AI系统的提供者和运营者必须确保员工具备充分的人工智能专业知识和技能,以负责任地使用AI系统。荷兰和德国等成员国的数据保护机构也相继发布了配套指南,强调了合规的重要性。
需要指出的是,欧盟委员会发布的指南不具有强制约束力,欧洲联盟法院(CJEU)才是对人工智能法案的权威解释机构。目前法案仍以草案形式存在,正式通过还需等待欧盟完成各官方语言的翻译工作。
核心概念及解读
不可接受风险AI:指危害基本权利和欧盟价值的人工智能系统,这类AI被完全禁止在市场上投放、提供服务或使用。禁令自2025年2月2日起生效,涵盖八大类具体实践,包括潜意识操纵、利用弱点、社会评分等。这是欧盟AI监管体系中最严厉的风险等级,反映了欧盟对基本权利保护的重视。
社会评分系统:指基于社会行为或个人特征对自然人或人群进行评估或分类的AI系统,当其评估基于无关社会背景的数据处理时,会导致不公平或不合理的不利待遇。这类系统因可能导致歧视性待遇和社会控制而被禁止,体现了欧盟对算法公平性和个人尊严的保护。
生物特征分类AI:指根据生物特征数据对人员进行分类,以推断或推测其种族、政治观点、工会成员身份、宗教信仰、性生活或性取向的AI系统。这类技术因涉及高度敏感的个人特征而属于禁止范围,但对合法获取的生物特征数据集进行标记或筛选(包括执法领域)可作为例外。
实时远程生物特征识别:指在公共场所用于执法目的的实时远程生物特征识别AI系统。原则上被禁止,但允许有限的例外情况,包括有针对性地搜寻特定受害者、预防包括恐怖袭击在内的特定威胁、以及搜寻特定嫌疑人的犯罪行为。这些例外情形需满足《人工智能法》第5(2-7)条规定的额外程序要求,如事先授权等。
AI素养要求:法案第4条规定,AI系统的提供者和运营者必须具备足够的人工智能专业知识,确保员工在技术知识和AI系统使用环境的基础上得到充分培训。这一要求适用于所有开发和部署AI系统的组织,体现了欧盟在促进AI负责任使用方面的基础性措施。荷兰数据保护局已发布相关指南,要求到2025年2月2日确保使用AI的人员具备正确技能和知识。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | 重磅!欧盟发布140页《人工智能法》禁止的人工智能行为指南 |
| 作者 | 欧盟委员会 |
| 发表日期 | 2025年1月30日 |
此文档由 AI 自动整理