下面我将从几个关键维度,为您梳理和分析关于人工智能伤人的相关数据和情况。

核心观点:数据是碎片化的,但趋势是明确的
没有一个全球统一的、权威的数据库来专门统计所有“AI伤人”事件,我们获得的信息主要来自:
- 事故调查报告(如航空、汽车事故)
- 学术研究(如对特定领域AI失误的分析)
- 新闻报道和非政府组织(NGO)的追踪记录(如AI Now Institute, AlgorithmWatch等)
- 企业或监管机构的披露(如美国国家公路交通安全管理局 NHTSA)
尽管数据碎片化,但一个清晰的趋势是:随着AI系统被部署在越来越多的高风险领域(如自动驾驶、医疗、武器),由AI直接或间接导致的人员伤亡和相关事故正在增加。
按领域划分的关键数据与案例
AI伤人的事件可以大致分为“物理伤害”和“社会性伤害”。
自动驾驶领域:最常被引用的领域
这是目前数据相对最透明、也最受关注的领域,这里的“AI”主要指自动驾驶系统。
-
全球致命事故数据:
- 特斯拉 Autopilot:根据美国国家公路交通安全管理局的数据,截至2025年底,NHTSA记录了与特斯拉Autopilot或相关驾驶辅助系统相关的超过40起致命事故,需要强调的是,这些事故中,驾驶员的责任通常被认定为主要因素,但AI系统的失效或误导是事故的关键诱因。
- 通用汽车 Super Cruise:2025年,通用汽车确认了一起由其Super Cruise系统导致的事故,一名驾驶员在系统启用时睡着,最终导致车辆撞上静止的紧急车辆,造成人员伤亡,这是首起公开确认的由Super Cruise直接相关的致命事故。
- Waymo/Cruise:作为完全自动驾驶技术的领导者,Waymo和Cruise的事故记录备受关注,Cruise在2025年发生了一起备受争议的事故:其自动驾驶汽车在旧金山撞上被消防车拖行的消防车,随后因试图变道而被另一辆车追尾,车上一名乘客受伤,此事导致加州机动车辆管理局吊销了Cruise的运营许可,凸显了安全监管的严峻性。
-
非致命事故数据:
- NHTSA数据库中,与“高级驾驶辅助系统”(ADAS)相关的碰撞报告已超过400起,其中很多是追尾事故,反映了AI系统在识别前方静止或缓慢移动车辆时的局限性。
医疗AI领域:潜力与风险并存
AI在医疗领域的应用(如医学影像分析、诊断建议)旨在提高效率和准确性,但其失误可能直接危及生命。
- 数据现状:由于医疗事故的敏感性,很少有医院或AI公司会主动公开“AI误诊”导致的具体数据,相关数据主要来自学术研究和案例报告。
- 典型案例:
- 乳腺癌误诊:2025年,《Nature Medicine》发表研究指出,一个AI系统在筛查乳腺X光片时,其假阴性率(漏诊癌症)比放射科医生高出9%,这意味着它可能会错过一些本应被发现的癌症病例。
- 眼科诊断错误:有研究显示,用于诊断糖尿病视网膜病变的AI模型,在遇到某些不常见的眼部图像时,可能会给出错误的高风险或低风险判断,导致不必要的治疗或延误治疗。
- 伤害形式:医疗AI的伤害通常是间接的,即错误的诊断建议误导了医生,从而延误或错误地治疗了患者,虽然很难量化“AI导致了X人死亡”,但相关的研究和案例报告数量正在增加。
执法与军事AI领域:争议最大
-
面部识别误判:
- 错误逮捕:2025年,美国密歇根州底特律市发生了一起标志性事件:一名黑人青年因面部识别系统错误地将他与一起商店盗窃案的嫌疑人匹配而被捕,虽然最终无罪释放,但此事造成了巨大的社会伤害和名誉损害。
- 种族偏见:多项研究表明,主流的人脸识别技术对有色人种和女性的识别准确率远低于白人男性,这种偏见在执法中可能导致不公平的对待,甚至“数字上的伤害”。
-
自主武器系统(“杀手机器人”):
- 数据现状:这是最不透明的领域,目前没有公开的、确切的“自主武器导致平民伤亡”的数据。
- 现状与担忧:虽然完全自主的武器系统尚未在战场上大规模部署,但“人在回路”(human-in-the-loop)的半自主系统已在使用,联合国关于特定常规武器公约的讨论中,多国报告和专家警告指出,AI在高速、复杂的战场环境中做出决策,极易因传感器欺骗、算法偏见或意外行为而导致误伤平民,这种潜在的风险是AI领域最大的伦理和安全担忧之一。
社会性伤害:更广泛、更隐蔽
这类伤害虽然不直接导致物理死亡,但其后果深远。
- 算法偏见导致的歧视:
- 招聘:亚马逊曾开发过一款AI招聘工具,但因该系统学习了过去10年的简历数据,而这些数据中男性占主导,导致AI学会了“歧视”女性求职者,最终被弃用。
- 信贷审批:多个研究指控AI信贷审批系统对特定族裔或地区的居民存在偏见,导致他们更难获得贷款。
- 信息茧房与社会操纵:
虽然很难量化“推荐算法导致了某人抑郁或社会撕裂”,但大量研究表明,社交媒体的推荐算法会强化用户的极端观点,形成“信息茧房”,并可能被用于大规模信息操纵,影响选举和公共舆论,对社会稳定和个体心理健康造成伤害。
数据统计的难点与挑战
- 定义模糊:什么是“AI伤人”?是AI直接导致的,还是AI作为辅助工具、人类操作失误导致的?界定非常困难,自动驾驶事故中,驾驶员的责任占多大比例?
- 数据不透明:企业为了保护商业声誉和避免法律诉讼,往往不愿公开事故的详细数据,政府和监管机构的数据收集和披露机制也尚不完善。
- 责任归属复杂:当AI系统造成伤害时,责任应该由谁承担?是开发者、使用者、还是AI本身?法律框架的滞后使得责任认定困难。
- “黑箱”问题:许多深度学习模型的决策过程不透明,事后难以追溯其做出某个具体决策的原因,这给事故调查和责任认定带来了巨大挑战。
总结与展望
| 领域 | 主要风险类型 | 数据现状 | 典型案例/数据点 |
|---|---|---|---|
| 自动驾驶 | 物理伤害(碰撞、死亡) | 相对透明,主要由监管机构记录 | NHTSA记录特斯拉Autopilot相关致命事故超40起;Cruise被吊销运营许可 |
| 医疗AI | 误诊、延误治疗导致健康恶化 | 不透明,主要来自学术研究 | 多项研究显示AI在特定疾病诊断上假阴性率高于人类医生 |
| 执法/军事 | 歧视、误判、潜在的平民伤亡 | 极不透明,多为警告和报告 | 面部识别导致错误逮捕;联合国对自主武器误伤平民的担忧 |
| 社会/算法 | 歧视、信息茧房、社会操纵 | 难以量化,多为社会学和心理学研究 | 招聘AI歧视女性;社交媒体算法加剧社会撕裂 |
虽然没有一个确切的“全球AI伤人总数”,但由AI系统失误或偏见导致的事故和伤害正在真实地发生,并且随着技术的普及,其影响范围和深度都在扩大,目前的数据主要集中在自动驾驶的物理伤害和算法偏见的社会性伤害上。
随着AI在医疗、金融、能源等关键领域的深度应用,建立统一的、强制的事故报告和数据披露机制,加强算法审计和可解释性研究,以及完善相关法律法规,将是确保AI安全、负责任发展的关键,公众和监管机构的持续关注和压力,是推动这一进程的重要力量。
标签: 人工智能伤人事件统计 AI安全事故数据报告 人工智能伤害案例数量