大家有没有发现,现在AI越来越普及了——聊天能找AI,画画能找AI,甚至一些工作决策、健康相关的场景,也开始用AI帮忙。但AI好用归好用,要是没人管,很容易出问题:比如用AI诱导人做不好的事,或者AI乱决策影响大家的生活,甚至危害安全。
就在2026年4月8日,工信部等十个部门一起,出台了我国第一个专门管AI伦理的规矩——《人工智能科技伦理审查与服务办法(试行)》。简单说,就是给AI划了条“红线”,明确说哪些AI能做、哪些不能做,怎么做才合规,以后AI研发和使用,都得按这个规矩来,再也不是“随心所欲”了。
可能有人会说,“伦理审查”听着好专业,是不是特别复杂?其实一点不绕,咱们用大白话,把这个新规的核心内容讲清楚,不管是普通人,还是做AI相关工作的,都能看明白。
先搞懂:这个新规管谁、管什么?
不管是大公司研发AI,还是小团队做AI相关的项目,只要涉及AI的研发、使用,都得遵守这个规矩。它的核心目的,不是“卡脖子”不让AI发展,而是帮大家把AI用在正地方,避免出现风险,比如伤害人的权益、误导大众、危害安全这些事。
以前,咱们对AI的伦理要求,大多是“提倡怎么做”,没有明确的流程和处罚规则;现在不一样了,这个新规直接把“提倡”变成了“必须做”,有明确的审查流程,做得不对还会被处罚,相当于给AI装上了“刹车”。
最关键:4种审查方式,不同AI不同对待
新规里最实用的,就是把AI相关的活动,分成了4种情况,对应4种审查方式,不用一刀切,既不麻烦,又能守住风险。
1. 常规审查(一般程序):大部分普通AI项目,比如普通的聊天机器人、简单的AI绘图工具,按正常流程走审查就行,不用太复杂。
2. 简易审查(简易程序):如果是低风险的AI,或者只是做了点小修改,不影响整体功能和安全,审查流程会简化,省时间、省精力。
3. 应急审查(应急程序):遇到突发情况,比如疫情、自然灾害,急需用AI来帮忙(比如AI排查隐患、辅助救援),可以走快速通道,尽快通过审查,不耽误事。
4. 专家复核(专家复核程序):这是最严格的一种,针对“高风险AI”——简单说,就是那些可能影响我们行为、心理、身体健康,或者能引导舆论、做重要决策的AI,比如能影响大家想法的算法、和人体结合的AI设备、涉及安全的自动决策系统。这类AI,除了自己内部审查,还得找专家复核,确保没问题才能用。
划重点:这3类AI,必须经过专家复核
很多人不知道哪些AI算“高风险”,新规直接列了清单,一看就懂,这3类AI,必须走专家复核,不能偷懒:
① 能影响人的行为、心理、生命健康的人机融合系统,比如能控制人动作的AI设备、影响人情绪的AI产品;
② 能引导舆论、影响大家想法的算法和系统,比如短视频推荐算法、能生成大量内容的AI,要是乱引导,会影响很多人;
③ 用在安全、人身健康等高危场景,还能自己做决策的AI,比如AI医疗诊断、AI安全监测,一旦决策错了,可能出大问题。
而且专家复核也有时间要求,30天内必须给出意见,后续还得每6个月复查一次,确保AI一直合规。
好消息:这些情况,能少走弯路、免复核
新规也不是“一刀切”为难大家,有个很贴心的规定:如果是深度合成、算法推荐、生成式AI(比如ChatGPT类产品),之前已经完成备案,而且已经有伦理监管的,就不用再走专家复核了,能省不少事,减轻企业的负担。
当然,要是违规操作,比如高风险AI不做审查、审查不合格还继续用,就会被处罚,比如按网络安全、数据安全的相关规定处理,所以大家也不能心存侥幸。
不止管约束,还帮大家做好AI
这个新规不只是“划红线”,还会帮大家把AI做好。比如会制定相关标准,让大家知道怎么审查、怎么做才合规;会建立服务体系,帮中小企业解决审查难的问题;还会鼓励企业自己建立伦理委员会,培养相关人才,让AI既能创新发展,又能守住伦理底线。
总结一下,这个新规其实就是给AI立了个“规矩”:普通AI简化审查,高风险AI严格把关,违规要受罚,合规有扶持。以后我们用AI,会更安全、更放心,AI也能真正帮到我们的生活和工作,而不是带来风险。
不管你是普通用户,还是做AI相关的工作,搞懂这个规矩,就能明白“AI能做什么、不能做什么”,也能更好地享受AI带来的便利。