工業和信息化部聯合國家發展改革委、教育部等九部門近日正式發布《人工智能科技倫理審查與服務辦法(試行)》(以下簡稱《辦法》),為人工智能領域科技倫理治理構建起系統性制度框架。該文件通過明確審查范圍、規范審查程序、強化服務保障等舉措,旨在推動人工智能技術創新與倫理風險防控協同發展,為產業高質量發展筑牢安全屏障。
《辦法》確立了覆蓋人工智能全生命周期的倫理審查機制,明確將涉及人類尊嚴、公共秩序、生命健康等領域的科研活動納入審查范圍。針對不同風險等級的科技活動,文件創新性地設計了五類審查程序:常規項目適用一般程序,低風險項目可采用簡易程序,高風險項目需經專家復核,緊急狀態啟動應急程序,同時建立跨單位審查結果互認機制。這種差異化管理模式既保障審查效率,又確保高風險項目得到嚴格把關。
在服務體系建設方面,《辦法》提出"標準引領+能力提升"雙輪驅動策略。一方面推動制定國際、國家、行業、團體四級標準體系,支持搭建國際標準化交流平臺;另一方面通過強化風險監測預警、檢測評估、認證咨詢等服務供給,重點提升中小微企業倫理治理能力。文件特別強調技術防控手段,要求推廣高質量倫理數據集開源,研發通用性風險評估工具,探索基于應用場景的評估評測體系。
針對高風險領域,文件建立"負面清單"管理制度。工業和信息化部會同科技部動態發布需要專家復核的科技活動清單,首批納入人機融合系統、輿論引導算法、高自主決策系統等三類研發項目。這類項目在通過單位倫理委員會初審后,還需經行業主管部門組織的專家組復核,跟蹤審查間隔不超過6個月,確保風險始終處于可控狀態。
為保障制度有效實施,《辦法》構建起多層次監管體系。科技部統籌全國科技倫理監管,工信部牽頭人工智能專項治理,地方和行業主管部門分級負責屬地管理。從事相關活動的單位需設立倫理委員會并配備專職人員,審查結果通過國家科技倫理管理信息登記平臺公開。對違反規定的單位,將依據網絡安全、數據安全、科技進步等法律法規追究責任。
配套發布的實施細則顯示,倫理審查將重點關注六大核心要素:人類福祉的受益比、算法設計的公平性、系統運行的可控性、技術原理的可解釋性、責任主體的可追溯性、個人隱私的保護度。審查會議要求至少5名跨領域專家參與,涵蓋技術、倫理、法律等專業背景,確保決策科學審慎。
該辦法自發布之日起施行,標志著我國人工智能治理體系進入新階段。行業專家指出,這一制度設計既保持了與《科技倫理審查辦法》的銜接性,又突出了人工智能技術的特殊性,通過"預防性倫理"理念將風險防控前移,為全球人工智能治理貢獻了中國方案。











