工業和信息化部等十個部門近日聯合發布了《人工智能科技倫理審查與服務辦法(試行)》(以下簡稱《辦法》),為我國人工智能領域的倫理治理提供了系統性框架。這一文件明確了人工智能科技倫理審查的適用范圍、服務促進機制、實施主體及工作程序,并針對人工智能技術的特殊性,設計了包括申請受理、一般程序、簡易程序、專家復核和應急程序在內的多層次審查流程,旨在規范科技活動的倫理實踐。
根據《辦法》要求,人工智能倫理審查需重點關注六大核心領域:人類福祉、公平公正、可控可信、透明可解釋、責任可追溯以及隱私保護。具體審查內容包括訓練數據的篩選標準、算法模型設計的合理性,以及是否采取措施防止算法歧視和資源分配不公。開發者需公開披露技術用途、運行邏輯及潛在風險,確保用戶對人工智能系統的交互方式和決策過程有清晰認知。
專家指出,該文件的出臺標志著我國人工智能倫理治理從原則性倡導轉向制度化實踐。國家新一代人工智能治理專業委員會此前發布的《新一代人工智能倫理規范》已構建起覆蓋研發、供應、使用全鏈條的倫理準則,而此次《辦法》則進一步細化了審查規則,填補了領域內制度空白。工業和信息化領域科技倫理專家委員會主任委員魏一鳴表示,文件針對人工智能技術迭代快、跨界融合深的特點,在通用審查框架基礎上實現了領域化適配,為行業提供了可操作的指導方案。
為推動倫理審查服務體系建設,《辦法》從標準制定、服務供給、創新激勵、教育普及和人才培育五個維度提出支持措施。文件鼓勵開發倫理風險監測預警系統、檢測評估工具及認證咨詢服務,同時促進高質量數據集的開源共享,支持通用性風險管理技術研發。針對應用場景,探索建立差異化的倫理風險評估體系,幫助企業提升風險防控能力。
魏一鳴強調,倫理治理需技術與制度雙輪驅動。具備技術優勢的企業、高校和科研機構應承擔起研發倫理治理工具的責任,重點突破可解釋人工智能、算法公平性監測、深度偽造鑒別等關鍵技術。通過開發倫理評估工具、風險模擬平臺和算法審計系統,將抽象倫理原則轉化為可量化、可嵌入工程流程的技術指標,推動倫理治理向技術化、工程化方向演進。











