工信部等十部門近日聯(lián)合發(fā)布《人工智能科技倫理審查與服務(wù)辦法(試行)》,為我國人工智能技術(shù)發(fā)展劃定倫理邊界。該文件首次系統(tǒng)構(gòu)建人工智能全生命周期倫理審查框架,明確要求將科技倫理要求嵌入研發(fā)、應(yīng)用各環(huán)節(jié),旨在平衡技術(shù)創(chuàng)新與社會責(zé)任之間的關(guān)系。
隨著生成式AI、腦機接口等前沿技術(shù)加速突破,算法歧視、數(shù)據(jù)濫用、深度偽造等倫理風(fēng)險日益凸顯。部分企業(yè)為追求商業(yè)利益,忽視技術(shù)對社會結(jié)構(gòu)的潛在沖擊,導(dǎo)致公眾對人工智能的信任度持續(xù)走低。某社交平臺曾因算法推薦機制引發(fā)群體對立事件,暴露出技術(shù)治理的緊迫性。
新規(guī)建立分級審查制度,將人工智能活動分為一般程序、簡易程序和專家復(fù)核程序三類。其中專家復(fù)核程序針對高風(fēng)險領(lǐng)域,需依據(jù)工信部、科技部聯(lián)合發(fā)布的重點清單實施嚴(yán)格審查。清單涵蓋人機融合系統(tǒng)、輿論引導(dǎo)算法、自主決策系統(tǒng)三大核心領(lǐng)域,這些領(lǐng)域直接涉及人類基本權(quán)利與公共安全。
人機融合技術(shù)審查聚焦腦機接口、情感計算等方向。這類技術(shù)可能改變?nèi)祟愓J(rèn)知模式,甚至影響自主決策能力。某實驗室曾展示通過神經(jīng)調(diào)控改變實驗對象情緒的實驗,引發(fā)學(xué)界對"技術(shù)控制人類"的激烈討論。倫理專家強調(diào),必須確保技術(shù)發(fā)展始終以維護人類尊嚴(yán)為前提。
輿論引導(dǎo)類算法審查直指信息繭房、社會對立等現(xiàn)實問題。當(dāng)前部分社交平臺利用算法推薦制造流量泡沫,個別事件中甚至出現(xiàn)機器賬號批量傳播極端觀點的現(xiàn)象。新規(guī)要求此類系統(tǒng)開發(fā)需通過倫理委員會評估,防止技術(shù)被用于操縱公共輿論。
自主決策系統(tǒng)審查重點覆蓋交通、醫(yī)療等關(guān)鍵領(lǐng)域。某自動駕駛企業(yè)測試數(shù)據(jù)顯示,其算法在極端天氣下決策失誤率較人類駕駛員高出3倍。新規(guī)明確要求這類系統(tǒng)必須經(jīng)過千萬次模擬驗證,在確保絕對安全前不得投入實際應(yīng)用,切實保障公眾生命財產(chǎn)安全。
該辦法的出臺標(biāo)志著我國人工智能治理從原則性指導(dǎo)轉(zhuǎn)向具體操作規(guī)范。相比歐盟《人工智能法案》的"風(fēng)險分級"模式,我國更強調(diào)全流程倫理嵌入,要求企業(yè)建立內(nèi)部審查機制。法律界人士指出,后續(xù)需完善配套處罰措施,確保倫理規(guī)范具有實際約束力。











