非營利組織“科技透明度項目”近日發布研究報告指出,蘋果App Store與谷歌Play商店中存在多款基于人工智能技術的“脫衣”類應用。這類應用通過分析用戶上傳的普通照片,利用深度學習算法生成虛假裸露圖像,引發社交平臺用戶強烈譴責。相關話題在Reddit等社區迅速發酵,形成大規模討論。
研究人員通過關鍵詞檢索發現,部分應用在商品描述中刻意使用模糊措辭規避審查,但實際功能聚焦于生成色情內容。與常規圖片處理工具不同,這些應用的核心算法專門針對人體特征進行逆向建模,其輸出結果具有明顯性暗示。測試樣本顯示,即使輸入完全正常的生活照,系統仍能生成違背倫理的偽造圖像。
針對輿論壓力,蘋果公司向調查機構確認已下架9款違規應用,并向相關開發者發送整改通知。谷歌方面則采取更嚴厲措施,不僅暫停涉事開發者賬戶,還對同類算法應用啟動專項審查。兩家平臺均表示將加強人工智能生成內容的審核標準,但未公布具體技術檢測方案。
批評人士指出,科技巨頭的應對存在明顯滯后性。監測數據顯示,某款頭部應用在被下架前累計下載量突破320萬次,通過內購系統獲利超80萬美元。更令人擔憂的是,部分應用采用訂閱制模式,用戶需支付周費才能解鎖完整功能,這種商業模式加劇了不良內容的傳播風險。有安全專家表示,現有應用商店的機器審核系統難以識別此類深度偽造技術,人工復核又存在效率瓶頸,形成監管灰色地帶。
法律界人士提醒,使用此類應用可能涉及多重違法。在多數司法管轄區,未經同意制作、傳播他人虛假色情圖像已構成刑事犯罪,而應用開發者則可能面臨侵犯隱私、傳播淫穢物品等指控。盡管部分平臺在用戶協議中明令禁止此類行為,但實際執行過程中存在舉證難、追責慢等問題,導致違法成本顯著低于收益。











