近日,媒體分析公司 Newsguard 發(fā)布的一項(xiàng)研究揭露了當(dāng)前人工智能領(lǐng)域的一個(gè)尷尬現(xiàn)狀:盡管 AI 視頻生成技術(shù)日新月異,但主流 AI 聊天機(jī)器人卻幾乎無(wú)法識(shí)別這些“深度偽造”內(nèi)容,甚至連開(kāi)發(fā)者自家的工具也難以幸免。
研究顯示,在面對(duì)由 OpenAI 視頻生成模型Sora制作的虛假視頻時(shí),OpenAI 旗下的ChatGPT表現(xiàn)令人失望,其識(shí)別錯(cuò)誤率竟然高達(dá) 92.5%。這意味著,對(duì)于大多數(shù)由 Sora 生成的視頻,ChatGPT 都會(huì)將其誤認(rèn)為真實(shí)記錄。其他巨頭同樣表現(xiàn)不佳,xAI 的 Grok 錯(cuò)誤率更是高達(dá) 95%,表現(xiàn)相對(duì)較好的是 Google 的 Gemini,但錯(cuò)誤率依然維持在 78%。
針對(duì)這一問(wèn)題,OpenAI 方面坦言,ChatGPT目前確實(shí)不具備判斷內(nèi)容是否由 AI 生成的能力。由于頂級(jí) AI 視頻工具已經(jīng)能拍出肉眼難辨的素材,而反制手段又滯后于技術(shù)發(fā)展,這無(wú)疑為虛假信息的傳播埋下了巨大隱患。










