人工智能巨頭開始進一步考量如何保證AI生成內容的真實性。
當地時間5月7日,OpenAI發布一款圖像檢測分類器,能夠區分非人工智能生成的圖像和DALL-E 3生成的圖像,能正確識別約98%的DALL-E 3生成圖像。
OpenAI表示,該分類器還可以處理常見的修改,如壓縮、裁剪和飽和度變化。不過,其他修改則會降低分類器的性能。同時,分類器在區分文生圖大模型DALL-E 3與其他AI模型的生成內容方面性能也較低,在內部數據集上只標記了約5%-10%由其他AI模型生成的圖像。
目前,該分類器僅向第一批測試者開放使用申請。

OpenAI的圖像檢測分類器界面
此外,OpenAI還提及了音頻水印技術,不過目前仍處于研發階段。OpenAI表示,增加防篡改水印,在音頻數字內容上標記難以去除的隱形信號,也將確保數字內容的完整性。
OpenAI也強調,創建新技術目前是為了專門幫助識別由OpenAI自己的工具創建的內容,此外還要與其他公司一起采用、開發和推廣一種開放標準,幫助人們驗證用于創建或編輯多種數字內容的工具。
為此,OpenAI宣布加入C2PA(內容真實性聯盟)指導委員會。據介紹,C2PA是一個被廣泛采用的數字內容認證標準,由軟件公司、相機制造商和在線平臺等眾多參與者開發和使用,可用于證明內容來自特定來源。微軟、Meta、谷歌等也是C2PA指導委員會的成員。
OpenAI表示,今年早些時候就已開始在ChatGPT和OpenAI API中為由DALL-E 3創建和編輯的所有圖片添加C2PA元數據。并且將會在Sora推出時,也為模型整合C2PA元數據。
據稱,這些信息無法被輕易偽造或篡改,隨著標準采用率的提高,可以覆蓋內容的共享、修改和重新使用等環節。
近年來,隨著生成式人工智能快速發展,AI內容愈發真實,AI換臉、AI變聲等新型詐騙也層出不窮,確保數據安全和內容真實性也成為全球共識。中國相繼出臺《關于加強科技倫理治理的意見》、《互聯網信息服務深度合成管理規定》、《生成式人工智能服務管理暫行辦法》等多項法規和政策;4月23日,中央網信辦再次強調要加強信息來源標注展示,使用AI等技術生成信息的,必須明確標注系技術生成。