OpenAI 一直在就何時發布一款工具,用于確定一張圖像是否由 DALL-E 3 生成,OpenAI 的生成式人工智能藝術模型,進行了廣泛的「討論和辯論」。但這家初創公司并不打算在短期內做出決定。
這是根據本周在電話采訪中與 TechCrunch 交談的 OpenAI 研究員 Sandhini Agarwal 的說法。她負責安全和政策,她表示,盡管分類器工具的準確性「非常好」——至少根據她的估計——但尚未達到 OpenAI 的質量門檻。
Agarwal 表示:「考慮到它做出的決定可能會嚴重影響照片,比如一件作品是否被視為由藝術家繪制,或者是否不真實且具有誤導性,因此推出一個有點不可靠的工具是一個問題。」
OpenAI 對該工具的目標準確性似乎非常高。OpenAI 首席技術官 Mira Murati 在 WSJ 的 Tech Live 會議上表示,這款分類器在確定未經修改的照片是否是由 DALL-E 3 生成的方面是「99%」可靠的。也許目標是 100%;Agarwal 沒有明確表示。
與 TechCrunch 分享的 OpenAI 博客草稿揭示了一個有趣的細節:
「[分類器] 在圖像經歷了常見類型的修改,如裁剪、調整大小、JPEG 壓縮,或者在生成的圖像的小部分上疊加文本或真實圖像的剪貼時,仍然保持超過 95% 的準確性。」
OpenAI 的猶豫可能與圍繞其先前的公共分類器工具的爭議有關,該工具旨在檢測不僅來自 OpenAI 模型,還來自第三方供應商發布的生成文本。OpenAI 撤回了 AI 編寫的文本檢測器,因為其「低準確率」受到廣泛批評。
Agarwal 暗示 OpenAI 還關注人工智能生成圖像到底由什么構成的哲學問題。顯然,由 DALL-E 3 從頭生成的藝術作品是符合條件的。但是,對于經過多輪編輯、與其他圖像合并,然后經過幾輪后處理濾鏡的 DALL-E 3 生成的圖像,應該如何劃分就不太清楚了。
Agarwal 表示:「在那一點上,這個圖像應該被視為 AI 生成的東西還是不是?現在,我們正在嘗試解決這個問題,我們真的希望聽到那些將受到這種分類器工具重大影響的藝術家和其他人的意見。」
不僅 OpenAI,許多組織正在研究為生成媒體水印和檢測技術,因為人工智能深度偽造不斷增加。
DeepMind 最近提出了一種規范,SynthID,用于標記以人眼看不見的方式生成的 AI 圖像,但可以被專門的檢測器發現。法國初創公司 Imatag,于 2020 年推出了一款聲稱不受調整大小、裁剪、編輯或壓縮圖像影響的水印工具,類似于 SynthID。另一家公司 Steg.AI 使用 AI 模型應用可以經受調整大小和其他編輯的水印。
問題在于,該行業尚未就單一的水印或檢測標準達成共識。即使達成共識,也不能保證水印——以及檢測器——不會被打敗。
Agarwal 被問及 OpenAI 的圖像分類器是否支持檢測使用其他非 OpenAI 生成工具創建的圖像。她不承諾這一點,但確實說過——這取決于目前存在的圖像分類器工具的接受程度——這是 OpenAI 會考慮探索的一條途徑。
Agarwal 表示:「目前 [分類器] 僅適用于 DALL-E 3,因為從技術上講,這是一個更容易解決的問題。」她說:「[通用檢測器] 并不是我們目前正在做的事情... 但根據 [分類器工具] 的發展,我不是說我們永遠不會這樣做。」
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。