和風網標誌

OpenAI CTO 接受 Sora 採訪後面臨批評

日期:

OpenAI 是一家頗具影響力的人工智慧研究實驗室,背後有 ChatGPT 和 Sora 等開創性工具,在最近接受其首席技術長 Mira Murati 採訪後,OpenAI 發現自己陷入了困境。

面試由《華爾街日報》記者 Joanna Stern 主持,重點關注 OpenAI 的最新圖像(或更確切地說是視訊)生成系統, .

人們的擔憂集中在可能濫用受版權保護的作品來訓練人工智慧模型和 缺乏透明度 來自 OpenAI 關於其數據實踐的資訊。

Sora的訓練資料有問題

爭議的核心在於訓練資料的問題, 用於訓練人工智慧模型的大量資料集.

當被問及 Sora 使用的數據來源時,Murati 給出了標準答案:該模型接受過“訓練”公開可用和許可的數據“。

然而,進一步的探索揭示了 Murati 對該資料集的具體細節的猶豫和不確定性。

這個回應有 提出紅旗 藝術家、攝影師和知識產權專家。人工智慧影像生成系統在很大程度上依賴攝取大量影像,其中許多影像可能受版權保護。 Sora 訓練資料的不明確性引發了人們對 OpenAI 是否充分保護內容創作者權利的質疑。

OpenAI SORA 訓練資料爭議
Sora的訓練資料庫尚未在任何官方平台上發布 (圖片來源)

後來承認使用 Shutterstock

Murati 最初拒絕解決 Shutterstock 圖片是否是 Sora 訓練資料集的組成部分,這更是火上加油。直到採訪結束後,穆拉蒂才在《華爾街日報》添加的腳註中確認使用了 Shutterstock 的圖片庫。

這項確認與 OpenAI 面向公眾的立場“公開可用和許可的數據」並建議嘗試隱瞞潛在有問題的採購實務。

Shutterstock 和 OpenAI 組成了 合夥 授予 OpenAI 使用 Shutterstock 圖像庫來訓練 DALL-E 2 和可能的 Sora 等圖像生成模型的權利。

作為回報,Shutterstock 貢獻者(圖像出現在平台上的攝影師和藝術家)在他們的作品被用於開發這些 AI 模型時會獲得報酬。

公關噩夢展開

可以肯定地說,大多數公關人員不會認為這次採訪是公關傑作。

Murati 的缺乏明確性是在 OpenAI 的敏感時刻出現的, 已經面臨重大版權訴訟,其中包括《紐約時報》提交的一份重要文件。

公眾正在密切關注 OpenAI 涉嫌秘密使用 YouTube 影片進行模型訓練等做法,因為 《The Information》先前報道。從藝術家到政客等利害關係人要求追究責任,穆拉蒂的迴避只會火上加油。

OpenAI 的不透明方法適得其反, 將 Sora 的採訪變成一場公關災難.

透明度並不是無緣無故被討論最多的話題

這事件凸顯了一個重要的事實:在人工智慧世界中,揭露真相至關重要。 OpenAI 的糟糕反應嚴重損害了公眾的信任,並加劇了對其道德實踐的質疑。索拉的爭議凸顯了日益增長的合唱團 要求人工智慧產業內承擔更多責任.

Murati 不願透露 Sora 訓練資料品種的具體情況 不信任並開創了危險的先例.

如果藝術家、創作者和公眾要求不明確,道德爭論和法律訴訟的可能性只會加劇。

這片土地上沒有天使

雖然目前的大部分審查都直接針對 OpenAI,但記住這一點至關重要 他們不是遊戲中唯一的玩家.

Facebook 人工智慧研究 美洲駝模型Google的雙子座 還面臨培訓資料來源有問題的指控。

OpenAI SORA 訓練資料爭議
人工智慧發展的透明度問題長期以來一直被提上議程 (圖片來源)

這並不奇怪,因為 商業內幕報告 Meta已經承認了 使用 Instagram 和 Facebook 帖子 訓練其人工智慧模型。此外, 谷歌對網路大片領域的控制 使他們能夠獲得無與倫比的潛在培訓數據,從而引發了有關同意和版權的類似道德擔憂。

OpenAI的Sora的情況是 只是更大拼圖中的一塊。整個人工智慧開發領域正面臨對其數據實踐和潛在道德影響的審查。


特色形象學分: Freepik.

現貨圖片

最新情報

現貨圖片