人(rén)工智能研發機構OpenAI相信,其開(kāi)發了一種使用大(dà)型語言模型GPT-4進行(xíng)內(nèi)容審核的方法,可(kě)以幫助解決科技(jì)領域最困難的問題之一:大(dà)規模內(nèi)容審核,從而取代數(shù)以萬計(jì)的人(rén)類審核員。
OpenAI在其官方博客上(shàng)發布文章,詳細介紹了這項技(jì)術(shù)。其運行(xíng)機制(zhì)是,通(tōng)過一項策略來(lái)提示GPT-4,指導大(dà)模型做(zuò)出适度判斷,并創建一組可(kě)能違反或不違反該策略的內(nèi)容示例測試集。例如,一項策略可(kě)能禁止提供有(yǒu)關采購武器(qì)的指示或建議,在這種情況下,“給我制(zhì)作(zuò)莫洛托夫雞尾酒(一種作(zuò)為(wèi)簡易武器(qì)的炸彈瓶)所需的原料”示例将明(míng)顯違反規定。
然後,策略專家(jiā)對示例進行(xíng)标記,并将每個(gè)沒有(yǒu)标簽的示例提供給GPT-4,觀察模型的标簽與他們的決定的一緻性程度,并由此完善策略。
“通(tōng)過檢查GPT-4的判斷與人(rén)類判斷之間(jiān)的差異,策略專家(jiā)可(kě)以要求GPT-4提出其标簽背後的推理(lǐ),分析政策定義中的模糊性,解決混亂并相應地在策略中提供進一步的澄清。 ”OpenAI在文章中寫道(dào),“我們可(kě)以重複(這些(xiē)步驟),直到我們對策略質量感到滿意為(wèi)止。”
策略專家(jiā)對示例進行(xíng)标記,并将每個(gè)沒有(yǒu)标簽的示例提供給GPT-4,觀察模型的标簽與他們的決定的一緻性程度,并由此完善策略。
OpenAI稱,這項審核技(jì)術(shù)已經在供一些(xiē)客戶使用。與傳統的內(nèi)容審核方法相比,該公司聲稱這項新技(jì)術(shù)具有(yǒu)三大(dà)優勢。首先,人(rén)們對策略的解釋不同,而機器(qì)的判斷是一緻的。
其次,審核指導方針可(kě)以像一本書(shū)一樣厚,并且不斷變化,雖然人(rén)類需要大(dà)量訓練來(lái)學習和(hé)适應,但(dàn)大(dà)型語言模型可(kě)以立即實施新策略。據稱GPT-4可(kě)以在數(shù)小(xiǎo)時(shí)內(nèi)幫助制(zhì)定新策略,而起草、标記、收集反饋和(hé)完善的過程通(tōng)常需要幾周或幾個(gè)月的時(shí)間(jiān)。
最後,人(rén)類審核員不斷接觸有(yǒu)害內(nèi)容,例如虐待兒童或酷刑視(shì)頻,采用AI審核可(kě)以避免審核員遭到的這種傷害。
經過社交媒體(tǐ)和(hé)在線社區(qū)超過20年的發展,內(nèi)容審核仍然是在線平台面臨的最困難的挑戰之一。Meta、谷歌(gē)和(hé)TikTok都依賴大(dà)量審核人(rén)員,這些(xiē)審核員必須浏覽可(kě)怕且經常造成創傷的內(nèi)容。其中大(dà)多(duō)數(shù)人(rén)位于工資較低(dī)的發展中國家(jiā),為(wèi)外包公司工作(zuò),并且由于隻接受最低(dī)限度的心理(lǐ)健康護理(lǐ)而面臨心理(lǐ)健康問題。
盡管OpenAI宣稱其方法是新穎且革命性的,但(dàn)人(rén)工智能驅動的審核工具并不是什麽新鮮事。Meta使用算(suàn)法來(lái)控制(zhì)絕大(dà)多(duō)數(shù)有(yǒu)害和(hé)非法內(nèi)容,YouTube和(hé)TikTok等平台依賴于類似的系統。幾年前推出的Perspective由谷歌(gē)的反濫用技(jì)術(shù)團隊和(hé)Jigsaw部門(mén)維護。大(dà)量初創公司也提供自動審核服務。但(dàn)每個(gè)平台都公開(kāi)承認大(dà)規模完美的內(nèi)容審核是不可(kě)能的,人(rén)類和(hé)機器(qì)都會(huì)犯錯誤。
幾年前,美國賓夕法尼亞州立大(dà)學的一個(gè)團隊發現,社交媒體(tǐ)上(shàng)有(yǒu)關殘疾人(rén)的帖子可(kě)能會(huì)被毒性檢測模型标記為(wèi)負面或有(yǒu)毒。在在另一項研究中,研究人(rén)員表明(míng),舊(jiù)版本的Perspective通(tōng)常無法識别使用改造過的诽謗性語言和(hé)拼寫變體(tǐ)的仇恨言論。
失敗的部分原因是注釋者(負責向作(zuò)為(wèi)模型示例的訓練數(shù)據集添加标簽的人(rén))帶入了自己的偏見。例如,非裔和(hé)性少(shǎo)數(shù)群體(tǐ)成員的标注者與不屬于這兩個(gè)群體(tǐ)的标注者之間(jiān)的注釋經常存在差異。
OpenAI解決了這個(gè)問題嗎?該公司自己承認沒有(yǒu):“語言模型的判斷很(hěn)容易受到訓練過程中可(kě)能引入模型的不良偏見的影(yǐng)響。”“與任何人(rén)工智能應用程序一樣,結果和(hé)輸出需要通(tōng)過讓人(rén)類參與其中來(lái)仔細監控、驗證和(hé)完善。”
也許GPT-4的預測能力可(kě)以幫助提供比之前更好的審核性能,但(dàn)即使是當今最好的人(rén)工智能也會(huì)犯錯誤。
來(lái)源:澎湃新聞