關於AI安全,OpenAI最新回應:沒有人會為了儘快取得成功而“偷工減料”

來源:“學術頭條”(ID:SciTouTiao)

人工智能系統正在成為(人類)日常生活的一部分。關鍵問題是要確保這些機器與人類的意圖和價值觀保持一致。——Mira Murati,OpenAI CTO

關於AI安全,OpenAI最新回應:沒有人會為了儘快取得成功而“偷工減料”

圖片來源:由無界 AI工具生成

近些天,對 OpenAI 來說,可謂是一個“多事之秋”。

由於 ChatGPT 及 GPT-4 可能引發的安全問題,OpenAI 受到了來自外界的一些指責和阻撓

馬斯克等上千人聯名呼籲 “所有人工智能實驗室應立即暫停訓練比 GPT-4 更強大的大模型,這一時間至少為 6 個月”;

意大利禁用 ChatGPT,OpenAl “必須在 20 天內通過其在歐洲的代表向他們通報公司執行這一要求而採取的措施”;

ChatGPT大面積封號;

ChatGPT Plus 停售;

……

這些事件表明,儘管 AI 已經證明有能力為人類社會帶來諸多好處,但技術總是一把雙刃劍,也會為人類社會帶來帶來真正的風險,AI 也不例外

4 月 6 日,OpenAI 官方發布了一篇名為 “Our approach to AI safety” 的博客文章,探討了如何 “安全地構建、部署和使用人工智能系統” 的方法。 學術頭條在不改變原文大意的情況下,對文章做了簡單的編輯。

以下為全文:

OpenAI 致力於保持強大的人工智能安全和(人類社會的)廣泛受益。我們的人工智能工具為今天的人們提供了許多好處。來自世界各地的用戶告訴我們,ChatGPT 有助於提高他們的生產力,增強他們的創造力,並提供量身定製的學習體驗。我們也認識到,像任何技術一樣,這些工具也有真正的風險——所以,我們努力確保在各個層面上將安全納入我們的系統。

1.建立越來越安全的人工智能系統

在發布任何新系統之前,我們都會進行嚴格的測試,讓外部專家參與反饋,努力利用人類反饋的強化學習等技術改善模型的行為,並建立廣泛的安全和監測系統。

例如,在我們最新的模型 GPT-4 完成訓練后,我們所有員工花了 6 個多月的時間使其在公開發布前更加安全和一致。

我們認為,強大的人工智能系統應該接受嚴格的安全評估。需要有監管來確保這種做法被採納,我們積極與政府接觸,探討這種監管可能採取的最佳形式。

2.從真實世界的使用中學習,以改進保障措施

我們努力在部署前預防可預見的風險,然而,我們在實驗室中能學到的東西是有限的。儘管進行了廣泛的研究和測試,我們無法預測人們使用我們技術的所有有益方式,也無法預測人們濫用技術的所有方式。這就是為什麼我們相信,隨着時間的推移,從現實世界的使用中學習是創建和發布越來越安全的人工智能系統的一個關鍵組成部分。

在有大量的保障措施下,我們謹慎地逐步發布新的人工智能系統,將其推送給一個穩步擴大的人群,並根據我們學到的經驗不斷改進。

我們通過我們自己的服務和 API 提供我們最有能力的模型,這樣開發者就可以直接在他們的應用程序中使用這種技術。這使我們能夠監測濫用情況並採取行動,並不斷建立緩解措施,以應對人們濫用我們的系統的真實方式,而不僅僅是關於濫用可能是什麼樣子的理論

現實世界的使用也使我們制定了越來越細微的政策,以防止那些對人們構成真正風險的行為,同時還允許我們的技術有許多有益的用途。

至關重要的是,我們相信社會必須有時間來更新和調整,以適應能力越來越強的人工智能,而且每個受這種技術影響的人都應該在人工智能的進一步發展中擁有重要的發言權。迭代部署幫助我們將各種利益相關者帶入關於採用人工智能技術的對話中,比他們沒有親身經歷過這些工具的情況下更有效。

3.保護兒童

關於安全的一個關鍵工作是保護兒童。我們要求使用我們的人工智能工具的人必須是 18 歲或以上,或 13 歲或以上並得到父母的批准,我們正在研究驗證選項。

我們不允許我們的技術被用來產生仇恨、騷擾、暴力或成人內容,以及其他(有害)類別。我們的最新模型 GPT-4 與 GPT-3.5 相比,對不允許的內容請求的回應率降低了 82%,我們已經建立了一個強大的系統來監控濫用。GPT-4 現在可供 ChatGPT Plus 用戶使用,我們希望隨着時間的推移,能讓更多人使用

我們作出了很多努力,盡量減少我們的模型產生傷害兒童的內容的可能性。例如,當用戶試圖向我們的圖像工具上傳兒童安全虐待材料時,我們會阻止這一動作,並向國家失蹤和受剝削兒童中心報告。

除了我們的默認安全護欄外,我們還與非營利性的可汗學院等開發商合作–該學院建立了一個由人工智能驅動的助手,既是學生的虛擬導師,也是教師的課堂助手–為他們的使用情況定製安全緩解措施。我們還在開發一些功能,使開發者能夠為模型輸出設定更嚴格的標準,以更好地支持那些希望獲得這種功能的開發者和用戶。

4.尊重隱私

我們的大型語言模型是在一個廣泛的文本語料庫上訓練出來的,其中包括公開的、授權的內容,以及由人類審查者產生的內容。我們不使用數據來銷售我們的服務、廣告或建立人們的檔案,我們使用數據來使我們的模型對人們更有幫助。例如,ChatGPT 通過對人們與它的對話進行進一步的訓練來提高能力。

雖然我們的一些訓練數據包括公共互聯網上的個人信息,但我們希望我們的模型能夠了解這個世界,而不是私人。因此,我們努力在可行的情況下從訓練數據集中刪除個人信息,對模型進行微調,以拒絕對私人信息的請求,並對個人提出的從我們的系統中刪除其個人信息的請求作出回應。這些步驟最大限度地減少了我們的模型可能產生包括私人信息的內容的可能性。

5.提高事實的準確性

大型語言模型根據它們之前看到的模式,包括用戶提供的文本輸入,預測、產生接下來的一系列的詞。在某些情況下,下一個最有可能的詞可能在事實上並不准確。

提高事實準確性是 OpenAI 和許多其他人工智能開發者的一個重要工作,我們正在取得進展。通過利用用戶對被標記為不正確的 ChatGPT 輸出的反饋作為主要數據來源,我們已經提高了 GPT-4 的事實準確性。與 GPT-3.5 相比,GPT-4 產生事實性內容的可能性增加了 40%。

當用戶註冊使用該工具時,我們努力做到儘可能透明,即 ChatGPT 可能不總是準確的。然而,我們認識到,要進一步減少出現幻覺的可能性,以及引導公眾了解這些人工智能工具目前的局限性,還有很多其他工作要做

6.持續的研究和參與

我們認為,解決人工智能安全問題的實用方法是投入更多的時間和資源來研究有效的緩解措施和調整技術,並針對現實世界的濫用進行測試。

重要的是,我們認為,提高人工智能的安全性和能力應該齊頭並進。迄今為止,我們最好的安全工作來自與我們能力最強的模型之間的合作,因為它們更善於遵循用戶的指示,更容易引導或 “指導”。

隨着能力更強的模型的創建和部署,我們將越來越謹慎,隨着我們人工智能系統的進一步發展,我們將繼續加強安全防範措施。

雖然我們為了更好地了解 GPT-4 的能力、好處和風險,等了 6 個多月才將其部署,但有時可能需要比這更長的時間來提高人工智能系統的安全性。因此,政策制定者和人工智能供應商將需要確保人工智能的發展和部署在全球範圍內得到有效的管理,沒有人會為了儘快取得成功而 “偷工減料”。這是一個艱巨的挑戰,需要技術和制度上的創新,但這也是我們渴望做出的貢獻。

解決安全問題也需要廣泛的辯論、實驗和參與,包括在人工智能系統行為的界限上。我們已經並將繼續促進利益相關者之間的合作和公開對話,以創建一個安全的人工智能生態系統。

本文鏈接:https://www.8btc.com/article/6812266

轉載請註明文章出處

(0)
上一篇 2023-04-16 02:25
下一篇 2023-04-16 02:25

相关推荐