重磅!Open AI發(fā)布ChatGPT 安全方法
4月6日凌晨,Open AI在官網(wǎng)發(fā)布了《Our approach to AI safety》,以確保安全、可靠地為全球用戶提供ChatGPT服務(wù)。(地址:https://openai.com/blog/our-approach-to-ai-safety)
(資料圖)
目前,ChatGPT的安全問題受到了全球多數(shù)國家的高度關(guān)注。意大利則直接禁用ChatGPT,歐洲多數(shù)國家也開始紛紛重視ChatGPT是否侵犯數(shù)據(jù)隱私等。一時間生成式AI的數(shù)據(jù)安全成為熱門話題。
Open AI在這關(guān)鍵節(jié)點發(fā)布安全方法,這對其未來發(fā)展乃至整個AIGC行業(yè)都起到了關(guān)鍵的保護和穩(wěn)定軍心的作用。
構(gòu)建安全、可靠的AI產(chǎn)品
Open AI表示,在發(fā)布任何新系統(tǒng)之前,會進行嚴格的測試。聘請外部專家提供反饋,通過人工反饋強化學(xué)習(xí)等技術(shù)改進模型的行為,并構(gòu)建廣泛的安全和監(jiān)控系統(tǒng)。
例如,Open AI的最新模型GPT-4完成訓(xùn)練后,花了6個多月的時間在整個組織內(nèi)開展工作,以使其在公開發(fā)布之前更安全、更一致。
Open AI認為,強大的人工智能系統(tǒng)應(yīng)該接受嚴格的安全評估。需要監(jiān)管以確保采用此類做法,Open AI將積極與政府合作,以制定此類監(jiān)管的最佳框架。
從實踐中學(xué)習(xí)、優(yōu)化、改善
Open AI正在努力在部署前預(yù)防可預(yù)見的風(fēng)險,但是,在實驗、研發(fā)的過程中得到的反饋是有限的,盡管進行了嚴謹、廣泛的測試仍然無法預(yù)測人們使用ChatGPT所產(chǎn)生的各種意外后果。所以,從實踐項目中學(xué)習(xí)、優(yōu)化和改善產(chǎn)品,成為重中之重。
Open AI通過自己的服務(wù)和API,以幫助開發(fā)人員可以將最強大的大語言模型直接集成到產(chǎn)品中。這可以使得Open AI能夠監(jiān)控濫用行為并采取行動,并不斷構(gòu)建完善的緩解措施,保證Open AI的產(chǎn)品被用在安全、合規(guī)的項目上。
隨著全球用戶使用的深入,這促使Open AI需要制定更細致、周全的對策來應(yīng)對各種可能出現(xiàn)的危險。
保護兒童
保護兒童的安全一直是Open AI的重點工作。Open AI要求人們必須年滿 18 歲,或在父母同意的情況下年滿13歲才能使用Open AI的產(chǎn)品。Open AI正在研究驗證選項。
Open AI不允許其產(chǎn)品用于生成仇恨、騷擾、暴力或成人內(nèi)容等。與GPT-3.5相比,Open AI最新的模型GPT-4響應(yīng),非法內(nèi)容請求的可能性降低了82%,并且已經(jīng)建立了一個強大的系統(tǒng)來監(jiān)控濫用情況。GPT-4現(xiàn)在可供 ChatGPT Plus 用戶使用,Open AI希望隨著時間的推移讓更多人可以使用它。
尊重隱私
Open AI的大型語言模型是在廣泛的文本語料庫上訓(xùn)練的,這些文本包括公開可用的、許可的內(nèi)容以及由人工審閱生成的內(nèi)容。
Open AI不會使用數(shù)據(jù)來銷售服務(wù)、做廣告或建立人們的檔案——會通過使用數(shù)據(jù)使大語言模型對人們更有幫助。例如,ChatGPT 通過與人類之間進行的對話,以進一步培訓(xùn)和改善產(chǎn)品。
雖然Open AI的一些訓(xùn)練數(shù)據(jù)包括可在公共互聯(lián)網(wǎng)上獲得的個人信息。但只是希望大語言模型了解世界,而不是了解個人。因此,Open AI努力在可行的情況下,從訓(xùn)練數(shù)據(jù)集中刪除個人信息,微調(diào)模型以拒絕對私人個人信息的請求,并對個人提出的從數(shù)據(jù)庫中刪除其個人信息的請求做出回應(yīng)。
提高生成數(shù)據(jù)準(zhǔn)確性
大型語言模型根據(jù)之前的訓(xùn)練模式預(yù)測下一個單詞、句子或長文。但在某些情況下,可能會出現(xiàn)數(shù)據(jù)不準(zhǔn)確的情況。
提高生成數(shù)據(jù)的準(zhǔn)確性,是OpenAI和許多其他AI開發(fā)人員的重點正在取得進展。通過用戶對被標(biāo)記為不正確的主要數(shù)據(jù)源的 ChatGPT 輸出的反饋,GPT-4產(chǎn)生真實數(shù)據(jù)的性能比GPT-3.5高了40%。
持續(xù)的研究和參與
OpenAI認為,解決AI安全問題的實際方法是投入更多時間和資源來研究有效的緩解和對齊技術(shù),并測試它們在現(xiàn)實世界中的濫用情況。
雖然OpenAI等了6個多月才部署GPT-4以更好地了解其功能、優(yōu)勢和風(fēng)險,但有時可能需要比這更長的時間來提高AI系統(tǒng)的安全性。
因此,政策制定者和 AI 供應(yīng)商需要確保AI的開發(fā)和部署在全球范圍內(nèi)得到有效管理,這樣就沒有人會為了取得成功而偷工減料。這是一項艱巨的挑戰(zhàn),需要技術(shù)和制度創(chuàng)新,但OpenAI會全力以赴做出最大努力去改善。
本文作者:?AIGC開放社區(qū)?,來源:AIGC開放社區(qū),原文標(biāo)題:《重磅!Open AI發(fā)布ChatGPT 安全方法》
風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負。關(guān)鍵詞: