一場科技巨頭齊聚白宮的會議,美國總統拜登“順便”參加,并透露自己曾“親身試用”。
【資料圖】
美國東部時間5月4日,拜登出席了在白宮舉行的一個人工智能(AI)會議,會見包括谷歌、微軟和OpenAI在內的頂級AI公司的首席執行官。
會議對AI技術所帶來的風險和治理措施進行了討論。拜登和美國副總統哈里斯均強調科技公司需對AI產品的安全負責。
今年以來,以ChatGPT為代表的生成式大模型成為全球范圍內的熱詞,數以億計的用戶開始使用相關產品,但與此同時,相關的風險也越來越不容忽視。
近期,各國紛紛開始監管介入,討論人工智能時代下一系列的法律與社會問題。
在此次會議中,拜登強調了公司確保其產品在部署或公開之前安全可靠的基本責任,并且為了實現人工智能進步帶來的好處,必須減輕當前和潛在風險,包括對安全、安保、人權和公民權利、隱私、工作和民主價值觀的風險。
會議討論了三個關鍵領域:公司需要在人工智能系統方面更加透明;評估、驗證和驗證人工智能系統的安全性、保障性和有效性的重要性;以及確保人工智能系統免受惡意行為者和攻擊的需要。
在會議結束后,OpenAI首席執行官山姆·奧特曼表示:“各公司在人工智能需要發生的事情(指安全監管等問題)上意見一致,我支持推進新的人工智能監管規定,支持新的立法。”
CNBC對山姆·奧特曼和美國希望行動公司首席執行官約翰·霍普·布萊恩特就此次會議內容展開了采訪,一起討論人工智能軍備競賽的狀況以及監管AI的必要性等內容。
以下是關于此次采訪的完整翻譯版,分享給大家。
問:山姆,你能展開談談此次白宮人工智能會議的具體內容嗎?
以及當你聽到人們發表對AI的看法時,你有什么感想?
山姆·奧特曼:我們當下的任務是,弄清楚如何建立這些先進的人工智能系統,并將它們應用到社會中,以獲得最大的利益。
我們在會議中討論了一個問題,AI確實可以做很多事情,但我們還是要與政府和監管部門互相配合。
從長遠來看,我們需要世界各地的政府采取行動,制定法規和標準,確保公司可以從這些技術中獲得盡可能多的好處,并將負面影響降到最低。
會議的核心內容就是這點。
我認為這是一個很好的開始,我們還有很長的路要走。
問:你一直在強調監管的必要性,尤其是長期監管,這可能會讓一些人感到驚訝。
在你看來,長期監管應該怎么做?
以及你認為短期監管將會帶來什么樣的挑戰?
山姆·奧特曼:從短期來看,我知道人們現在正在討論很多問題,“內容為王”就是一個至關重要的例子。
比如,當我們在和一個人工智能聊天時,我們該怎么知道它所說的內容是否真實?
從長遠來看,隨著這些AI系統越來越強大,我認為我們需要國際權威機構去監督那些建造AI系統的人,確保我們正在進行安全評估,并能夠跟蹤他們的一舉一動。
我們這樣做也有利于其他先進技術的推廣,我認為人工智能僅是其中之一。
問:倘若綜合去考慮事情發展的速度和你開發這項技術的速度,我們實際上需要等待多少時間?
山姆·奧特曼:這有點像光譜(很難簡單說清楚)。這并不是說我們很好,然后突然間需要有一個強有力的監管了。
我認為我們現在需要開始考慮這些問題,然后在接下來的很多年里,需要把越來越嚴格的監管落實到位。
問:約翰,你曾經花了很多時間去關注那些弱勢群體,比如說未飽和的市場、得不到充分服務的人群等,以及AI對他們就業所產生的影響。
那么你認為AI會顛覆哪個領域呢?
約翰·霍普·布萊恩特:我曾在你的節目中說過,目前我們正在經歷第四次工業革命。
從馬到汽車的過渡,我們花了50年的時間才完成,而AI對藍領工人的取代可能會在5年內發生。
從現在到2030年,AI有可能會擾亂1億工薪家庭的生活。
如果我們做得好,只有對人們進行適當的培訓,他們就將會擁有更多的工作機會。如果我們做錯了,那么可能就會讓更多人面臨著失業的情況。
問:山姆,你不僅致力于開發ChatGPT,同時還探討了全民基本收入的必要性。
這兩個想法是如何交織在一起的?
山姆·奧特曼:我認為全民基本收入是一種有趣的政策,值得我們去探索,但它只能算是一部分的解決方案,去彌補因AI取代的工作所造成的損失。
在我看來,人們仍然需要其他原因去支撐他們繼續工作。未來將會出現許多新的工作方式讓人們去消磨時間,為彼此創造價值。
無論我們開發出什么樣的技術,人類對有用感、地位感、差異化感以及創造令人難以置信的新事物的渴望都不會消失。
假若我們能夠用比現在更好的政策來消除貧困,或者有一種新的方式去分享巨額財富,我們都將實現富裕。
我對此很感興趣。我不認為全民基本收入是一個完全的解決辦法,這也是我這兩個想法交織在一起的原因。
問:山姆,當你看到埃隆·馬斯克在那封“呼吁暫停巨型AI實驗”的公開信上簽名時,你是怎么想的?
山姆·奧特曼:事實上,我并不認為這封信呼吁的是暫停發展AI,它呼吁的是暫停擴大AI模型的發展規模。
我理解那些簽名的人來自哪里,我也理解他們對事物發展速度感到焦慮的真正原因。
但我認為,這是一項細致入微的政策。
我們更應當去研究什么樣的評估、實踐與系統可以確保AI技術持續安全地發展。
問:當AI變得非常強大時,我們并不真正了解未來可能會發生什么。
我們能否建立一種安全措施,確保20年、30年、40年后,人類對機器來說不是完全多余的。
你有思考過這點嗎?
山姆·奧特曼:我們該如何去整合AI這項技術,并將它很好地應用于我們想要建立的新社會之中,這是這個時代最重要的問題之一。
現在我們對外公開的AI技術都存在內部監管,未來也將會有不同的監管標準。
在未來的幾年里,我們將會有一個非常嚴格的討論,關于我們如何將這項技術整合到我們的生活中。
我們會去建立各種保障措施與各種規則。
但倘若我們不與一個非常廣泛的群體進行討論,僅僅局限于我們公司內部的話,那么我們建造的東西也只是人類的一小部分,無法成為人類的整體。
問:在當前這個人工智能的背景下,我們該如何去保護好自己的數據呢?
山姆·奧特曼: 用戶顯然是不希望我們去處理他們的個人數據的,我們也不會那樣做,并把這項原則寫進了官方政策中。
我們此前確實有這樣的想法,即在盡可能多的數據上進行運行,但這點很難做到。
目前我們正在開發需要更少數據的新技術。
問:你認為數據和內容會隨著時間的推移變得越來越有價值嗎?
山姆·奧特曼:我們并不想強迫任何人去運行他們的數據。
有些人會希望我們根據他個人的數據去進行個性化的推薦,但也有人并不希望,我們會尊重這一點。
人工智能不是一個數據庫,不是用來存儲一堆人數據的東西。
這些AI模型都具有通用的推理能力,它們會據此在互聯網上搜索數據。如果你給予許可,他們就可以去訪問你的數據,為你推薦你想要的信息。
事實上,如果有這樣一種商業模式的話,它將會發揮重要的作用。
編輯/Somer