cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI 加強防範人工智慧武器和偏見風險的準備

準備團隊

在麻省理工學院人工智慧教授 Aleksander Madry 的領導下,OpenAI 成立了一個名為「Preparedness」的專門團隊。該團隊由人工智慧研究人員、電腦科學家、國家安全專家和政策專業人員組成,將持續監控和測試 OpenAI 的技術。如果任何人工智慧系統表現出潛在的危險行為,它在識別和向公司發出警報方面發揮著至關重要的作用。準備團隊與OpenAI 現有的安全系統團隊和超級對齊團隊一起運作,前者專注於緩解將有偏見的演算法嵌入人工智慧等問題,後者研究在人工智慧超越人類智慧的假設場景中防止人工智慧傷害人類。

存在威脅辯論

今年早些時候,人工智慧產業的知名人士,包括 OpenAI、Google和微軟的領導者,強調了與人工智慧相關的生存風險,將其比作流行病或核武。然而,一些研究人員認為,這種對假設災難性場景的關注轉移了人們對人工智慧技術當前有害後果的注意力。越來越多的人工智慧商業領袖主張推進技術開發,認為風險被誇大了,而該技術可以顯著造福社會並提高盈利能力。

平衡的方法

OpenAI 執行長 Sam Altman 承認人工智慧固有的長期風險,但強調解決當前挑戰的重要性。 Altman 反對那些給小公司帶來不成比例負擔並阻礙其​​在快速發展的人工智慧領域競爭能力的法規。

透過專家協作降低風險

亞歷山大·馬德里 (Aleksander Madry) 是一位受人尊敬的人工智慧研究員,也是麻省理工學院可部署機器學習中心主任,今年加入了 OpenAI。儘管最近領導層發生了變化,但 Madry 對公司調查人工智慧風險的承諾充滿信心。 OpenAI正在積極與國家核安局等組織進行討論,以促進對人工智慧風險的全面研究。此外,OpenAI 承諾允許外部「合格的獨立第三方」評估其技術,並進行超出線上標準研究的嚴格測試。在討論人工智慧發展加速或減速的兩極化觀點時,Madry 強調此類辯論過於簡單化,主張對人工智慧發展採取更細緻的方法。


已發佈

分類:

作者:

標籤: