OpenAI的現任和前任員工警告,主要AI公司缺乏透明度和問責制,無法因應AI潛在風險。(美聯社)
正當輝達創辦人兼執行長黃仁勳訪台,引起人工智慧(AI)旋風之際,AI的潛在風險也受到關注。
由OpenAI、Google DeepMind以及Anthropic等3大AI龍頭公司的十多位現任及前任員工連署公開信,揭露AI產業內部的隱憂:員工擔心自己無法自由表達對AI威脅人類的擔憂,因為他們受到保密協議、缺乏舉報保護機制以及害怕報復的限制。
華爾街日報報導,OpenAI成立於2015年,2022年向公眾推出聊天機器人ChatGPT,引起全球轟動,目前約有1.805億用戶。1群AI產業的員工表示,由於受制於保密協議、缺乏舉報人保護以及擔心遭到報復,他們無法表達AI對人類威脅的擔憂。
在3日公開發表的信函「對先進AI發出警告的權利」(A Right to Warn about Advanced Artificial Intelligence)當中,OpenAI、Google的DeepMind和 Anthropic的十幾名現任和前任工程師表示,AI公司須要為員工創建舉報管道,以便安全地向公司內部和公眾表達擔憂,工程師擔憂,保密協議禁止他們公開討論內部的問題。
他們還在信中表示,相信AI對人類帶來好處的潛力,但也理解AI可能帶來的嚴重風險,包括強化現有的不平等、操縱、不實資訊,或是失去對AI系統的控制而造成人類滅絕等,它們是AI領域公開承認的風險,原本期望可在科學界、立法者與公眾的充分指引下得到緩解,然而,他們認為AI公司有很強的財務動機來避免有效的監督。
連署這封信函的OpenAI前員工桑德斯(William Saunders)指出:「工程師最了解最先進的AI系統如何工作以及部署AI的相關風險,但是他們不能自由的暢所欲言。」
除了桑德斯之外,OpenAI另外6名前員工也在這封信件上簽名。4名現任OpenAI員工、Google的AI研究實驗室DeepMind的1名前員工和1名現任員工也簽了名,其中6人匿名。
3位的AI專家簽署這封信:AI科學家羅素(Stuart Russell)、班吉奧(Yoshua Bengio)和辛頓(Geoffrey Hinton),他們早期研究有突破性發展,被尊稱為AI教父。2023年,辛頓離開Google,這樣他就可以更自由討論AI科技的風險。
近年來,辛頓一直對AI危害人類的潛在方式發出警訊。有AI研究人員認為,AI技術可能會失控,變得像流行病和核戰一樣危險,即使不這樣認為,也覺得AI科技應該受到更多監管。
微軟資助的OpenAI在回覆這封公開信時表示,該公司同意政府應該對AI科技進行監管。
OpenAI發言人表示:「我們為自己能夠提供最強大、最安全AI系統的優良記錄感到自豪,也相信我們解決風險的科學方法。我們認同,基於AI科技的重要性,各界應該進行嚴謹的討論,我們會繼續與世界各地的政府、民間社會和其他社區合作。」
1/15: In April, I resigned from OpenAI after losing confidence that the company would behave responsibly in its attempt to build artificial general intelligence — “AI systems that are generally smarter than humans.” https://t.co/yzMKnZwros
— Daniel Kokotajlo (@DKokotajlo67142) June 4, 2024
公開信函的連署人表示,現任和前任員工是少數可以讓這些公司承擔責任的人,因為政府對AI公司缺乏廣泛的監督。他們擔心的問題是人類可能失去對自主AI系統的控制,導致人類滅絕。
連署人要求AI公司允許員工匿名舉報問題,不要對舉報人進行報復,也不要讓他們簽署可能讓他們閉嘴的協議。他們希望AI公司更加透明並且更加重視保障措施。
簽署這封信的OpenAI前員工科塔洛(Daniel Kokotajlo)表示,公司在開發技術的競賽中無視AI的風險。科塔洛批評:「我決定離開OpenAI,因為我希望他們採取負責任的行動,特別是在他們追求通用人工智慧的時候,他們和其他人已經接受快速行動、打破陳規的方法,這與如此強大且了解甚少的技術所需要規範相反。」