《大家論壇》AI視角:人工智慧應用「預防原則」 有助全球政治平衡化

庫澤姆斯基(Maciej Kuziemski) 2018年05月06日 15:00:00

庫澤姆斯基

●歐洲大學研究所跨國治理學院政策研究員

 

 

對全球的執政者而言,做出決策最好的途徑就是提出證據,但常常事與願違,因取得的資料可能不完美。當數據資料稀少或是根本不存在的時候,領導人該怎麼做呢?這正是「先進預測演算法」(advanced predictive algorithms),機器學習與人工智慧(artificial intelligence ,AI)二進制建構衍生出來的負面影響,讓人進退兩難的困境。

 

當奇點主義遇到當下主義

 

學術領域中,有人工智慧思維的學者,不是「奇點主義者」(singularitarians)就是「當下主義者」(presentists)。奇點主義者通常會辯稱,雖然人工智慧對人類的存在造成威脅,但仍是利大於弊。即使這一群人中有許多科技「泰斗」,也吸引大筆研究資金,但是目前為止他們的學術成果,仍無法對演算結論提出令人信服的證據。

 

另一方面,當下主義者著重於聚焦新科技的公平性、可信度和透明性。舉例來說,他們關心自動化生產如何影響勞力市場。但是兩者的相同點是,這些研究仍然不具說服力。例如,近期的《麻省理工科技評論》中,取19個檢視預期就業損失的主要研究做比較,結果發現,對於全球「被消失」職位數量的預測,範圍從180萬到20億不等。

 

簡單來說,雙方提出的論點都拿不出「可用的真理」。對於人工智慧影響預測,範圍小至輕微打亂就業市場,大到人類滅絕,顯然世界需要一個新的架構,用來評析和管理即將到來的技術破壞(technological disruption.)。

 

可以確定的是,處理不完整的數劇資料,對研究人員來說是家常便飯。即使在「正常」的情況下,研究新興技術就像是,僅靠著手電筒的微光解決黑暗中的謎題。既定理論的假設不受質疑,確保有益的結果是關乎於如何量化危機事件的機率,並且如何處理接續發生的相關風險。

 

但是每隔一段時間,「後常態」(post-normal)的難題就會浮現,哲學家富托維茲(Silvio Funtowicz)和拉維茲(Jerome Ravetz)於1993年首度將此定義為一個「事實不確定、價值有爭議、風險高以及決策迫切的問題。」在這些挑戰之中,人工智慧相關政策制定速度,等不及科學家研究成果迎頭趕上。

 

缺乏可靠也得推動AI管理   

 

目前,大多數的制定人工智慧政策的地區,都屬已開發的「北營」(Global North,形容已開發國家)國家,對開發較落後國家的觀點較不重視,也讓發展雙重用途技術更加困難。更糟糕的是,決策者常常未把潛在的環境影響列入考慮,幾乎只注重自動化、機械化和機器人的人為影響。

 

即使缺少可靠數據,決策者也必須推動人工智慧管理。此外,當全球都在等待科學確定性(很可能永遠不會到來)的時候,現有一個能引領我們走向未知的解方:預防原則。事實上, 1992年通過的聯合國《里約環境與發展宣言》之中,「預防原則」作為部分全球永續發展的共約,後來又被寫入歐盟的創始條約之中,指出缺乏確定性,不能成為不去保護人類健康和環境的擋箭牌。這似乎是對未來科技驅動,造成不確定性的合適解方。

 

預防原則也的批評者也不在少數。雖然對於優點多年來一直有爭論,但是我們需要接受的是,傷害證據的缺少,與缺少傷害的證據不一樣。這個簡單的理論,已被應用於無數個人類發展議題,從公共衛生到嬰兒死亡率都有其身影。接下來有3個好的理由,說明為何應該發展人工智慧。

 

防黑箱、助政策再平衡

 

首先,將預防原則應用於人工智慧的情境中,可以幫助全球政治討論再平衡,讓較弱勢的意見,在目前被財團利益壟斷的辯論中,可發揮更大的影響力。決策過程也應更具包容性和商議討論的空間,並且提出更貼近社會反應需求的解決方案。電氣電子工程學會(Institute of Electrical and Electronics Engineers)和哈佛大學甘迺迪政府學院的未來學會(The Future Society),已率先對參與精神拋磚引玉。其他專業組織和研究中心,應群起跟隨前者腳步。

 

此外,藉由預防原則的應用,政府機關可以將責任重擔轉移給演算法的創造者。演算法的可解釋性,能改變獎勵政策機制,防止黑箱作業,幫助商業決策更加透明化,並使公共部門在技術開發層面趕上私人公司。透過科技公司和政府認識和考量多種選項,預防原則會讓先前遭忽略的議題再度浮上檯面,例如環境衝擊。

 

很少有科學能夠在一個創新的結果可用於研究之前幫助管理該創新。但是,在演算法,機器學習和人工智能的發展背景下,人類已等不及了。預防原則的優點,不僅只於其植基於國際公法的基礎上,更在於其作為過往無數科學創新管理框架的功績。我們應該在進步的利益無法公平分配之前,趕緊擁抱預防原則,勿等到難以挽回的傷害已造成,再來正視預防原則的重要。

 

 

 

© Project Syndicate

 

 

(原標題為A Precautionary Approach to Artificial Intelligence,文章未經授權,請勿任意轉載)

 

 

喜歡這篇文章,請幫我們按個讚

熱門影音


【上報徵稿】

 

上報歡迎各界投書,來稿請寄至editor@upmedia.mg,並請附上真實姓名、聯絡方式與職業身分簡介。

 

一起加入Line好友(ID:@upmedia),或點網址https://line.me/ti/p/%40zsq4746x

標籤: AI 人工智慧
回頂端