清早,智能音箱喚你起床,算法開始你喜歡的萌寵視頻,出門無人駕駛車輛已經在門口等候。人工智能技術的發(fā)展似乎在一夜間無孔不入,而迎面而來的隱私泄露、算法歧視等等倫理道德法律問題皆不能忽視。
來自華盛頓大學法學院副教授Ryan Calo,針對人工智能算法系統(tǒng)的可能帶來的沖擊,從正義與公平、安全與認證、隱私與權力、稅收與失業(yè)、問責等方方面面做出深入剖析,指出政策制定對于AI技術發(fā)展的重要指引作用。
可以說,人工智能政策研究決定了AI發(fā)展的尺度,政策制定比技術發(fā)展更緊迫。歐美的學者研究,對于中國的政策制定,亦有借鑒意義。
引言
2018年人工智能依然很火,而且隨著時代的發(fā)展和技術的進步,人工智能將變得越來越重要,成為人們日常生活必不可少的組成部分,影響人類社會的方方面面。在此背景下,美歐各國都已開始研究制定相應的政策規(guī)范,并對人工智能未來的發(fā)展方向進行規(guī)劃。
目前對于人工智能,并不存在一個明確、統(tǒng)一的概念??傮w來看,人們認為它是一套試圖使機器能夠像人類一樣從事某些特定活動的系統(tǒng)。例如,現(xiàn)在的無人駕駛汽車,就是使機器能夠像人類一樣操控汽車,這些技術的開發(fā)也稱為機器學習(ML)。
人工智能可以應用于工商業(yè)、制造業(yè)、軍事等多個領域,人工智能的發(fā)展無疑會給我們的經濟、社會及國防安全帶來新的影響。良好的政策和完善的戰(zhàn)略計劃是應對這些影響的不二選擇。
1、正義與公平
人工智能政策研究的一個重要內容是人工智能算法系統(tǒng)的公平性、問責性以及透明度。這些問題可能還涵蓋人工智能的相關功能或產品中反映出的偏見性問題,以及人工智能在財務和健康檢查等方面的應用問題,甚至是其在司法領域能否幫助司法人員做出涉及被告人自由的判決等一系列問題。
現(xiàn)在有兩個政策性問題。其一,小化偏見(反歧視法,消費者保護,行業(yè)標準)的佳做法是什么。其二,如何保證人工智能的風險和收益在社會環(huán)境中平均分布。
偏見性問題體現(xiàn)出了人工智能在發(fā)展過程中可能出現(xiàn)的不平等性問題,特別是政府在存在規(guī)則和保障程序的刑事審判系統(tǒng)等領域內使用人工智能的時候,這種不平等性則更加凸顯。
此外,爭取透明度和公平性不應以犧牲效率為代價,否則人工智能的工作過程可能會花費很長時間,實際上反倒會降低其準確性。所以需要進行權衡。
2、安全與認證
許多系統(tǒng)——例如完全無人駕駛的汽車?——都是通過對人類環(huán)境中的物體施加直接的和物理的控制來實現(xiàn)的。人們需要經過培訓并獲得認證才能從事這些活動,比如駕駛。自動駕駛汽車、機器人等人工智能應用引出了關于人工智能系統(tǒng)的相關標準以及是否有用于確保能達到這些標準的程序和技術的問題。
機器人和其他網絡物理系統(tǒng)(cyber-physical system)必須是安全的。問題是怎么才能做到安全以及我們怎么知道它是安全的。
例如無人駕駛的汽車,是不是只有其能夠做到比人類駕駛時,我們才會大范圍應用它。但“比人類”似乎是一個不適當的審查標準。
該系統(tǒng)是否必須比傳統(tǒng)汽車或先進的需要一定人類輔助的車?該系統(tǒng)是否必須比全體人類或所有的駕駛方式都安全?無人駕駛的汽車要做到比人類駕駛的安全度高多少,我們才能夠接受或繼續(xù)鼓勵制造它們?
這些問題終都不是技術問題,而是政策問題。
政策制定者應為無人駕駛汽車、無人機和人工智能的其他現(xiàn)實應用設置確定的安全閾值,并確定一個合適的方法來驗證其是否符合這些標準。具體方式包括政府審批、第三方獨立認證和行業(yè)自我認證等。
有些工作當由人來完成時,需要其獲得相應的資格認證,但當由人工智能去執(zhí)行時,似乎不再需要過于正式的認證要求。
此外,現(xiàn)如今,人們越來越清楚地認識到,人工智能使已經難以解決的網絡安全問題變得更加復雜化了。
機器學習和其他人工智能技術有可能改變網絡安全方面的攻防能力,正如美國DARPA舉辦的競賽中人工智能代理人進行自主攻擊和網絡防衛(wèi)一樣,因此,必須開發(fā)新的防御模式、標準和技術,以應對信息和物理基礎設施安全方面的新挑戰(zhàn)。
3、隱私與權力
人工智能能夠識別人們無法獲取的信息的能力有可能會打破公共和私有之間已經不明確的界限。這意味著,看似簡單的信息共享卻可以洞察出深度敏感性的信息。
人工智能與數據的使用緊密相連,只要政府和公司能夠跟蹤和預測人們的一舉一動,其就能夠進行模式識別,更深層次而言就是大數據。
政策方面的重大問題是,消費者通常不會細心留意何為共享信息。這也是目前歐洲電子指令改革中一個亟待解決的問題。
如果將來公共場合需要對每個人進行面部識別,想想都是可怕的。了解過多的個人信息可能會使這些人的信息被巧妙地控制住,甚至會被別有用心的人利用。
其實,政策方面不好解決的問題是如何能在保證人工智能民主化的前提下,促進保護隱私的技術、法律、社會以及其他方面措施的進一步完善和發(fā)展。
4、稅收制度與失業(yè)
人工智能發(fā)展帶來的另一項問題是應該如何應對機器人替代人類從事一些工作的情況,如無人駕駛的卡車等,而且是否要對人工智能系統(tǒng)進行征稅(比爾蓋茨贊成的做法)。
應對這一情況,我們要進行適當的體制安排,儲備專業(yè)的人工智能政策知識。整體層面的政策挑戰(zhàn)是如何更好地把人工智能和機器人的專業(yè)知識介紹給各級政府及其各個部門,讓他們能夠更加自信地制定出更好的政策規(guī)定。并且,社會各界都呼吁決策者開放之前專有的人工智能系統(tǒng)以對其進行合法審查。
5、自主武器
人工智能決策中的一個特殊問題是自主武器的適用。關于自主武器的發(fā)展和部署存在很多觀點。國際上的普遍觀點認為,人們決不應該放棄“有意義的人類管理”而讓機器做出殺人的決定。
然而,關于有意義的人類管理含義和范圍的爭論仍然存在。監(jiān)管是否足夠?目標選擇?這些行為需要延伸到防御系統(tǒng),還是只有進攻戰(zhàn)術和武器?這些重要問題都還沒有解決。
還有一個問題是誰應該對機器做出的行為負責。武器自動化在某些情況下似乎是可取的,甚至是不可避免的。例如,美國軍方似乎不大可能允許其軍事對手的反應能力比其自身的控制機制更快或者更靈活。
人工智能的某些用途以人的決定為前提,但其中隱含著深層次的政策和道德問題——例如人們通過輸入算法為無人機選擇攻擊目標。
正如人類學家馬德琳?克萊爾?伊利希所說的那樣,人們擔心士兵會被置于為不法行為承擔責任的循環(huán)中。因此,決策者必須致力于建立全面的人工智能責任框架,且該框架能使所有利益相關者都感到公平和滿意。
6、其他方面
以上列出的問題并沒有窮盡人工智能可能對法律和政策造成的影響。除了隱私、勞動力或使用自主武器這些具體的政策內容之外,還會出現(xiàn)跨領域問題。
比如,如何確定治理人工智能的佳制度配置,怎樣將集體資源投入到有利于個體和社會的人工智能發(fā)展中,怎么去解決人工智能問責制的障礙。
首先,在人工智能的佳制度配置方面,如果采用分散式的管理模式,那么聯(lián)邦機構、州、城市和其他政府單位僅單獨處理與他們相關的問題,這種方法對各種情況下出現(xiàn)的差異非常敏感,并保留了一定的試驗空間。
但有些人認為這種做法是有問題的。公眾認為法律無法趕上技術創(chuàng)新的發(fā)展速度。有些時候,當技術領先于法律通過時的水平的時候,法律或規(guī)則就過時了。
因此,政府必須具備必要的專業(yè)知識來管理深層次上以技術為核心的不斷發(fā)展中的社會。當國家沒有自己的專家時,它必須依賴于私人公司或其代理人的自利言論,或者采取一些不利于創(chuàng)新的死板的決定和行動。
因此,總體的政策挑戰(zhàn)是如何好地將人工智能和機器人技術引入所有分支機構和各級政府,以便他們可以更加自信地做出更好的決策。
其次,在投資和采購方面,奧巴馬政府發(fā)表了一個關于這個話題的獨立報告,指出利用人工智能的方法就是為它投資。投資范圍不僅應包括促進了計算機科學發(fā)展且有助于確保美國在全球的競爭力的基礎的人工智能研究,而且還應支持人工智能社會影響力的社會科學研究。
此外,政府可以通過決定購買的產品而對政策產生影響,這種做法有時不太會得到認可。因此,各級政策制定者都應該考慮政府購買的支持人工智能的產品的質量和特性以及它們的制造公司。
決策者還可以使用合同來保障隱私、安全和其他方面的權利。這反過來可以將整個市場推向更加負責任的運行方式,并使整個社會受益。
后,在消除責任制障礙方面,目前許多正在使用或開發(fā)的人工智能系統(tǒng)都是專有的,然而,在許多情況下,外部分析評價對于問責制來說是必要的。
一些報告、簡報和研究論文呼吁決策者消除實際或認為存在的問責障礙,包括:(1)商業(yè)秘密法,(2)計算機欺詐和濫用法,以及(3)數字千年版權法案中的反規(guī)避規(guī)定。這使得許多專家建議規(guī)劃出消除這些障礙的官方政策舉措,以完善人工智能行業(yè)責任制。
結論
人工智能現(xiàn)在是政策界十分關注的一個問題。為了規(guī)范和促進人工智能的發(fā)展,有必要為人工智能的前景做出一個大致的規(guī)劃,并在正義與公平、安全與認證、隱私與權力、稅收與失業(yè)等方方面面結合本國國情制定相應的政策規(guī)則。人工智能技術正在迅速發(fā)展,要盡量使法律與技術發(fā)展水平相適應,使得政府有能力應對人工智能發(fā)展過程中對經濟、社會、就業(yè)等方面可能造成的影響。