四、 我們該如何選擇?
目前,即便走在人工智能技術最前列的科研人員也承認,人類距離制造出達到人類智慧的機器人,還有比較長的距離。目前,人工智能可能帶來的安全威脅更多是人類本身利用人工智能去威脅人類。因此,人類如何進行自我約束是人工智能技術進步過程中最為緊迫的道德問題。
2015 年 10 月 14 日,一個名為“智能平方”的組織在紐約邀請幾位國際問題專家進行了一場辯論,題目是:中美是長期敵人嗎?。芝加哥大學政治學教授米爾斯海默不出所料地講起了“大國政治的悲劇”。作為反方,澳大利亞前總理陸克文有一句話令人記憶猶新。他說,外交的挑戰就是要確保阻止戰爭的發生,相信我們能夠做到這一點。陸克文的邏輯也適用于人工智能。人工智能是一種技術,可以為善,也可以作惡。盡管對善、惡的判斷和選擇是人類一個古老和難有完全一致看法的哲學命題,但是在關系到人類根本生存這樣的大問題上,擁有理性和現代文明的人類應該可以決定向善還是向惡。
2018 年 6 月,筆者應邀參訪科大訊飛北京公司,其間討論到未來是否會出現人工翻譯與機器翻譯之間的競爭時,公司負責人表示,發展人工智能翻譯技術的目的不是取代人,而是助力翻譯工作更加準確和輕松。這給筆者以啟發。畢竟,就像毛澤東同志所說的“決定戰爭勝敗的是人民,而不是一兩件新式武器” 。人類開發人工智能技術的目的是服務于人類,是善用還是惡意應用最終取決于掌握技術的人。
當前國際上關于秩序的討論十分熱烈。其中,中美兩國學界最為關心的,也為世界其他各國所普遍關注的是:美國與中國是否會展開“新冷戰”,從而導致冷戰時的平行秩序再度出現? 2018 年 3 月,筆者與來北京參加中國發展高層論壇的美歐人士交談時,觀察到他們對中美關系的前景比較悲觀,認為中國的快速增長對美國來說是結構性威脅。當筆者問道:中美兩國除了走向對抗,有沒有別的選擇? 英國?金融時報?副主編馬丁·沃爾夫回答說,你們沒有什么可選擇的,中國不會停止增長,美國不會停止擔憂。( You have no choice , you can’t stop growing and they can’t stop worrying.)除非出現一種情況,例如發生來自火星的入侵,人類面臨共同的敵人,屆時美中才有可能真正團結起來。
如果用零和博弈和追求絕對安全的眼光看待世界,那毫無疑問,人工智能會像 20 世紀 40 、50 年代的原子彈、衛星一樣,成為大國競爭的新焦點,并成為將世界劃分為兩種或多種平行秩序的助推動力。但是如果我們采用人類命運共同體的視角,本著共同安全的理念看問題,那么就不難認識到,人工智能技術帶來的安全和治理挑戰是需要全人類共同面對的問題。如此,我們就不難本著平等協商的精神,共同探討各利益攸關方都能夠接受的規范。那么,人工智能是否會成為那個將中國、美國、俄羅斯以及世界其他國家團結在一起的“火星入侵”式的挑戰呢?
技術專家們在大聲疾呼。在 2018 年的烏鎮第五屆世界互聯網大會上舉辦的“網絡空間的中美關系”分論壇上,原美國聯邦通信委員會專家戴夫法伯呼吁,應盡早就人工智能制定國際準則,避免重演核武器技術產生時因國際共識和自律的遲到而導致的悲劇及其影響至今的嚴重后果。
現實情況是,中美兩國在科學技術研究領域的交往與合作是相當深入的。根據科睿唯安提供的人工智能領域科技文獻數據,從 2013 年到 2017年,全球參與評估的 167 個國家/地區在 WOS 學科“計算機、人工智能”發文排名中,中國大陸位居第一,發文量達到 59573 篇,占 25.02% ,其次是美國,發文量為 32527 篇,占 13.66% 。其中,中美兩國國際合作論文數量增長最快,例如,過去 5 年中國大陸開展國際合作最多的對象是美國,合作論文量是4307 篇,同樣,美國開展國際合作最多的國家也是中國大陸,遠遠多于與其他國家的合作論文量。
國際上圍繞相關問題的探討和研究已經在步步深入。例如,聯合國裁軍委致命性自主武器系統問題政府專家組的討論就涉及要注意致命性自主武器系統可能對國際安全產生的影響。例如,致命性自主武器系統技術方面的軍備競賽,擴大發達國家與發展中國家之間的技術差距,以及可能降低使用武力的門檻等;就國家對其管轄下的致命性自主武器系統負有法律責任達成非正式普遍諒解;探討參照?特定常規武器公約?議定書的形式,制定一項具有法律約束力的文件,預防性地禁止致命性自主武器系統。
習近平主席于 2018 年 9 月在致 2018 世界人工智能大會的賀信中闡明了中國的立場和態度。他指出,新一代人工智能正在全球范圍內蓬勃興起,為經濟社會發展注入了新動能,正在深刻改變人們的生產生活方式。把握好這一發展機遇,處理好人工智能在法律、安全、就業、道德倫理和政府治理等方面提出的新課題,需要各國深化合作、共同探討。中國愿在人工智能領域與各國共推發展、共護安全、共享成果。
基于清華大學人工智能與安全項目小組的研究結果,我們提出了關于人工智能的六點原則:一是福祉原則。人工智能的發展應服務于人類共同福祉和利益,其設計與應用須遵循人類社會基本倫理道德,符合人類的尊嚴和權利。二是安全原則。人工智能不得傷害人類,要保證人工智能系統的安全性、可適用性與可控性,保護個人隱私,防止數據泄露與濫用。保證人工智能算法的可追溯性與透明性,防止算法歧視。三是共享原則。人工智能創造的經濟繁榮應服務于全體人類。構建合理機制,使更多人受益于人工智能技術的發展、享受便利,避免數字鴻溝的出現。四是和平原則。人工智能技術須用于和平目的,致力于提升透明度和建立信任措施,倡導和平利用人工智能,防止開展致命性自主武器軍備競賽。五是法治原則。人工智能技術的運用,應符合?聯合國憲章?的宗旨以及各國主權平等、和平解決爭端、禁止使用武力、不干涉內政等現代國際法基本原則。六是合作原則。世界各國應促進人工智能的技術交流和人才交流,在開放的環境下推動和規范技術的提升。這些原則可以作為討論和制定人工智能國際規則的基礎。
雖然這些原則尚顯空泛和抽象,如何細化和如何與各國專家深入探討,尋找最大公約數,還是一個需要花時間去努力爭取的目標。值得注意的是,許多從事高端科研的青年專家已經提出為人類的共同利益而主動自律的問題,不少企業界人士表示要在人工智能的技術研究和產品制造中自覺強調道德和道義的因素,不會從事有損人類福祉的研究和制造工作。
筆者希望國際上關于這些問題的探討能不斷深入,也期待中國的智庫和科學技術界能在這個方向上為全球的共同努力貢獻力量。
作者:傅瑩 來源:《國際政治科學》(2019年第1期)
轉載請注明:北緯40° » 傅瑩:人工智能對國際關系的影響初析