當(dāng)人工智能遇上倫理道德
——專家縱論智能機(jī)器社會的風(fēng)險與解決方案
在近日發(fā)表于《自然》雜志上的一篇評論文章中,4位計算機(jī)領(lǐng)域的研究領(lǐng)軍者分享了他們對該領(lǐng)域的思考。
目前,美國國防部高級研究計劃局(DARPA)正在推進(jìn)兩個項目:“快速輕型機(jī)器人”(FLA)和“敵對環(huán)境下聯(lián)合作戰(zhàn)”(CODE),前者計劃設(shè)計出一款旋翼機(jī),能夠在沒有外界操控的情況下以極高的速度在城市環(huán)境或建筑物內(nèi)部敏捷地飛行;而后者的目標(biāo)是開發(fā)無人飛行器,將能夠在完全與總部失去聯(lián)絡(luò)的情況下完成一整套攻擊程序——搜索目標(biāo)、鎖定、跟蹤、攻擊、評估。它們將有可能促成“殺手機(jī)器人”的研發(fā)。
在近日發(fā)表于《自然》雜志上的一篇評論文章中,4位相關(guān)領(lǐng)域的研究領(lǐng)軍者分享了他們對智能機(jī)器社會風(fēng)險的擔(dān)憂和解決方案。
美國加州大學(xué)伯克利分校的計算機(jī)科學(xué)教授Stuart Russell認(rèn)為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無招架之力的境地,“這不是我們所夢想的未來場景”。而來自英國布里斯托爾大學(xué)的機(jī)器人專家Sabine Hauert則表示,公眾無須對人工智能技術(shù)的發(fā)展感到擔(dān)憂。
應(yīng)對人工智能武器表明立場
Stuart Russel(美國加州大學(xué)伯克利分校計算機(jī)科學(xué)教授)
人工智能(AI)和機(jī)器人領(lǐng)域的專家面臨一個重要的倫理決策:必須要決定他們是支持還是反對致命自主武器系統(tǒng)(LAWS)。此類系統(tǒng)能在幾年而非幾十年內(nèi)發(fā)展為可行的。該領(lǐng)域的風(fēng)險很高,致命自主武器系統(tǒng)被描述為戰(zhàn)爭的第三次革命,前兩次是火藥和核武器。
在幾年之內(nèi),軍方就可以組裝帶有武器的四軸飛行器和微型坦克,這些自動的飛行器和坦克不需要人類干預(yù),自己能決定誰能活下來而誰又會死去。例如,四軸飛行器能在一座城市中找到并打擊敵方戰(zhàn)士,但不包括人類能設(shè)定目標(biāo)的巡航導(dǎo)彈和遙遠(yuǎn)的無人駕駛飛機(jī)。
但是,國際人道法律對于此類技術(shù)沒有任何具體的規(guī)定,現(xiàn)在也還不清楚國際社會是否會支持一個限制或禁止此類武器系統(tǒng)的條約。1949年簽訂的戰(zhàn)爭人道主義《日內(nèi)瓦公約》要求任何襲擊需要滿足3個條件:軍事必需、參與戰(zhàn)爭者和非參戰(zhàn)者差別對待、軍事目標(biāo)價值及其潛在附帶傷害的平衡。而當(dāng)前的自動武器很難或根本無法作出這些主觀判斷。
作為一個人工智能專家,我曾被要求為特定常規(guī)武器公約(CCW)第三次重要會議提供專業(yè)證據(jù)。德國等許多國家迫切要求簽署禁令,但美、英和以色列這3個LAWS技術(shù)領(lǐng)先的國家則認(rèn)為這樣一個條約沒有必要。
LAWS通過允許機(jī)器選擇殺死誰,而可能侵犯人類尊嚴(yán)的基本原則。在我看來,最應(yīng)當(dāng)關(guān)注的是這個技術(shù)發(fā)展軌跡的可能終點。我認(rèn)為超過人類控制的系統(tǒng)將建成這一點是不可避免的。當(dāng)然這些武器系統(tǒng)能涉及的范圍和攜帶大型武器的能力會受到物理定律的限制。然而它們的靈活性和殺傷力將讓人們毫無防御之力。這樣的未來不會是人們想要的。
因此,人工智能和機(jī)器人領(lǐng)域的科學(xué)家及其所在的專業(yè)組織應(yīng)當(dāng)表明立場,正如物理學(xué)家當(dāng)年對于核武器,抑或是生物學(xué)家對于在戰(zhàn)爭中使用病原體表明立場一樣。應(yīng)當(dāng)召開學(xué)術(shù)會議進(jìn)行討論,并讓倫理委員會參與進(jìn)來。什么都不做就等于是表示支持繼續(xù)發(fā)展和使用。
積極討論,不要厭惡機(jī)器人
Sabine Hauert(英國布里斯托爾大學(xué)機(jī)器人學(xué)講師)
針對機(jī)器人和人工智能的惡意炒作讓一些研究人員十分憤怒,這使得他們停止與媒體或公眾溝通。
但我們無法脫離社會。公眾包括納稅人、政策制定者、投資者和那些利益相關(guān)者。他們在聽聞一邊倒的討論后,擔(dān)憂機(jī)器人會搶了他們的飯碗,害怕人工智能產(chǎn)生實在的威脅,并在考慮是否應(yīng)制定法律控制這些仍在假設(shè)中的技術(shù)。
而我和同事會在晚宴時間向大家解釋,我們并非一群惡魔,我們花費多年時間潛心研發(fā),目的是為了開發(fā)那些能夠幫助老人,改善健康,讓我們的工作環(huán)境更加安全和有效率,并讓我們能夠探索太空和海洋的設(shè)備。
專家需要成為信息傳遞者。研究人員應(yīng)利用社會媒體這一公共平臺,誘導(dǎo)相關(guān)討論變得平衡。我們能夠探討最新進(jìn)展和限制因素,解開人工智能技術(shù)的神秘面紗。
人工智能和機(jī)器人領(lǐng)域需要思想領(lǐng)袖,以便與霍金等杰出評論家和Elon Musk等風(fēng)險投資家建立友好的關(guān)系,并在世界經(jīng)濟(jì)論壇等會議上設(shè)置機(jī)構(gòu)等。而且,公眾參與也將有助于籌集經(jīng)費。
當(dāng)然,也存在不少障礙:首先,許多研究人員沒有推特和博客賬戶;第二,時間十分有限;第三,可能需要數(shù)年時間才能建立一個社交媒體互動機(jī)制。在我看來,全世界的人工智能和機(jī)器人領(lǐng)域的利益相關(guān)者,應(yīng)當(dāng)聯(lián)合一部分資金,以幫助該領(lǐng)域增大發(fā)言權(quán)。
轉(zhuǎn)載請注明:北緯40° » “殺手機(jī)器人”要來了,人類毫無招架之力