原標(biāo)題:科學(xué)家必須對人工智能武器表明立場
科技日報北京5月27日電 (記者張夢然)英國《自然》雜志28日公開一篇評論文章表示,人工智能(AI)和機(jī)器人領(lǐng)域的專家,必須要決定他們是支持還是反對致命自主武器系統(tǒng)(LAWS),就像當(dāng)年物理學(xué)家對于核武器表態(tài)一樣,因?yàn)椤斑@塊領(lǐng)域的風(fēng)險很高”。文章作者同時表示:“致命自主武器系統(tǒng)被描述為戰(zhàn)爭的第三次革命,而前兩次是火藥和核武器?!?/p>
由美國加州大學(xué)伯克利分校的斯圖爾特·羅素撰寫的這篇評論,是《自然》雜志評論板塊中一系列來自人工智能研究者評論文章之一。這些文章都與本期的《自然》??嚓P(guān)聯(lián),集中探索了機(jī)器學(xué)習(xí)和機(jī)器人技術(shù)方面振奮世人的最新進(jìn)展,包括描述了在合適的監(jiān)管框架下,讓自主控制的無人機(jī)在民間廣泛應(yīng)用成為可能及其所需要的一些科學(xué)和技術(shù)元素。
此次刊登的評論文章主題凸顯了在人工智能領(lǐng)域正在出現(xiàn)的一些風(fēng)險。斯圖爾特·羅素認(rèn)為,在未來幾年之內(nèi),軍方就可以組裝帶有武器的四軸飛行器和微型坦克,這些飛行器和坦克不需要人類干預(yù),它們自己能決定“誰能活下來而誰又會死去”。但是,國際人道法律對于此類技術(shù)沒有任何具體的規(guī)定,現(xiàn)在也還不清楚,國際社會是否會支持一個限制或禁止此類武器系統(tǒng)的條約。
作者對人工智能的發(fā)展軌跡深表擔(dān)心。他認(rèn)為一種超過人類控制的系統(tǒng)即將建成,而這一點(diǎn)是不可避免的。當(dāng)然,這些武器系統(tǒng)能涉及的范圍和攜帶大型武器的能力,一定會受到物理定律的限制。但值得注意的是,它們的靈活性和殺傷力,卻“將讓人們毫無防御之力”,而這樣的未來不會是人們想要的。
羅素在文章中呼吁,人工智能和機(jī)器人領(lǐng)域的科學(xué)家和他們所在的專業(yè)組織應(yīng)表明立場,正如物理學(xué)家當(dāng)年對于核武器,抑或是生物學(xué)家對于在戰(zhàn)爭中使用病原體表明立場一樣。文章最后警示稱,“什么都不做,就等于是支持繼續(xù)發(fā)展和使用。”
(來源:科技日報)