• 歡迎訪問我們的網站,全國服務熱線:400-8331-366
    語言切換:中文  |  English
    搜索
    在線客服

    殺手AI來了 這可能是你見過最恐怖的視頻

    發布時間:2017-11-23 15:49:16

    上周,在日內瓦舉辦的聯合國特定常規武器公約會議上,一段可怕的視頻公諸于眾:一群神似《黑鏡III》中機器殺人蜂的小型機器人,通過人臉定位瞬間殺死了正在上課的一眾學生,場面血腥。

    視頻中,一個體型類似蜜蜂的小型機器人飛入會場并輕易躲過演講人抓捕,其擁有 anti-sniper 技術,完全基于 AI。這個小東西蘊含可怕的黑科技:廣角攝像頭、傳感器、面部識別,且在其中部,還有3克炸藥。

    伯克利大學教授、資深AI研究者Stuart Russell在視頻的最后提醒人們,想象一下,這些致命的自動武器一旦落入恐怖分子之手,可能造成怎樣的后果。

    在視頻結尾,Russell發出警告,盡管這段視頻和其中的殺人機器人并非真實,但視頻中的科技目前已經存在。要避免視頻中的悲劇發生,我們需要盡快行動。

    這段視頻發布在本月13-17日的聯合國特定常規武器公約會議上,這一會議由“殺手機器人禁令運動”(Campaign to Stop Killer Robots)組織,超過七十個國家的代表出席。

    殺手機器人:未來無人戰爭之憂

    今年8月20日,在墨爾本舉行的2017國際人工智能聯合大會上,包括美國特斯拉電動汽車公司CEO伊隆·馬斯克、DeepMind聯合創始人穆斯塔法·蘇萊曼在內的116位機器人和人工智能公司創始人發表公開信,呼吁聯合國在國際范圍內禁止“致命性自主武器系統”的使用。

    公開信指出,致命性自主武器系統足以構成第三次武器革命的威脅——前兩次革命分別是火藥和核武器。這種技術一旦開發成功,將有可能把戰爭沖突升級至從未有過的規模,而且會達到人類難以控制的速度。公開信的簽署者們認為,致命性自主武器可能成為獨裁者和恐怖分子殘害無辜的手段,或者被黑客挾持。

    致命性自主武器系統實際上是一種軍用機器人,它可以不經過人類干預,自主選擇和攻擊包括人員和裝備在內的軍事目標,所以也被叫做“殺手機器人”。目前,擁有“人格”的智能技術尚未被從科幻電影搬到現實中,但是與此有關的技術的確正在朝著這個方向發展。

    有人認為,在未來,致命性自主武器系統如果應用于戰爭,在軍事方面會起到許多正面作用。例如,降低己方士兵的風險,降低人與人之間近距離戰爭的代價。此外,自主武器系統也省去了軍人的薪水、住房、養老、醫療等開銷,又在速度、準確性上高于人類,而且不用休息。有別于人類戰斗員會在戰場上出現心理和情緒波動的特點,人工智能武器更穩定,并且能夠抵達人類不可及之處,完成搜救和保護任務。

    西安政治學院軍事法學系教授宋新平分析,致命性自主武器的運用,意味著自然人在武裝沖突中直接發揮的作用越來越小,武器所發揮的作用則越來越大,將影響并改變未來戰場的戰斗員構成與戰斗能力的變化,特別是這種武器的集群式運用,對未來作戰的指揮體制、力量運用、供給保障等方面將產生革命性影響。

    爭議“殺手機器人”

    但是,隨著致命性自主武器系統的發展,它所帶來的爭議也越來越強烈。

    首先,有人擔憂,機器打仗使得人員傷亡大大減少,反過來又會降低戰爭發動的門檻,武裝沖突發生的機會會增加,而戰爭的人員損失將從戰斗員轉移到交火區域的平民。

    其次,如同所有戰爭中的武器一樣,致命性自主武器系統要運用在戰爭中,必須符合《日內瓦公約》,即國際人道法。反對者認為,該武器系統違反國際人道法中的“區分原則”,即機器人武器很難做到和人類一樣區分平民與戰斗員、有戰斗能力的戰斗員和喪失戰斗能力的戰斗員(如傷者、病者及戰俘),以及作戰人員和攜帶輕武器從事非戰斗任務的人員。

    在倫理方面,致命性自主武器運用于未來的武裝沖突中,這意味著將剝奪自然人生命的權利交給非自然人。有學者認為,這是將人的生命和人格尊嚴交給機器來判定,不具有平等性,也是對人類生命權以及人格尊的侮辱。

    法律上的責任更是不能忽略。自主武器兼具“戰斗員”和“戰斗武器”兩種角色,如果它違背國際人道法,國際社會將面臨如何追究責任的問題,而被追究的主體應該是設計者、制造者、操作者還是機器本身?

    今年8月發出的公開信不是伊隆·馬斯克等人第一次對致命性自主武器系統提出警示。早在2015年,同樣在國際人工智能聯合大會上,物理學家斯蒂芬·霍金、蘋果聯合創始人史蒂夫·沃茲尼亞克等1000多名人工智能領域專家聯合譴責人工智能時代的軍備競賽,呼吁禁止自主武器。容易引發軍備競賽、威脅世界和平,是反對者擔憂的原因之一。

    但是,也有人認為以上反對意見作為禁用致命性自主武器的理由站不住腳。研究人工智能哲學的復旦大學教授徐英瑾在《技術與正義:未來戰爭中的人工智能》一文中進行了反駁。比如,對于“無人智能武器的出現,會使得殺戮變得更為容易,因此,也會使得軍事暴力在未來變得更為頻繁”的說法,徐英瑾提出,按照殺戮效率提高會對和平構成威脅的邏輯,那是否為了降低殺戮效率,就制造盡量劣質的槍支,鼓勵士兵降低擊中率?這顯然是荒謬的,相反,人工智能技術運用于軍事,會使得人類作戰意圖得到更精確的貫徹,可使得正義戰爭快速結束。

    人工智能公司、國際組織紛紛呼吁禁止致命性自主武器系統,但現狀是,至今國際社會仍然沒有就致命性自主武器系統問題達成統一認識,甚至還沒有統一的定義。

    聯合國《特定常規武器公約》成員國已經建立了一個致命性自主武器系統的政府專家小組,這個小組的第一次會議預定將于今年11月召開。伊隆·馬斯克等公開信簽署者希望專家小組努力尋求方法,防止這類武器的軍備競賽,保護平民免受武器濫用的傷害,避免這些技術給世界的未來帶來嚴重的后果。

    熱門商品
    六級碳化硅 陶瓷板M88警用三級防彈鋼盔FAST戰術防暴頭盔公安新標單警系列新標伸縮警棍(基礎型)新標手銬新標催淚噴射器(豎噴型)便攜式氣溶膠滅火器(大)便攜式氣溶膠滅火器(中)

    地址:  江蘇省靖江市城北園區常太路18號    電話:400-833-1366    0523-89195959    0523-88905111   郵箱:tommylu@jslikon.com

        手機官網         公眾號

    足球竞彩软件