英國標準協會(British Standards Institute,簡稱BSI),是有著 100 多年歷史的英國國家標準機構,在世界范圍內具有很高的權威性。這個倫理指南的全稱是《機器人和機器系統的倫理設計和應用指南》(以下簡稱《指南》),主要針對的人群就是機器人設計研究者和制造商,指導他們如何對一個機器人做出道德風險評估。最終的目的,是保證人類生產出來的智能機器人,能夠融入人類社會現有的道德規范里。這個標準的文件代號為 BS8611,發布于9月15日英國牛津郡的 “社會機器人和AI ”(Social Robotics and AI)大會上。西英格蘭大學機器人教授Alan Winfield表示,這是業界第一個關于機器人倫理設計的文件內容雖然用詞枯燥,但是里面所描繪的場景,簡直跟從科幻小說里蹦出來的一樣。機器人欺騙、令人成癮、具有超越現有能力范圍的自學能力,這些都被列為危害因素,是設計人員和制造商需要考慮的。
《指南》開頭給出了一個廣泛的原則:機器人的設計目的不應是專門或主要用來殺死或傷害人類;人類是負責任的主體,而不是機器人;要確保找出某個機器人的行為負責人的可能性。
《指南》也聚焦了一些有爭議性的話題,例如,人類與機器人產生情感聯系是可以的嗎,尤其是當這個機器人本身設計目的就是為了與小孩和老人互動。
謝菲爾德大學教授Noel Sharkey認為,這就是機器人在無意的情況下欺騙人類的例子。機器人是沒有感情的,但是人類有時候并不這么認為。他指出,最近有一項研究,把小機器人放到一所幼兒園里,孩子們很是喜愛,并且認為這些機器人比家里的寵物具有更高的感知能力。
《指南》建議設計者更應關注機器人的透明性,但是科學家們表示這個在現實里很難應用。這是因為人們無法確切了解AI系統(尤其是深度學習系統)是如何做出決定的。
一個人工智能體,并沒有用固定的程序來指導它完成任務,它是通過數百萬次的學習和嘗試,才找出成功的解決方法。這種學習和做出決策的過程,有時候是其人類設計者都無法理解的。
《指南》里也提到了機器人的性別和種族歧視問題。這是因為深度學習系統很多都是使用互聯網上的數據進行訓練,而這些數據本身就帶著偏見。
機器人的偏見是會直接影響技術應用的。它會對某些群體的學習更深入,而對另一些群體有所忽視,這在以后的應用中,意味著機器人會“看菜下飯,看人說話”。
現在已有的例子就是,聲音識別系統對于女性的理解要弱一些,再比如機器識別白種人的臉更容易,識別黑人的臉更難。 長遠來看,在未來的醫療應用中,機器人在診斷女性和少數族群的時候,其專業程度會降低。
Sharkey 教授說:“我們也需要一個機器人黑盒子,可以打開來仔細審查。如果一個機器人表現出種族主義的傾向,我們可以把它關掉,從街上拽回來。”
兩周前,路透社有文章指出,有科學家表示性愛機器人會使人成癮,因為機器人不會拒絕。
《指南》也提到了這種“過度依賴機器人"的現象,然而并沒有給設計者一個確切的可遵循的準則。這也是在未來的工作中需要繼續補充的。
機器人上戰場 道德安全成問題
近日,在瑞士達沃斯舉辦的世界經濟論壇上,與會人士討論了智能機器應用于戰場可能產生的后果。美國福克斯新聞網在報道中指出,盡管機器人能減輕士兵在戰場上的負擔,但自主機器人可以不受人類操控而自動選擇目標,所以需要建設完善的道德程序才能保證安全,否則,遇到黑客襲擊將會十分危險。
機器起來對抗它們的人類主人,這是科幻小說中常見的橋段,但在最近的世界經濟論壇上,有專家警告稱,它有可能成為一個真實的威脅。與現在無人機仍然由人類操控不同,自主武器有可能被編程從而能夠自主選擇并攻擊目標,這些戰爭機器可能會有不符合道德的行為并且成為黑客的游樂場。
自主武器提出道德挑戰
澳大利亞新南威爾士大學計算機科學和工程學院人工智能教授托比·沃爾什接受福克斯新聞網采訪時說:“這是我們去年列出的應該關注的主要問題之一。”
他補充說:“令人擔心的是,各國軍隊可能會在未來數年內將機器人派上戰場,但我們中的大多數人相信,我們沒有能力建造出有道德的機器人,而且,我們也不認為會有人打算建造有道德的機器人。”
科學小說作者艾薩克·阿西莫夫在他1942年的短篇小說《環舞》(Runaround)中提出了著名的“機器人三定律”:機器人不能危害人,或任人受傷而袖手旁觀;除非違背第一定律,機器人必須服從人的命令;除非違背第一及第二定律,機器人必須保護自己。
研究人員認為,對于任何“有道德的機器人”來說,這樣的守則必不可少,但將這些倫理規范編入機器人內是建造者的責任。不過,理想很美好,現實很骨感。
美國安全中心倫理自主性項目新主管保羅·謝爾說:“這樣的武器目前還不存在。而且,即使先進的系統也被設計成不能選擇目標,只可以在射擊目標時做出糾正。”
盡管目前仍然沒有國家研發出自主武器,但包括美國在內的幾個國家已經在戰區部署了無人機。美國不僅將無人機作為監控手段,而且,也作為一種遠程攻擊和殺死可疑恐怖分子的手段。
以色列飛機工業公司的“哈洛普”(Harop)巡飛無人機可能是通向真正的自主武器的第一步。“哈洛普”是基于以色列航空工業公司生產的上一代無人機“哈比”(Harpy)制造而成。《簡氏防務周刊》此前報道,以色列航空工業公司2015年6月7日宣布成功對“哈洛普”無人機進行了試驗,該無人機在沒有探測到目標后,可以安全降落。
“哈洛普”這款自殺無人機可以在目標區域盤旋6個小時,發現目標后飛向并撞擊目標,引爆其33磅(約15千克)重的彈頭。據悉,“哈比”無人機主要用于探測并摧毀雷達站,但“哈洛普”也可以攻擊汽車和地面其他目標。
謝爾說:“這類武器能通過遵守程序,自己選擇目標,但它能變得非常狡猾。相比較而言,自動駕駛汽車自身并不能做決定。”
目前,這類機器仍然不能進行主動攻擊。布雷德斯補充說:“主動攻擊權仍然不能賦予機器,至少不能被任何文明世界的個人給機器。”
謝爾強調稱,戰爭法本身并不禁止自主武器,這是一個事實。不過,他也警告稱,讓此類設備遵守目前共同接受的規則,是一個巨大的挑戰,即便這一切成為現實,自主武器仍然提出了嚴重的倫理和道德挑戰,也存在技術方面的隱憂。
謝爾說:“假定我們能建造出有道德的機器人,它們能遵守這些法則,但還是存在另一個隱憂,那就是,我們仍然無法建造任何不被攻擊的系統。”
面臨被攻擊和劫持的威脅
即使現在的“當紅炸子雞”無人機本身也非完全安全。2011年,伊朗軍隊宣稱“劫持”了一架美國尖端的RQ-170隱形無人機。盡管美國軍方否認,但這也說明遠程設備很有可能被攻擊。
簡氏信息集團下屬的《國際防務評論》雜志的編輯胡武·威廉姆斯說:“科學家們一直在努力,希望通過加固數據鏈接的‘加密’程序來使其與操作員之間的連接變得更安全。但是,沒有加密方法是完美無缺的,盡管現在的加密程序的安全性已經極高,但數據鏈接仍然可以被攻破;而且,也有人在不斷想方設法破壞對遠程系統的控制。”
正如一直有聯網汽車會被攻擊的報道那樣,立法人士擔心,某些人可能會對無人武器系統發動攻擊。弗若斯特&沙利文咨詢公司航空航天和國防領域資深分析師邁克爾·布雷德斯說:“我們打算對包括無人機在內的更多人工智能遠程系統進行核查。這些系統配備的激光雷達、聲學傳感器等傳感設備的先進性與日俱增,且與我們在目前的自動汽車內看到的大相徑庭。”
布雷德斯說:“盡管我們現在正努力確保遠程機器不被不懷好意的人接管,很多設備都擁有加密的數據連接,但威脅仍然存在。”威廉姆斯解釋稱:“今天的遠程系統的安全性已經非常高,但仍會有人想辦法來破壞它們,來竊奪控制權、竊奪GPS系統或通過其他手段來破壞對飛機的控制。”