最近一段時間,很多知名人士都對人工智能武器表示了抵制,但他們給出的原因卻比較偏頗,認為機器人有朝一日將會控制人類。這種說法其實并不合理,至少在短期內不合理。但是,人工智能武器所蘊含的危險,也確實不是那種常規的、由人類操控的武器可以比擬的。因此要求禁止人工智能武器的呼吁,也理應獲得大家的聲援。
斯蒂芬·霍金、宇宙學家馬克斯·特格馬克以及伊隆·馬斯克和其他很多人都簽署了“未來生活”(FutureofLife)請愿書,要求禁止制造使用人工智能武器。今年1月,馬斯克捐款1000萬美元給發起該請愿的機構。4月份,聯合國召開了“殺手機器人”會議,不過沒有產生任何具有持久性的政策決定。“未來生活”請愿信指出,人工智能武器的危險非常具體,不出幾年就有可能導致災難,需要馬上采取行動來加以避免。可惜的是,它并沒有明確指出,有哪些人工智能武器已經出現在了地平線上。物理學家、皇家天文學家馬丁·里斯爵士就警告說,災難性的場景,比如“愚蠢的機器人不按指令行事,或一個網絡自己有了主見。”他在劍橋的同事、哲學家休·普萊斯也表達了類似的擔憂,覺得當智能“不受生物學限制”時,人類可能無法生存。在兩人的推動下,劍橋大學組建了生存風險中心(Centreforthe Studyof Existential Risk),以圖避免人類的生存遭受如此巨大的威脅。
1925年簽訂的國際條約禁止在戰爭中使用化學武器和生物武器。而中空彈(Hollow Point Bullet)早在1899年就被禁用,因為這些武器會導致極大的、不必要的痛苦。它們特別容易導致平民傷亡。比如公眾可能會吸入毒氣,醫生在嘗試取出中空彈時可能會受傷。這些武器很容易給無辜者造成痛苦和死亡,所以它們遭到了禁用。
是否有某種類型的人工智能機器同樣也應該被禁用呢?答案是肯定的。如果一種人工智能機器可以很便宜、很容易地改造成高效的無差別大殺器,那么我們就應該制定禁止它的國際公約。這樣的機器與放射性金屬在本質上沒有什么不同。它們都可以和平利用,造福人類。但是我們必須小心翼翼地對它們加以管控,因為它們很容易被改造成毀滅性武器。不同的是,對人工智能機器進行改造,將其用于破壞性目的,遠比把核電站的反應堆改成核武容易得多。
我們應該禁止人工智能武器,這不是因為它們全都具有不道德的屬性,而是因為人們可以利用在網上找到的資料,把人工智能武器改裝成“猙獰的嗜血怪物”。只需一段簡單的代碼,就可以把很多人工智能武器轉變成不亞于化學武器、生物武器和空心彈的殺人機器。很多人擔心會出現“終結者”那樣的世界末日場景:機器人具有了像人類一樣的能力,能夠完全依靠自己與世界交互,而且這些機器人試圖征服世界。