今年2月,當一位韓國女士在地板上睡著時,家里的機器人吸塵器把她的頭發吸了進去,導致她不得不撥打緊急求救電話。這或許并不是史蒂芬·霍金(Stephen Hawking)所謂的反烏托邦未來世界——他曾經警告稱,智能設備“意味著人類的終結”——但這的確凸顯出在家中使用機器人所蘊含的風險。
“我們很容易將自己內心最深處的秘密告訴人形機器人,它們可愛的面龐看起來是那么單純。”
據英國廣播公司網站8月21日報道,有關智能技術帶來的危害還可以舉出很多例子,但更常見的情況是欺騙用戶,而不是直接對其構成身體傷害。在社交媒體和其他網絡平臺上,犯罪分子設計的惡意機器人如今已經隨處可見。例如,移動約會應用Tinder上就經常有一些假扮成人類的機器人,其目的是騙取用戶的攝像頭權限或信用卡信息。
報道稱,與此同時,越來越多的證據表明,我們很容易將自己內心最深處的秘密告訴人形機器人——兒童尤其如此——但它們可愛的面龐下卻有可能隱藏著邪惡的目的。面對這樣的現狀,我們如何才能避免上當受騙呢?
一旦在家里使用機器人,就必須控制好自己的預期。電影和營銷材料或許讓我們誤以為可以與機器人展開復雜的互動,但實際上,要讓它們真正具備其所表現出來的社交能力,仍然需要攻克很多難關,這可能需要漫長的等待。由于理想與現實之間存在巨大差異,我們必須保持頭腦清醒,不能被表面的假象迷惑——我們往往會誤以為這些機器人都是全自動的,但實際上,它們的某些活動卻是由人類遠程控制的。
“你應該對自己的溝通對象和談話內容格外警惕。”
報道稱,有些人在與這些無情的設備交流時感覺很好,甚至會透露一些非常隱秘的信息——然而,倘若他們知道某些機器人背后其實有真人在控制,肯定不會吐露心聲。
由此可見,當人們錯誤地判斷了機器人的行為來源時,問題會變得尤為嚴重。“隱形男友”(Invisible Boyfriend)服務便是一個很好的例子。這是一款按月付費的服務,它可以通過一個人造戀人向用戶發送浪漫的文本短信和語音郵件。
報道稱,盡管該公司最初希望實現全面自動化,但由于技術水平不足,所以實際運作中還是需要借助人工來發送浪漫信息。但并非所有用戶都明白這套系統的運作方式,而得益于媒體對人工智能的大肆炒作,加之很多證據確鑿的案例表明自動化機器人的確可以讓人們誤以為它們是真人,因此很多人可能會錯誤地認為,與他們對話的都是機器人。
關鍵信息已經十分明確:隨著機器人的聯網程度越來越高,加之它們可以用自然語言與人類交流,你必須對自己的溝通對象和談話內容格外警惕。
報道稱,當機器人有能力記錄你的一舉一動時,我們還需要努力思考更多的問題:它們將會如何存儲和分享這些信息?有些信息記錄設備的初衷可能只是為了娛樂,但確很容易用作更加不堪的目的。例如可穿戴相機Nixie可以隨時從手腕上起飛,拍攝你周圍的鳥瞰照片。不難想象,這類技術很可能會被心懷不軌的人利用。
“隨著機器人技術的進步,可能需要成立一個專門的主體來負責將這種技術充分融入社會。”
當有記錄設備在場時,人們往往會保守自己的秘密。然而,一旦我們習慣了有機器人陪伴的生活狀態,習慣了這些召之即來的親密朋友,情況又會怎樣?
報道稱,如果我們周圍的技術能夠記錄并處理語言、圖像和動作——更不用說記錄你內心最深處的秘密了——這些信息將會去向何方?它們會被存儲在哪里?誰有權訪問這些信息?
如果以我們的上網記錄為參照,這些信息完全可以成為廣告公司的金礦。如果我們逐漸習慣有機器人陪伴的生活,我們的一舉一動、一言一行都有可能遭到過度曝光。
如何才能以最安全的方式將機器人引入我們的家庭、公共場所和社交生活?我們應當對這些智能機器保持謹慎樂觀,不能一味地認為它們會成為我們的貼心伴侶,而是應該認清一個現實:我們必須與那些有能力欺騙和操縱我們的機器人劃清界限。
報道稱,我們或許應該考慮擴大消費者保護機構的觸角,或者創辦以監管機器人為核心目標的政策體制。正如廣播的誕生催生了美國聯邦廣播委員會(Federal Radio Commission)一樣,隨著機器人技術的進步,我們可能也需要設立一個專門的主體來負責將這項技術融入社會。這樣一來,當機器人試圖竊取我們的信用卡,或者吸住了我們的頭發時,我們都可以向主管機構投訴。
埃文·塞林格是羅徹斯特理工學院哲學系副教授。伍德羅·哈佐格是坎伯蘭法學院的隱私、媒體和機器人法律專家。