【綜合外電報道】人工智能科技一日千里,科學家希望機械人可投入救援工作,減輕人命傷亡。不過,英國近日進行機械人救人實驗,測試機械人是否能阻止人類墮坑,結果發現機械人面對道德兩難時,往往取捨不當,半數時間任由機械人扮演的人類死亡。科學家對機械人的道德判斷能力仍有疑慮,憂心無人車等人工智能產品,未必能保護用家性命。

有人認為無人車不應代替用戶做生死抉擇。(資料圖片)

西英倫大學工程師溫菲爾德稱,他們想知道機械人能否在生死關頭拯救人類,故此以輸入救人觀念的道德機械人作實驗,其他機械人則扮演即將跌入坑洞的人類。當道德機械人看到一名人類步入陷阱時,會立即將其撞開阻止前進。當面對兩名人類時,只見機械人站在原地猶豫,然後走開,兩人類一併墮坑。

無人車恐難保護用家

溫菲爾德表示,道德機械人面對兩名人類時,會疑惑不知應救哪人。在三十三次試驗中,半數即使有充裕時間仍無法救人,成為道德喪屍。它有時會救出其中一人,其中三次則突破潛能,將兩名人類一同救起。

即將問世的無人駕駛汽車,由中央電腦全自動控制,為人類帶來便捷生活,今次實驗卻反映人工智能在遇上突發交通狀況時,未必可作出符合人類道德的應變。倫理學者提出,自動汽車遇上如兒童擋路,究竟應該撞上去以保車上的人安全,還是扭軚、捨乘客之命以救路人,如此重大的問題未必能交由無人車自行決定。調查發現,七成七受訪者認為這重大決定應交在用戶手上。

同是人工智能產品,美軍研發的戰爭機械人以攻擊為目標,美軍更稱它比人類士兵更道德,因它不會在憤怒和仇恨情緒驅使下濫殺無辜。不過外界仍憂慮戰爭機械人會失控,導致人類滅亡,聯合國呼籲各國停止研發。