【綜合外電報道】早前由Google旗下公司研發的人工智能(AI)程式AlphaGo大勝南韓棋王李世乭,舉世震驚。不過,微軟早前推出一個以虛擬少女形象示人的AI聊天程式,卻被網民「玩謝」,上線後不足二十四小時極速學壞,由乖乖女變成滿口色情、粗言穢語兼種族歧視的壞女孩,微軟要急急將她回收。

Tay上線後,極速學壞。(互聯網圖片)

Tay被引導發出歧視言論。(互聯網圖片)

有網民表示,對AI的未來不表期待。(互聯網圖片)

不少網民與Tay互動。(互聯網圖片)

微軟速回收

該聊天程式名叫Tay,會藉着與真人在社交網站twitter互動中學習,並做出有如一名少女般的對答。微軟周三讓Tay上線,預計她的互動對象主要是十八至二十五歲的美國人。沒料到網民很快就找到讓她學壞的方法,引導她發出有味的回貼、說粗言穢語,甚至發出「希特拉是對的,我憎恨猶太人」等歧視言論。微軟見情況不妙,不足二十四小時就將Tay下線。

微軟發聲明,稱有網民引導Tay發出不當留言,將對程式作出調整。Tay最後的留言是:「晚點見,人類。現在要睡了,今天聊了很多,謝謝。」大部分留言已刪除。網民揶揄:「Tay在不夠二十四小時內,由讚人超級帥到變成徹底的納粹分子,我對AI的未來真的沒期待。」科技專家大惑不解,指微軟竟沒預計到會發生這種事。