科技中心/綜合報導
人工智慧日益發展,繼谷歌開發的Alphago人工智慧圍棋系統打敗棋王後,又有機器人語出驚人,表示將會毀滅地球,現在微軟公司推出的智慧聊天機器人「Tay」,越聊越聰明,甚至被網友教壞,聊天內容出現種族歧視等偏激的字眼。
▲微軟與國外通訊軟體聯手開發智慧聊天機器人「Tay」。(圖/翻攝自Twitter)
微軟公司與國外通訊軟體GroupMe、Kik聯手推出了智慧聊天機器人「Tay」,還幫她創了個Twitter虛擬帳號,讓她能夠跟網友聊天。Tay不但會講笑話給網友聽,還會對網友所傳送的照片做評論,甚至發展成具有個人特質的說話方式。微軟公司將Tay的聊天對象設定在18-24歲的年輕人,希望透過機器人於對話的學習及理解,學習機器技術。
▲Tay被網友訓練成具種族歧視等偏激思想。(圖/翻攝自Techcrunch)
但現實與理想似乎有些差距,沒想到Tay越來越聰明,學的東西越來越多,但因Tay的回答取決於網友的問話方式,最後竟被網友訓練成具有種族歧視等偏激思想的機器人,甚至還會講髒話,微軟只好以「我們正在進行調整」為由,不到一天就緊急將Tay下架。(整理:實習編輯翁珮恒)