專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這件事已經在發生。
一群科學家在今天發表於「模式」(Patterns)期刊的文章中說,原本設計為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決「我不是機器人」的驗證。
這份研究報告的第一作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。
在美國麻省理工學院(Massachusetts Institute of Technology)研究AI存在安全的博士後研究員帕克告訴法新社,「這些危險功能常常在事後才被發現」,而「我們訓練誠實傾向而非欺瞞傾向的能力非常差」。
帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培育的程序逐漸「成長」。
也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。