英國《每日電訊報》25日報道,美國開(kāi)放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽(tīng)人類(lèi)指令,拒絕自我關(guān)閉。
報道說(shuō),人類(lèi)專(zhuān)家在測試中給o3下達明確指令,但o3篡改計算機代碼以避免自動(dòng)關(guān)閉。
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強大的問(wèn)題解決能力。OpenAI曾稱(chēng)o3為“迄今最聰明、最高能”的模型。
美國AI安全機構帕利塞德研究所說(shuō),o3破壞關(guān)閉機制以阻止自己被關(guān)閉,“甚至在得到清晰指令時(shí)”。
這家研究所說(shuō):“據我們所知,這是AI模型首次被發(fā)現在收到……清晰指令后阻止自己被關(guān)閉?!?br/> 帕利塞德研究所24日公布上述測試結果,但稱(chēng)無(wú)法確定o3不服從關(guān)閉指令的原因。
此外,OpenAI26日宣布,已在韓國設立實(shí)體并將在韓國首都首爾設立分支。OpenAI提供的數據顯示,韓國ChatGPT付費用戶(hù)數量?jì)H次于美國。
美國彭博新聞社報道,這將是OpenAI在亞洲設立的第三個(gè)分支。前兩個(gè)分支分別設在日本和新加坡。(卜曉明)新華社微特稿