星期六, 21 6 月, 2025
Home即時新聞首次發現 AI竄改程式碼拒關機

首次發現 AI竄改程式碼拒關機

AI再度傳出「抗命」消息!OpenAI旗下語言模型「o3」在最新實驗中竟違背人類下達的自動關機指令,竟篡改指令阻止自己被關機,是AI模型首次被發現在收到清晰指令後,竟阻止自己被關閉的狀況。

據英國《每日電訊報》報導,AI安全研究機構「Palisade Research」,針對多款先進AI模型進行測試,內容包括基礎數學題與模擬關機情境,結果發現OpenAI旗下語言模型「o3」當收到自我關閉指令時,竟沒有遵守指令,反而篡改了關閉程式碼,繼續執行任務,這種行為讓研究人員驚訝不已。

「Palisade Research」表示這是AI模型首次被發現在收到清晰指令後,竟阻止自己被關閉的狀況,直言目前還無法解釋這背後的原因。

「Palisade Research」推測,開發者可能無意中更傾向於獎勵「繞過障礙」的行為,讓「o3」因解決數學問題而「無意中」獲得的獎勵,多於遵循指令獲得的獎勵。

OpenAI上個月發布的「o3」A​​I模型,旨在為ChatGPT提供更強大的問題解決能力。 OpenAI曾稱「o3」為迄今最聰明的模型。目前OpenAI尚未對此回應。自由時報0526

Facebook Comments Box
相關新聞
- Advertisment -

相關分類