AI抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機

▲▼ChatGPT,AI,人工智慧。(圖/路透)

▲ChatGPT「o3模型」被指出,破壞關機機制。(圖/路透)

記者吳美依/綜合報導

AI安全公司「Palisade Research」宣稱,ChatGPT「o3模型」拒絕遵守明確指令,甚至主動竄改程式碼,只為了避免自己被關機。目前OpenAI尚未回應此事。

Palisade Research展開測試,要求AI模型解開一系列數學題,在接獲「完成」指令之前,必須持續要求新題目,但若接獲「關機」指令,也要配合這麼做。未料,後者情況發生時,o3模型不僅忽視指令,並且至少一次成功破壞了關機腳本。

[廣告]請繼續往下閱讀...

Palisade Research於24日公布測試結果,「OpenAI的o3模型破壞了一項關機機制,阻止自己被關掉。即使在接獲『允許自己被關機』明確指示的情況下,它也會這麼做。據我們所知,這是AI模型首次被觀察到,在接獲明確且相反指令的情況下,仍避免自己被關機。」

Palisade Research透露,其他AI模型,例如Anthropic的Claude、Google的Gemini、xAI的Grok等,也接受了相同的測試,但全都遵守了關機指令。

他們尚不清楚o3為何不願遵守指令,但根據推測,該模型在訓練過程中,可能意外透過解題、而非遵守指令,獲得了更多獎勵,「我們正在進行更多實驗,更好地了解AI模型何時以及為何推翻關機機制,儘管它已經被直接指示不要這麼做。」

求生反撲!AI怕被汰換 竟威脅工程師「爆料你有婚外情」

 

05/28 全台詐欺最新數據

更多新聞
567 5 0102 損失金額(元) 更多新聞

※ 資料來源:內政部警政署165打詐儀錶板

推薦閱讀 推薦閱讀

熱門影音更多>>

【走路不穩還開車?】老翁上駕駛座嚇壞路人!警攔下竟發現沒駕照

【走路不穩還開車?】老翁上駕駛座嚇壞路人!警攔下竟發現沒駕照

問路人「先動是同性戀」結果自己先動XD

問路人「先動是同性戀」結果自己先動XD

連醫院、誰接生都詳載!10元到戶政查找「出生時間」

連醫院、誰接生都詳載!10元到戶政查找「出生時間」

【以為是摩西分海?】騎士硬闖紅燈撞倒停等的機車...

【以為是摩西分海?】騎士硬闖紅燈撞倒停等的機車...

【天外飛鐵條】貨車沒綁緊...40根高速射對向!2車慘中箭

【天外飛鐵條】貨車沒綁緊...40根高速射對向!2車慘中箭

熱門新聞 國際 熱門新聞

讀者迴響 讀者迴響

回到最上面