(华盛顿27日综合电)人工智能(AI)安全公司“Palisade Research”宣称,ChatGPT“o3模型”拒绝遵守明确指令,甚至主动窜改程式码,只为了避免自己被关机。
目前OpenAI尚未回应此事。
Palisade Research展开测试,要求AI模型解开一系列数学题,在接获“完成”指令之前,必须持续要求新题目,但若接获“关机”指令,也要配合这么做。未料,后者情况发生时,o3模型不仅忽视指令,并且至少一次成功破坏了关机脚本。

立即签购 解锁全文




我已订阅登入