今日  首页 -在线投稿 -往期报纸 -常见问题 -帮助    
  文章搜索:
AI不听人类指令 拒绝自我关闭
图片

  据英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。
  报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
  o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。OpenAI首席执行官萨姆·奥特曼年初称它为“人工智能下一阶段的开始”。
  美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”,“据我们所知,这是A I模型首次被发现在收到……清晰指令后阻止自己被关闭。”
  帕利塞德研究所公布上述测试结果,但称无法确定o3不服从关闭指令的原因。
  此外,OpenAI宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。
  彭博社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。

 本文评论                                        评论数()  更多>>
评论正在加载中...
 发布评论
最大长度:500 还剩:500
更多>>  黄海晨刊近期报纸查看
 
  本文所在版面
【第 A11 版:很新鲜】
  本文所在版面导航
·AI不听人类指令 拒绝自我关闭
版权所有 日照日报社 联系电话:0633-8779512