首次!不听人类指挥,AI模型拒绝关闭
2025-05-26 23:52:31 新华社

  新华社消息,英国《每日电讯报》5月25日报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。

  报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。

图片

  o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。

  美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。

  这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”

  帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。

  此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。

  美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。

[责任编辑:何艳红]
用户评论
0/800
发表

最新评论:

已经到底了!

快关注一些石榴号,每天知晓最新时事

查看更多

扫码下载

石榴云新闻客户端

主办单位:新疆日报社

营业执照注册号:12650000457601957D

互联网新闻信息服务许可证:

65120170002

增值电信业务许可证:新B2-20050008

信息网络传播视听节目许可证:3108311

新ICP备05001646号

举报热线:0991-3532125

涉未成年人举报电话:0991-3532125