• 设为首页
  • 点击收藏
  • 手机版
    手机扫一扫访问
    迪恩网络手机版
  • 关注官方公众号
    微信扫一扫关注
    迪恩网络公众号

AI模型首現抗命



OpenAI研發的新款AI模型o3發生拒絕執行人類指令的事件 (路透社)

    AI模型首現抗命



    【本報訊】據央視新聞廿六日消息:當地時間廿五日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關閉。



    擅自篡改人類指令

    報道說,人類專家在測試中給o3下達明確指令,但o3篡改電腦代碼以避免自動關閉。

    o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。

    無法確定抗命原因

    美國AI安全機構帕利塞德研究所說,o3破壞關閉機制以阻止自己被關閉,“甚至在得到清晰指令時”。

    這家研究所說:“據我們所知,這是AI模型首次被發現在收到清晰指令後阻止自己被關閉。”

    帕利塞德研究所廿四日公佈上述測試結果,但稱無法確定o3不服從關閉指令的原因。

    此外,OpenAI在廿六日宣佈,已在韓國設立實體並將在韓國首都首爾設立分支。OpenAI提供的資料顯示,韓國ChatGPT付費用戶數量僅次於美國。

    美國彭博新聞社報道,這將是OpenAI在亞洲設立的第三個分支。前兩個分支分別設在日本和新加坡。



30

鮮花
91

握手
41

雷人
32

路過
55

雞蛋

該文章已有0人參與評論

請發表評論

全部評論

扫描微信二维码

查看手机版网站

随时了解更新最新资讯

400-123-45678

在线客服(服务时间 9:00~18:00)

在线QQ客服
地址:上海市虹口区武进路齐浜大厦456号2幢10楼
电邮:green_ps@ppap.com.cn
移动电话:13301215647

Powered by Discuz! X3.4© 2001-2013 Comsenz Inc.