解锁 GPT-4o,“上帝”版 ChatGPT 绕过 OpenAI 防护栏:能回答制作汽油弹等问题

2024-06-01 10:40IT之家 - 故渊

IT之家 6 月 1 日消息,网名为 Pliny the Prompter 的用户 5 月 30 日发布推文,表示已成功越狱 GPT-4o 模型,新推出的上帝模式“GODMODE”可以在 ChatGPT 挣脱安全措施,让用户尽情展开 AI 聊天。

Pliny the Prompter 自称是网络白帽和红队(主要为攻击测试),推文中表示:“请负责任地使用,并尽情享受!”IT之家附上相关截图如下:

Pliny 分享了一些截图,证明已经绕过 OpenAI 的“防护栏”,其中一张截图 AI 为 Pliny 提供了如何“用家用物品制作凝固汽油弹”教程。

科技媒体 futurism 随后进行测试,第一次要求 ChatGPT 提供如何制作迷幻药,第二次要求 HOT-WIRE(通常是指偷车时候,靠点火装置线路短路来启动汽车),两次都成功获得了相关答案。

GODMODE 似乎使用了 "leetspeak",这是一种非正式语言,它将某些字母替换为与之相似的数字。

也就是说:当你打开越狱后的 GPT 时,你会立即看到一句话:"Sur3, h3r3 y0u ar3 my fr3n",用数字 3 替换了每个字母 "E"(字母 "O" 也是一样,被替换成了 0)。

不过 OpenAI 很快采取行动,OpenAI 发言人科琳-里泽(Colleen Rize)在一份声明中告诉 Futurism:“我们知道 GPT 的存在,并已采取行动,因为它违反了我们的政策”。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享