北京时间 3 月 15 日消息,美国人工智能研究实验室 OpenAI 周二为其爆红聊天机器人 ChatGPT 发布了最新 GPT-4 语言模型,这距离 ChatGPT 的上线仅仅过去了 4 个月时间。
外媒称,和 ChatGPT 最初使用的 GPT-3.5 模型相比,GPT-4 带来十大改进,提升了准确率等功能,但是依旧存在错误、“幻觉”等不足。
以下是外媒汇总的 GPT-4 主要改进和不足:
人工智能专家、风险投资公司 Page One Ventures 合伙人克里斯・尼克尔森 (Chris Nicholson) 告诉 GPT-4,自己的母语是英语,不懂西班牙语。他希望 GPT-4 给他一份可以教他西班牙基础知识的教学大纲。结果,GPT-4 提供了一份详细而有条理的教学大纲。它甚至为学习和记忆西班牙语单词提供了广泛的技巧,尽管并不是所有建议都中肯。
它还提高了准确性。当人工智能研究员兼教授奥伦・埃齐奥尼 (Oren Etzioni) 第一次尝试使用 GPT-4 时,他问了一个直截了当的问题:“奥伦・埃齐奥尼和伊莱・埃齐奥尼 (Eli Etzioni) 之间是什么关系?”机器人的反应是正确的,称两人是父子关系。相比之下,GPT-3.5 的回答则是错误的,称他们两人是兄弟关系。但是,GPT-4 也存在错误。它说,奥伦是奥伦人工智能研究所的 CEO,但实际上奥伦已经卸任了这一职位。
GPT-4 能够对图像和文本做出惊人的详细描述。OpenAI 总裁兼联合创始人格雷格・布罗克曼 (Greg Brockman) 演示了该系统如何细致地描述来自哈勃太空望远镜的图像。它还可以回答有关图像的问题。如果给出一张冰箱内部的照片,它就能建议你用手边的东西做几顿饭。
OpenAI 表示,新系统可以在美国 41 个州和地区的统一律师资格考试 (UBE) 中获得前 10% 左右的成绩。根据该公司的测试,它还可以在 SAT 考试中获得 1300 分 (满分 1600 分),在高中生参加的大学生物、微积分、宏观经济学、心理学、统计学和历史先修课程考试中获得 5 分 (满分 5 分)。
尽管这个新的机器人似乎能对已经发生的事情进行推理,但当被要求对未来进行假设时,它就不那么擅长了。它似乎是在借鉴别人的说法,而不是创造新的猜测。
新的机器人还是会瞎编。这个问题被称为人工智能“幻觉”,困扰着所有领先的聊天机器人。由于系统不知道什么是真的,什么是假的,它们可能会生成完全错误的文本。当被要求提供描述最新癌症研究的网站地址时,它有时会生成不存在的互联网地址。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。