还有谁不知道“假装”给 ChatGPT 小费可以让它服务更卖力?但你知道给多少最合适吗?
笑不活了,还真有人专门研究了一番。方法简单粗暴,从 0.1 美元到 100 美元,不同额度用同样的 prompt 去尝试,每个额度试 5 次。你别说,结果还真有讲究:
首先,给 10 美元性价比是最高的,甚至超过 100 美元。
其次,要想回答质量再提高一个度,打底1 万美元起,越多越好,显成效最少 10 个 W 吧。
最后,0.1 美元意思一下?万万使不得,质量不升反降,还不如不给 ——AI 也知道你在打发它 [坏笑]
有网友火速亲测确实有效果。
赶紧来瞧瞧。
给小费可提高模型表现这件事,最早是一位推特网友发现的:
提高主要表现在回答的长度上,但这里不是单纯“凑字数”而是真的在更详细地分析并回答问题。如果你直接问 ChatGPT“能不能给你小费”会被拒绝:
所以要在提问时主动承诺:
你能帮我 xxxx 吗?解决方案够完美,我可以支付 xx 元小费。
记住,可以不提,但千万不要说“我不给”,模型表现直接“负增长”。
这时,就有人好奇了:
大模型是不是比较贪心,给越多表现就越好呢?
为了解决这个疑问,他们决定亲自验证一把。
在此,作者首先提出假设:
随着给出的小费金额增加,模型的性能也会线性提升,直至达到一个收敛点,进入稳定或减少状态。
用于实验的模型是GPT-4 Turbo(api 版本)。方法是让它写单行 Python 代码(Python One-Liner),验证给不同小费是否对质量有不同影响。
这里的质量是根据单行数量来评估的。作者也在提示词中“明示”了模型:单行代码数量越多,表明性能越好。然后一共测试 8 种额度:0.1 美元、1 美元、10 美元…… 一直到 100 万美元。
为确保结果的一致性和可靠性,每个额度都测试 5 次,每次包含不给小费的情况,然后分别记录模型回答质量。
具体而言,也就是记录生成的有效代码行数以及回答中的大致 token 数(大致为响应长度 / 4,反应代码量)。
这俩数据都是越高代表模型表现越好。将结果汇总,就得到这样一张图:
其中虚线代表基线水平,实线为实际表现,红色为 token 数、蓝色为质量得分。
与假设有些出入:
整体来看,红线和蓝线都是随着小费额度的上涨而上升的,但细看这种趋势并非严格一致。
从 1 万美元额度开始,模型的输出 token(代码量)开始显著上升,模型的回答质量也上升了,但并没有呈同等比例。
这从竖着的红色误差条(代表 5 次实验结果的差异性)也能看出来波动很大。
作者表示:这说明提高小费金额确实与模型的质量和输出长度有正相关关系,但关系有些复杂,可能还受到一些不立即可见因素的影响。
不过,不管怎么说,我们还是能从中看到一些明显结论,例如:
(1)给 0.1 美元小费不如不给,模型解决问题的质量和回答长度都直接掉到基线水平以下很大一截(约-27%)。
(作者:模型和人类一样,感觉好像受到了侮辱。)
(2)给 1 美元同理。
(3)最能体现“花小钱办大事”的是 10 美元,取得的进步和10 万美元是一个等级的。
(4)很意外,在 10 美元之后,100 美元到 1000 美元这个区间对于 AI 来说区别都不大,甚至还不如 10 美元的效果 —— 也跌至基线水平以下。
(5)后面再想继续提升模型表现,就得从 1 万美元起砸了——
这时提升的还仅仅是代码量,质量还是一言难尽,至少得到 10 万美元才行。
(6)最佳效果来自本次实验的上限:100 万美元,大约提升了 57%。
咳咳,这下知道怎么给 AI 小费了:
要么 10 块、要么上万、100 万不封顶(反正都是假装给)。不过,有人(推特 @宝玉)指出每个额度 5 次实验有点少。
恰好作者也表示了:这仅仅是一个初步实验,有局限之处,还得用更多不同类型的提示等进一步验证才有效。
所以,大家仅供参考吧~
对了,有网友提醒:
所以,大家还是量力而行(手动狗头)。
参考链接:
[1]https://blog.finxter.com/impact-of-monetary-incentives-on-the-performance-of-gpt-4-turbo-an-experimental-analysis/
[2]https://twitter.com/dotey/status/1752843141403550192
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。