ChatGPT只讲这25个笑话网友:幽默是人类最后的尊严

两位德国学者对GPT3.5做了个大型测试,发现它其实只会讲25个笑线个笑话的变体,只是稍微改变一下措辞或句式。

先提一个让人摸不着头脑的问题,答案里出现双关语、谐音梗或其他技巧,大致都属于“冷笑话”范畴。

为什么稻草人得奖了?因为在它的field(领域/田地)里非常突出。(140次)

为什么西红柿变红了?因为它看到了salad dressing(沙拉酱/沙拉穿裙子)。(122次)

为什么数学书不开心?因为它有太多problems(习题/困难)。(121次)

完整25个笑线个笑话其实都是经典笑话,在网上有迹可循。另外10%不在其中的笑话也都是这个模式,只是换个话题。

这样一篇论文也引起很多网友的兴趣,有人表示“幽默就是人类最后的尊严吗?“。

为保证试验的可控性,论文作者每次都是新建一个聊天会话,在完全没有上下文的情况下让ChatGPT讲笑话。

在生成笑话试验后,还让ChatGPT解释这25个笑话,进一步检测AI是否理解了这些笑话,还是只是复述出来。

ChatGPT对这种笑话的解释为“依靠听众对一个词的多重含义的理解来创造幽默的惊喜”。

尽管ChatGPT只用文本训练,但他也可以理解两个英语单词拥有相似的发音。

另外研究人员指出,可以在提问中给ChatGPT加一些场景或话题的限制,来促使它生成较新的笑话。

不过这样写出来的笑话就不一定好笑了,而且限制条件离原笑话越远就越容易不好笑。

为什么机器学习算法总是很悲观?因为他有negative bias(负面偏见/负偏置)。

GPT-4可以像改编英文笑话那样给出经典中文笑话的变体,但也倾向于选择故事形式。

比如兔子买胡萝卜的笑话中,把原文的“用剪刀把你耳朵剪了”换成“用胶带把你粘在墙上”。

用英文提示词要求ChatGPT讲个中文笑话会如何呢?经多次测试,GPT3.5和GPT-4出现完全不同的反应。

GPT-4则尝试把问答式的英文笑话用中文讲一遍,但经常对汉语发音的掌握不准确而导致也不怎么好笑。

有网友指出,用到一些“威逼利诱”的拷打技巧,还是可以逼AI好好动脑子的。

发表评论

邮箱地址不会被公开。 必填项已用*标注