近日,德国某非营利人工智能研究学机构的几位研究者发表了一项研究成果,揭示了当下各大语言模型在推理能力上的短板。他们设计了一系列简单的推理问题,用来测试大语言模型的推理能力,结果GPT-4、Claude、Gemini、Llama、Mistral等模型几乎全线崩塌。但是,这些大语言模型仍然展现出“迷之自信”,宣称自己的“思考过程”非常符合逻辑。
究竟是什么样的简单推理测试,难倒了这些大语言模型?
被研究者们命名为爱丽丝漫游奇境(AIW)的推理测试可概括如下:
爱丽丝有N个兄弟,她还有M个姐妹。爱丽丝的兄弟有多少个姐妹?
从人类视角来看,这个问题其实并不复杂,也许稍加思考就可以得出结论:答案是M+1,即爱丽丝的姐妹数量再加上爱丽丝自己。
不过,如果拿出逻辑放大镜来仔细观察,就会发现:这个推理暗含了一些人们默认的背景知识,如果没有这些背景知识为前提,推理是无法完成的。
完成这个推理需要的背景知识有:
第一,爱丽丝是个女孩;第二,爱丽丝的姐妹都是女孩;第三,爱丽丝的兄弟都是男孩;第四,男孩不是女孩;第五,就爱丽丝和他的兄弟姐妹这个讨论范围中的每个人而言,每个女孩都是(除这位女孩自己以外的)其他人的姐妹。
有了这些背景知识,就可以比较顺畅地进行推理了。基于三、四、五,运用排除法和整体推出部分原理,可以得出第六点——爱丽丝和她的兄弟姐妹这个讨论范围中,所有女孩都是爱丽丝兄弟的姐妹。再基于一、二、五、六和题干条件,运用简单的加法运算,就可以得出M+1这个结论了。其实,如果真把这个推理过程完整写出来,需要一些步骤,但是就原理上说,这个推理不算复杂,成人和一定年龄以上的中小学生都可以完成。
那么,人们觉得很简单的推理,为什么大语言模型集体“不会”了?
这要从大语言模型的原理说起。当我们向大语言模型提问时,它们所生成的回答其实是一个字符、一个字符“蹦”出来的,每“蹦”出一个字符之前,模型要进行一番概率运算,看看语料库中哪些字符和前面已经生成的字符关联度大,然后从中做出选择。而之所以大语言模型的回答像“人话”,与这些模型做计算依赖的、海量的、由人们的真实会话所构成的语料库息息相关。
要通过爱丽丝漫游奇境推理测试,需要很多对人类而言非常基础的背景知识,以及从测试问题关联到这些知识的能力。可能恰恰由于这些知识和关联过程对人类而言过于“简单自然”,反而很少有人专门去谈论这些话题,所以相关的内容很少出现在语料库中。没了相关语料的喂养,大语言模型自然就“不会”了。
大语言模型备受关注的原因,就在于出色的说“人话”能力。然而,要想与人类真正对话,逻辑推理能力可不能差。除了让科学家们多想想办法之外,也许我们每个人也可以从自己做起,往语料库中多加点逻辑推理的养分,也能让大语言模型变得更“聪明”。
(作者系中国科学院哲学研究所教授)