昨天下午,某央企研发部门的一位年轻朋友发消息给我,再次感叹AI发展太快。发展快是件好事,但我也经常担心:这样下去,人类的优势何在?又何以立身?这个问题,促使我思考了下面的问题。
目前的大模型,是基于概率的。AI尽量追求(AI给出的)答案和(人提出的)问题之间相关性最强。有人据此认为:AI不具备真正的逻辑推理能力。但我不太认同这个观点,因为因果关系只是一种特殊的概率关系(近似相当于概率为1或概率为0)。因为我认为,大模型在推理方面的潜力是不可估量的、尤其是在纯粹的科学推理领域(如数学)。
人类的脑力有限,知识往往集中在重要的事情上。人类对大概率事件的知识相对深刻,对小概率事件的知识相对肤浅。水平高的专家,往往是掌握了更多小概率事件的知识。比如,普通的医生只会看常见病;高水平的医生则能看疑难杂症。但无论如何,人们一般更熟悉大概率发生的事件。
AI给出的答案其实是一种“条件概率”。“条件概率”是很值得解读的:有些事情本身是小概率事件。但在小概率的条件下,小概率事件却可能变成大概率事件。这时,AI可能比人类专家更靠谱。
不久前我听到一个故事:上海某三甲医院的ICU病房接收了一位年轻的患者。医生进行了常规检查,查不出任何问题。这时,有人突然想到问一下Deep Seek。DS给出的回答是:有96%的可能性是劳累时饮水不当导致的某种病。按照这种提示去治疗,病人很快就恢复了。在这个故事中,年轻人进ICU是小概率事件,故而医生不熟悉;但在这特定的条件下得这种病,则是大概率事件,AI却是熟悉的。对于这样的事件,AI更有优势。
AI给出的回答追求的是一种“条件概率”最大化。那“条件”又是什么呢?这些条件其实都包含在用户提出问题时给出的文字中。我们知道:任何一件事情的发生,可能会有很多的影响因素。这些因素可能数不胜数。人们询问AI时,一般只会谈部分条件。这意味着,其他的条件基本是默认的条件,一般是大可能性大的条件。
我们小时候都知道有个测试题:树上有10只鸟。猎人一枪打死一只,请问树上还有几只?对于这个题目,最标准的答案是0:其他9只都飞走了。但其实,这个问题有很多默认的条件:猎人的枪不是无声手枪、鸟都不是聋子、被打死的鸟掉下树来、没有别的鸟飞过来、鸟都是真的鸟等等。由于这些事情的发生,都是小概率事件——AI默认这些情况不会发生。AI回答这些问题时,一般是按照最大概率给出。DS就是这样(当然,由于刚才这个问题太有名了,有些AI会给出不同条件下的不同答案)。
再如,我问AI:一天吃一个馒头,10年吃多少个? AI的答案是:3650个。这个问题的默认条件是:一年365天,按照“阳历年”计算、10年内吃馒头的人不死。
AI回答问题的水平,与问题所列举的条件有关。而列举什么样的条件(意味着另外的条件采用默认的),与问问题的人的水平有关。
AI会不会把所有的可能性都罗列给你呢?一般不可能:相关的条件太多,而AI的回答受字数的限制。受字数限制AI只能挑重要的去说、默认人们懂得一些基本知识、默认小概率事件不会发生。假如我们分别问AI如下的几个问题,并让前面的问题包含后面的问题:
1、如何建房子?
2、如何建楼房?
3、如何建高层楼房?
4、如何建钢结构高层楼房?
5、建钢结构高层楼房应该如何选钢?
全面前面的任何一个相对较大的问题,恐怕都能写出若干本书。但受字数的限制,答案只能点到为止。后面的问题涉及范围小,故而回答得也就相对更仔细。所以,答案的字数限制就决定了,答案与人们提问的深度有关。最近许多朋友发现:AI的水平大概超越了80%(50%)的专业技术人员。最近突然有个想法:为什么不是超过99%的人呢?一个可能的原因是:在文字有限的前提下,超过80%的专业人员可能是最受欢迎的。
昨天上午我从网上听了一个小时关于AI推理大模型的讲座。发现老师讲的内容和我的认知完全一致。基于这种认识,我进一步思考:推理模型为什么更有效、发展的瓶颈在哪里?
推理模型是基于基础大模型的。用户提出问题后,推理大模型不是直接回答问题,而是先思考“应该如何回答这个问题”。这样,就把一个问题变成若干子问题,然后再用基础大模型回答这些子问题,综合后最终给出回答。也可以说: 推理大模型要在做事之前确定做事的流程或者方法论,而不是直接就去做。这就像数学系的人面对数学问题时,先会关注问题是不是有解、是不是有唯一解,而不是直接就去想如何解题。
推理大模型的答案为什么往往比基础大模型更靠谱呢?
这可能与AI下棋是一个道理:AI下棋时,会对每一步的好坏有个打分,类似与每一步的走法与“取胜”的相关性。这种打分就像人的直觉,不一定靠谱。但AI真正下出的一步棋,不一定是打分最高的那个。AI初步选定这一步后,会进行进一步的评估。评估的办法,是模拟对手会如何应对、应对后的态势又如何。这样,可以连续考虑若干步。最终下的这步棋,是考虑若干步之后综合打分最高的。
直接采用基础大模型的答案,就像只看一步棋时,选出直觉上最好的一步。而推理大模型给出的答案,则是看两步棋时给出的答案。所以,推理大模型的回答往往更靠谱。
如果我的这个设想是正确,推理大模型或许可以进一步优化:就是对子问题进一步分解、进一步综合。也就是说,不仅是考虑2步,而是考虑很多步。
如果这样做的逻辑是对的,AI遇到的终极困难,可能还是组合爆炸问题。
最后再聊聊AI的另外一个劣势:AI很难克服“幸存者偏差”。也就是说,网上的数据有偏差的时候,AI给出的答案可能就有偏差。我的一位朋友用AI进行市场调研。我发现:AI认定的一些“研究方向”都是热点方向,但往往是“华而不实”的。也就是说:大家都追这个热点,都这么吹求,AI就认为这样是对的。我问了DS等AI,都认为这个问题目前比较难以克服。我的创新课经常提到认识“幸存者偏差”、“提出问题”是创新的关键。现在看来,创新素质好的人,在AI时代还是有优势的。
来源:微信号 蝈蝈创新随笔
作者:郭朝晖
该作品已获作者授权,未经许可,禁止任何个人及第三方转载。