作者:中联科创特约嘉宾尹智
在对"智能" 的理解上,应该是一种"别看方式 只看效果"的态度 ——
附图吴军老师的观点,跟我几周前认知的差不多,也是觉得ChatGPT并没有什么突破性技术革新,架构上还是沿用transformer的基模型架构,在强化学习方面也没什么新意,主要就是靠堆算力"大力出奇迹";为啥能表现这么好,OpenAI自己都讲不清楚…… 然鹅,GPT4的数理逻辑接题能力改变了我的想法(可参考我前一篇文章)。我以往看大语言模型的能力,也觉得至多就是个词汇的排列组合,以及词汇所代表的逻辑实体之间浅层(语义层)的关系映射,就象附图里那篇文章说的 —— 其实也代表了一票学者的观点 —— "计算机不能真正理解语言和想象等相关活动 "。
我在很早一篇文章里就探讨过,"理解"是一个"够用就好"的概念。我们说机器不真正理解词汇,比如"苹果" 这个词,而我们理解,是因为我们不仅知道这个词的字面意思,我们还尝过苹果的味道,触摸过苹果,闻过苹果的气味 ,这些,机器都还没能做到,所以就算计算机能翻译苹果,根据上下文判断"苹果"指的是水果还是一家公司,计算机还是不"懂"苹果的 —— 然而我们就真的"懂"苹果吗? 我们一般人会懂苹果的生物属性,营养机理,分子结构,种植细节,等等这些吗?这些不应该是对苹果的"理解"吗?我们是对苹果多了一些其他模态的信息感知,而在一个具体任务上,我们所掌握的对苹果的触觉,嗅觉和味觉这些信息,往往不会对任务的完成造成什么差别。想起上周末跟闵行的中小学生讲ChatGPT的时候,有位小朋友问我"是不是就算通过了图灵测试,AI也不具备智能吧?",我答,通过图灵测试,就证明在语言处理这个任务上,AI已经实际上可以等同一个真人了,AI是不是真的像我们一样去"理解"这个词,这并不关键 —— 我们还不能自大到认为只有"跟我们一样地思考",才叫智能,也许在更高等的生物眼里,我们的大脑,也称不上有什么智能。
反正,AI必然是用的跟人类不一样的方式来完成对话任务的 ,我们不会说话前先想一大圈数字,而AI一定是先把文字转化成一堆数字 —— 这是AI唯一能处理的信息。对人类来说,我们并不需要一个"跟人一样思考"的智能,我们需要的是"能在完成具体任务方面,跟人一样, 或者更出色"的智能,而GPT4表现出来的数理逻辑演算推理的能力,已经敲开了这种智能的可泛化大门的一条门缝。 —— 仅代表尹智个人观点 Ken's personal view only