智慧校园_手机
智慧照明_手机
AI没有常识,而常识有时会是困住创新思维
发布时间:2023-05-23 15:50:32 TAGS:

作者:中联科创特约嘉宾尹智

AI没有常识,而常识有时会是困住创新思维的"盒子" ——


看到Dall-E 和 stable diffusion这样大名鼎鼎的文字到图形生成AI模型也会犯低级错误(如附图里的"轮子是绿色的白色自行车"那些),很多声音掩饰不住兴奋了: AI根本理解不了 世界,AI不懂语言和图像的关联,等等。个人觉得这种论断其实有些无聊,前面我写过一篇东西分析,"理解","懂"这些概念,是很有主观色彩的,我们通常说的"理解"也不过是一种够用就好的实用性,细分析起来,一大堆的逻辑问题。很多时候我们说我们"理解"了这首诗,或者说我们"懂"了微积分,不过是拿我们可以做得出题的标准来衡量而已。微积分的本质这么容易就理解了的话,还用牛顿和莱布尼兹这种天才来发明吗?王语嫣阅尽天下武学,甚至都知道别人下一招是什么,自己却不会运用武功,这叫"理解"还是不"理解"武学?相比起来,我觉得值得思考的是为什么可以生成高质量图像的AI,有时候却画的不知所以?比如附图的"画出一个梯子并标出你站在上面的部分",显然AI没有理解这是要标出梯子上的横杆部分,AI没有建立"梯子上站人的部分"和"横杆"的联系,为什么?这可能有很多解释,一种可能性训练集里就没出现过梯子上站人,AI又不具备如何爬梯子这么一种常识 —— 这如果反过来看,如果我们让AI具备常识呢?如果我们让AI具备这种显而易见的常识呢(比如通过符号代码形式)?或者,我们让这个AI同时经历一些强化学习的训练 —— 爬梯子(打游戏的AI就是这么训练出来的,能爬梯子的游戏AI必然是理解梯子横杆和人"站立"的关系的),是不是这个AI就不会犯这种低级错误了呢?文本到图像的AI必然是不完美的,因为它们认知世界的全部方式就只有训练集里的图片和配套文字,与其我们幸灾乐祸地看到它们犯一些没常识的低级错误,为什么我们不想办法补齐这些短板呢?此外,象附图里"方形轮子的自行车"和"布满仙人掌刺的厕纸",我跟那位MIichael Bronstein的想法一样,AI画的没毛病啊, 换了我,我也是这么画啊,总不能因为这些作品在现实中不存在,就不让人家按字面意义画吧。甚至觉得在某些需要新奇创意的作品创作中,就该引入AI的这种创作风格,因为他们不会受到常识的束缚,是真正可以帮助人类"跳出盒子"来思考的。 —— 仅代表尹智个人观点  Ken's personal view only

阅读( 886)