作者:中联科创特约嘉宾尹智
我研究生的导师专业领域是人工智能,我还曾近水楼台地为本科小学弟学妹们讲过“人工智能导论”。我们的第一次AI实践,是用C语言写一个神经网络模型,用来识别0.到9十个数字,到现在为止,这还是人工智能界的“Hello world”。当时我觉得,这东西是挺神的,但就这些数学模型,真能代替精密无比的人眼和视觉神经吗?到今天,这个问题变成,人工智能会不会在所有领域,甚至人眼都无法企及的领域,超越和取代人类视觉呢?AI已经从实验室走到了工业、文旅、安防,交通,各行各业,已经和5G,物联网,云计算结合,嵌入到了从芯片、终端设备,到网络,到边缘计算和云计算各类软件、硬件中,在未来几年内,我们的手机、门锁、摄像头、电冰箱洗衣机、计算机、网络交换机、服务器,应用系统,App,都会迅速AI化,或多或少具备一定的人工智能能力,这不是科幻小说,而是已经在发生的现实,如果我们低头看看自己的手机,绝大多数手机已经具备了人脸识别的能力,这就是一个AI模型内嵌到手机系统的结果。
但为什么是现在?人工智能的概念50年代就提出来了,半个多世纪以来不断有大量理论和实践涌现,为什么现在AI应用开始爆发?我觉得,这是科技的阶梯已经搭到了这一层,AI所需要的研究、硬件、软件、网络都已经成熟到直接可以开始支撑和驱动人工智能应用落地了。我们先略过科技阶层的底下几层基础技术层,直接看和人工智能最靠近的一层,大数据。大数据这几年发展突飞猛进(当然这也可以溯因到大数据下几层技术基础发展到位了),大数据大热之后,人工智能的兴起,几乎是一个顺理成章,水到渠成的趋势。首先大数据丰富之后必然会出现人工智能等深度挖掘和利用数据的技术爆发,这就像粮食多了之后必然有人会想到酿酒,做成糕点,做成附加值更高的产品一样。都说大数据是未开发的金矿,而大数据"成金"的一个高级的方式,就是凝汇聚变成一个个行业洞察和模型,将其中蕴藏的多年行业经验和规则,形成可复用,可扩展,可自我学习迭代的人工智能模型。而大数据中一类量最大而价值密度最低的数据,非结构化数据,恰恰还缺乏给力的工具来挖掘和提炼。AI,典型如视觉智能的图像视频识别,将成为释放大数据潜在价值的关键技术,试想每年我们要拍多少照片,录制多少视频,监控多少环境和地区,绘制多少设计图和数字形象,有多少信息隐藏在这些数据中,如果我们能借助机器不眠不休,近乎无限的和计算能力来帮助我们分析和模型化这些数据,我们将获得多大的洞察?我们将有多接近上帝视角?
而另一个方面,人工智能模型的训练需要海量高质量的数据,而随着大数据采集、分布式处理/存储等等技术的成熟,AI研发的火箭无疑获得了优质的燃料和推进器,大数据和人工智能,这是一个硬币的正反面,必然是会循环正向互相促进。大数据因为计算芯片、网络技术的成熟先行一步,随之带动人工智能到新的台阶,几乎是一个必然的趋势。
随着象商汤科技这类技术实力超群的公司的崛起,中国的人工智能的科研水准其实已经接近甚至在某些细分领域超过了国际知名的大科技公司,但在产业落地方面,可以看到一些明显的挑战,主要在:
一)国内企业和政府数据量丰富,但要直接用于AI模型开发和训练,还有几个障碍要克服:
a) 优质样本数量还不够,(特殊)负样本数量少:对某些行业领域(比如精密制造业),由于业务很成熟,故障率控制得很低,或者问题/病症出现频率很低(比如罕见病诊断),负样本数很少,造成训练输入其实不够,模型不够精确。但这种检测和诊断,对防止问题发生又非常有意义,对召回率要求非常高(简单说就是宁可错抓,不可漏网的比率)。最近跟做视觉智能的团队聊起,在高铁检测和精密仪器故障检测中,就发现问题样本实在不多,而且很多时候,有预警意义的图像(比如风险特征图像),捕捉也不容易。而在高铁和特高压输变电这种中国领先世界的行业,也何难借助国外的数据,这些问题,将需要在数据采集和积累上多下功夫;
b) 标注需要大量工作:人工智能模型需要的是有指导的训练数据集,意味着输入的数据需要被明确框定和标注,告诉算法,哪些是需要关注的地方,这些地方具体表示什么(很象教一个小孩认动物)。而直接采集的数据集,往往没有这样的处理,这就需要大量的人工去进行标注(或者对机器标注进行监督调整),对一个几百万图片的训练集,这其实需要巨大的人力成本和海量数据存储进行处理(但另一个方面,这对工作机会创造有帮助)。尽管现在有半自动标注工具(算法会做自动初步标注),人工的参与,审核,调整还是一个相当大的投入。这个问题未来应该会通过越来越标准和自动化的标注工具或者云服务来缓解,标准场景和物体/人的标注,有可能完全或大部分通过算法来完成;
——未完待续 仅代表尹智个人观点