大数据的前期收集正在成为人工智能发展的瓶颈,人工智能要向逻辑思维进化。
日前,由南方财经传媒集团旗下21世纪经济报道主办的2022 21世纪科技峰会正式召开。
会上,塞尔实验室主任,国际欧亚科学院院士李世鹏和乔春明指出,人工智能的发展经历了三个重要阶段今天,人们的期待已经到了基于深度学习解决所有问题的阶段但问题是深度学习本身没有推理能力,过于依赖数据,大数据的前期收集准备成为限制人工智能发展和普及的瓶颈
在最早期基于符号逻辑的推理和证明阶段,证明了很多数学原理的定理,外界对人工智能也有很高的期待,比如智能机器成为国际象棋冠军,发明和证明有意义的数学定理,谱写优美的音乐等。
但事实上这并没有实现有什么问题没有解决智能机器如何将实际问题抽象成符号的逻辑,所以只能支持在模拟推理的少数特定规则下运行的场景李世鹏说
20世纪70年代末,人工智能进入第二阶段——基于人工规则的专家系统阶段成果主要包括将逻辑推理提升为专家系统知识工程神经网络的BP算法解决了学习的收敛性问题,专家可以手动构造规则和选择特征来解决一些小规模的具体问题和考试要求
这时,问题又出现了专家没有那么多时间,也没办法穷尽所有的规则这里的教训是,知识不能由专家仅用手来表达,而是要通过自动学习来表达所以2007年左右,人工智能发展到第三个阶段,也就是大数据驱动的深度神经网络阶段
在这个时期,算法,算力,大数据的发展共同发力不再需要手动选择一些数据特征或构建一些规则深度学习可以从标记的信息中自己学习通用模型这也推动了人工智能在语音识别,图像识别,语言处理等感知智能方面大有作为,实际上可以解决广泛事业中的共性问题
必须承认,深度学习在实践中发挥了巨大的作用它的成功在于开源的AI框架只要有足够多的标注数据和足够强大的计算资源,就可以渲染出非常有用的模型,而且可以摆脱各种特征选择对人的经验和智能的依赖李世鹏说
李世鹏指出,今天,人们的期望已经到了基于深度学习解决所有问题的阶段,但问题是深度学习本身没有推理能力,过于依赖数据,因此前期收集大数据的准备成为瓶颈。
最大的问题是,对大规模数据标注的依赖日益成为人工智能发展的瓶颈没有足够的数据,很难创建足够精确的模型如果想拓展到更多的应用场景,需要同等规模的标准大数据,那么人工智能的推广就变得非常困难李世鹏说
李世鹏指出,科学界也在探索各种方法,以优化算法为核心,降低数据依赖的瓶颈,比如优化数据深度学习算法,提高效率,减少计算量等在模型压缩方面,也有连续学习,小样本学习和迁移学习
今天,通过人们的认知科学,我们看到具体的规则并不重要只要有足够正确的逻辑,我们总是可以训练得到一个收敛的通用规则模型,所以我们需要打破专家系统需要的专家的标准瓶颈,让普通人参与标注产生大量的规则这也是我们想要拥抱的从大数据到大规则的变化李世鹏说
。免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。