AI发展的智慧之路如同平板电脑不断迭代学者们在探索中寻找最适合未来发展的路径
近年来,深度学习研究和工业应用火热,大多数研究者形成共识:未来的通用人工智能(AGI)不会是多层神经网络。然而,关于AI研究的方向,有争议的问题浮现了:是否要“设计会学习的、能利用大规模计算能力的方法”,即使当前计算能力不足,也静待算力发展;还是“尝试把人类知识直接做成模型的一部分”,以原理化、结构化为目标。这一问题引发了不小讨论,知名学者如Richard Sutton等发表意见。
Richard Sutton,以“强化学习之父”著称,他本人也是DeepMind研究科学家及AlphaGo主程序员David Silver的老师。他在个人主页上发布了一篇博客《The Bitter Lesson》(苦涩教训),总结了七十年AI研究中的重要教训:能够充分利用计算能力的通用方法往往是效果最好的,这与摩尔定律有关,即每单位计算能力价格指数级降低。大多数AI研究默认智能体资源有限,但实际上随着时间推移,我们将有更多计算资源可用。因此,真正重要的是利用更多计算能力,而不是复杂的人类知识。
此前国际象棋和围棋领域也有类似经验,比如使用搜索而非依赖人类理解取得成功。此外,在语音识别、自然语言处理等领域也出现了基于统计学和深度学习方法取得巨大成功的情况。这些例子证明了基于搜索和学习的大规模计算能力对于突破性进展至关重要,而不是依赖于人类知识。
综上所述,虽然初看似乎简单的人类思维方式更容易理解,但长期来看,更有效率且有潜力的方法是在大型数据集上通过搜索和学习进行,这正是摩尔定律带给我们巨大的力量。在这条苦涩但富含启示性的道路上,我们应当放弃对简单理解方式的追求,而是构建能够自己发现复杂性的元方法,这些方法可以找到好近似,并由它们自身执行,不需要我们替换或增添任何额外信息。而我们的目标应转向构建那些能自我探索并捕捉任意复杂性的大型系统。