神经网络权值优化也经过了多年的发展。80年代提出的权重优化相关工作包含动力学过程;而目前神经网络的进化优化,主要局限于权值的优化和超参的优化。这是组合爆炸问题,使得优化过程收敛速度慢、计算时间长、复杂度高,而难以使用。因此,梯度优化算法容易受到局部最优的影响,而进化算法在存在鞍点的情况下表现非常好。
当前超参数选取大多依靠堆叠GPU,这只能缓解计算量问题,但从机理上而言,需要找到自动学习的方法。超参数优化的问题在于:非线性、非凸、组合优化、混合优化、试错成本高、组合爆炸。经过几十年的发展,这些问题仍然没有解决。
同样有几十年研究底蕴的领域还有元学习,它需解决的基本问题是:元知识的表征、元学习器以及元目标。现在已经有一系列的办法解决可解释性和鲁棒性,但远远不够,因为对泛化性能的提高、对可解释性的追求、对进化全局最优解的追求永远在路上。
ABC,也就是人工智能(AI)、生物智能(BI)、计算智能(CI)有无限光明。希望我们共同牢记初心、不负使命、砥砺前行,认认真真、扎扎实实做学问。
2021-12-12
文章插图
2021-12-25
文章插图
2021-12-29
文章插图
- 算法|千人千面的算法,走到了十字路口
- 千人千面的算法,走到了十字路口
- CPU|从2599元跌至1669元,3200万+30倍变焦,一亿像素手机重回低价
- 三星|三星S22Ultra拍照有多牛?看看夜景及长焦实测!
- 算法|你必须明白:战略是有逻辑的!
- 全面屏|四款重磅机型已在路上,连续光学变焦、海思麒麟、真全面屏均在内
- 阿里巴巴|买M5就是看中,它用电子取景器的时候,还可以用触摸屏移动焦点
- 杀熟|2022,算法推荐的野蛮生长时代快结束了
- 摩托罗拉|友商再次爆发,50倍变焦+骁龙870+144Hz高刷屏,到手价仅1699元
- 算法|效率低下的方式,如何更有效地吸收信息?