芯片|AI比人类更懂芯片设计?( 二 )


许多人都支持Steven Woo的这一观点。西门子IC设计部门工程总监约翰.史纳比表示:“人工智能将使得芯片设计流程进一步自动化,尤其是在芯片布局的设计过程中。实践已经证明,在模拟电路中采用机器学习方案可以提高生产力。在布局设计上,AI可以用于生成FinFET节点中的最佳器件布局建议,以最大程度的减少互连寄生效应。当芯片设计涉及加速度计和陀螺仪等微机电系统时,AI能够参与参数化的设计流程,以与人类合作设计IC和MEMS器件。这将使得设计人员能够更快完成MEMS、IC的软硬件集成,使设计工作变得更加轻松。”
人工智能如何学习?
AI“智能”的基础是它可以在短时间内进行大量的识别和匹配工作,但遗憾的是AI并不能像人类一样“学习”知识。事实上,人工智能获取知识的方式和人类有着本质的不同。一般来讲,在算法应用之前需要将包含了大量数据的训练集或输入到算法初始模型中进行训练。在经过长时间训练之后,算法才能算得上拥有了“智能”。
(雷峰网编者注:AI的“智能”来自于其在数据集中进行大量尝试和策略调整而得到的不同情况下的最优解。在实际生产遇到的新场景中AI将这些最优解策略与实际情况进行匹配,从而得出相对实际场景最优的答案。这里举个例子来解释人工智能学习和人类学习过程的不同:人类可以在课堂上记住“1+1=2”的结论,并将其应用到“一个苹果旁边摆上另一个苹果”的场景中,从而得到“这里有两个苹果”的结论。而人工智能的学习过程则更像猩猩:通过两次将单个苹果摆在面前数出两个苹果,并将这一过程重复成千上万次。猩猩就可以在下一次面对“一个香蕉旁边摆着另一个香蕉”的场景时,得到“面前有两个香蕉”的结论。)
此外,人工智能还可利用强化学习方法(RL)来指导训练结果。RL是一种机器学习技术,可以为AI的学习过程加入奖惩机制。
在一个引入了奖惩机制模型的人工智能算法中,AI的学习总是从初始状态开始,并会输出一些随机结果。然后设计师会对该结果做出判断,当该结果被接受时,将视为对模型进行了“奖励”,模型会继续向着这个趋势进行优化。相反的,当该结果被设计师拒绝时,将视为对该模型的“惩罚”。模型会调整策略方向。无论是设计师拒绝还是接受该结果,算法模型都会进入在调整后进行下一次迭代,并输出新的结果以让设计师接受或拒绝。因此随着RL学习过程的持续进行,人工智能算法将会变得越来越完善。
西门子工业软件高级副总裁兼总经理Ravi Subramanian为机器学习进一步做了解释:“机器学习是人工智能的一个子集,指的是机器无需外部编程实现自我进化的过程。传统设备的运行规则遵循计算机语言中if-then-else语句的‘二极管’逻辑和线性顺序。但机器学习方法能够使设备不断从自身采集到的数据中获得反馈,从而指导设备下一步的行动。”
Subramanian表示,要让AI进行学习,需要三个前提条件:
其一是需要一个数据集,即一个包含了大量数据的库。数据可以是RTLIP、GDSII、C语言或SPICE表格等多种形式。(雷峰网编者注:数据集就是人工智能算法的初始输入,将数据集输入算法相当于给AI“例题”进行学习)
其二是需要一个算法模型。这个模型使得AI系统能够完成观测、学习、反馈等任务。基于这个前提使用了人工智能算法的设备才能根据每一次结果的输出动态调节自身策略,而不是和传统设备一样仅根据输入的程序运行。
其三是需要一个目标函数。并且设计一个围绕着这个目标函数的奖惩机制,以完成强化学习过程。(雷峰网编者注:目标函数是指一个规定“最优解”定义的函数。每次训练完成后,将会通过该函数输出一个返回值,一般称作τ,可以看做是算法每次“考试”后的分数。设计人员将会根据τ值与目标函数期望值的差距来决定对算法模型的奖惩)
“人工智能本身并不会做决定”,他解释说,“谷歌人工智能研究负责人Francois Chollet的说法很准确,他将人工智能定义为系统对数据进行分析后应用在陌生场景中的能力。”
汽车可以通过衡量每加仑油能行驶的里程或者每次充电后的最大行驶里程来衡量其续航优劣。但人工智能系统不同,每个人工智能系统的设计都是独一无二的,设计系统的工具也是各不相同的。但整个芯片行业都报告基于人工智能的芯片设计工具提高了生产力。
芯片|AI比人类更懂芯片设计?】例如,谷歌将人工智能应用于芯片布图规划,并发现他们可以在不到六个小时的时间里完成从前工程师动辄需要数月的工作。无论是人类还是人工智能,两者都可以通过PPA优化得到满足制造标准的芯片设计结果,但在生产流程中引入了人工智能的企业生产效率显然更高。