InfoQ■谷歌最新论文:利用 AI 在六小时内设计一款芯片( 二 )


本文插图
图注:训练数据大小与性能调优
要完成代理训练 , 研究人员需要创建一套包含 10000 种芯片布局的数据集 , 其中的输入内容为匹配特定放置要求的具体状态 , 标签则为放置奖励(即导线长度与拥塞度) 。 为了创建这套数据集 , 研究人员们首先选择了一种不同的芯片排线表列 , 而后利用 AI 算法为每种表列生成 2000 种不同的布局 。
根据作者们的说明 , 他们在实验中发现 , 随着整体框架训练度的不断提升 , 训练速度开始持续加快并产出质量更高的结果 。 具体来看 , 与当前领先的基准水平相比 , 这项新技术在谷歌张量处理单元(TPU , 由谷歌定制设计的 AI 加速器芯片)设计中带来了非常出色的 PPA 指标 。
研究人员们总结道 , “与当前从零开始为每一款新芯片优化布局设计的方法不同 , 我们的工作能够利用以往芯片设计经验加快设计速度 , 并随时间推移不断强化设计质量 。 此外 , 我们的这种新方法也能够直接优化特定指标 , 例如导线长度、密度与拥塞度等等 , 这就摆脱了传统方法中硬性定义相关指标近似值的局限 。 这套新方案不仅极大降低了芯片设计中的成本控制难度 , 同时也帮助我们根据特定芯片的实际需求权衡不同指标的相对重要程度(例如时限优先或者功率上限) 。 ”
关注我并转发此篇文章 , 私信我“领取资料” , 即可免费获得InfoQ价值4999元迷你书!