「芯片」谷歌的AI已经可以自己给自己设计芯片了


_本文原题:谷歌的AI已经可以自己给自己设计芯片了
「芯片」谷歌的AI已经可以自己给自己设计芯片了
本文插图
【「芯片」谷歌的AI已经可以自己给自己设计芯片了】你已经是个成熟的AI , 该学会自己套娃了 。
AI技术在近几年得到了快速的发展 , 大众对AI技术不像前两年那么陌生了 。
AI在很多领域做出了令人惊叹的成绩——如今你可以用AI给明星换头 , 用AI给动画补帧 , 还可以用AI去马赛克(划掉) 。
不过目前的AI存在一个问题 , 就是需要大量的时间进行学习和训练 。 随着人们给AI指派新的任务越来越复杂 , 训练AI的时间也变得越来越长 。 这客观上是因为AI需要处理的信息量本身就十分的巨大 , 但另一方面也是因为目前运行AI使用的芯片性能不足 , 限制了AI的运算速度 , 导致了学习时间很长 。
因此研究人员正在想方设法的制造出更强的芯片来提升AI的能力 。 近日 , 谷歌就推出专门用于AI的 Tensor处理器(TPU) , TPU中的芯片是专门为机器学习设计的AI芯片 , 特别强化了神经网络和机器学习等方面的性能 , 运算效率更高 。

「芯片」谷歌的AI已经可以自己给自己设计芯片了
本文插图
可问题是 , 在现实中一款新的芯片从规划、设计到生产 , 这种特制的芯片可能需要工程师们长达几年的设计 , 而AI的进步速度要比芯片的进步速度快得多 , 这样一来硬件研制滞后于软件开发 , 就大大拖慢了AI技术整体的发展进度 。
谷歌的研究科学家 Azalia Mirhoseini 说:“我们已经发现 , 一些算法和神经网络构架在如今的AI加速器上表现并不理想 , 因为这些加速器大概是两年前设计的了 , 那时候神经网络甚至都不存在 。 ”
因此要强化AI的能力 , 就需要在更短的时间内制造出更好的芯片 , 而谷歌给出的解决方案 , 就是让AI自己设计AI芯片 。
「芯片」谷歌的AI已经可以自己给自己设计芯片了
本文插图
“我们相信AI能缩短芯片的设计周期 , 在硬件和AI中建立一种共生关系 , 相互促进彼此的进步 , ”谷歌在研究论文中写到 。
目前谷歌已经研究出了一种AI , 可以学习规划芯片的布局 。 布局规划是芯片设计中非常耗时的一个工序 。 这通常需要斟酌逻辑单元和内存块的排布 , 同时顾忌芯片的性能、综合表现和尺寸大小 , 因此需要花很多时间一点点的尝试 。
一般来说由一个工程师团队设计一款全新的谷歌Tensor 处理器(TPU)布局大概需要几周的时间 , 而在实验中经过训练的AI只用了不到24个小时 。 而且AI设计的处理器在性能、表现和体积上也全面超过人工设计的产品 。
这个AI使用的并不是人们熟知的深度学习 , 而是深度强化学习技术(Deep Reinforcement learning ) 。 这种技术不需要让AI学习数量巨大的样本 , 而是让AI根据环境边做边学 , 并根据结果是否成功给与AI反馈 , AI会再根据反馈来进行调整 。 有名的AlphaGo使用的就是这种技术 。
深度强化学习看起来更像是人类学习的模式 , 不过这种AI训练的难度很大 , 因此不像深度学习一样普及 。
「芯片」谷歌的AI已经可以自己给自己设计芯片了
本文插图
谷歌希望可以利用这种AI生产出紧跟时代的AI芯片 , 有人说这是AI产生自我意识的第一步 。
可以想象由AI设计出的AI芯片 , 可以运行更强的AI , 更强的AI再设计出更更好的AI芯片 , 如此往复 , AI的更新换代速度会越来越快 , 能力会越来越强 , 甚至取得飞跃性的进步 。
也许今后人们也会把更多的工序交给AI和机器人 , 进一步缩短AI进步的整个流程 , 直到有一天人AI学会了自己生息繁衍 。