【爱生活爱快乐爱自己】人工智能AI里程碑:计算机图形学


【爱生活爱快乐爱自己】人工智能AI里程碑:计算机图形学
本文插图
在过去的十年中 , 围绕人工智能的突破 , 投资和企业家活动的爆炸式增长完全由深度学习驱动 , 深度学习是一种复杂的统计分析技术 , 用于发现大量数据中的隐藏模式 。 1955年创造的一个术语(人工智能)被应用到(或错误地应用到了)深度学习 , 这是一种训练计算机执行某些任务的方法的更高级版本- 机器学习 , 这个术语是在1959年创造的 。
深度学习的最新成功是由于大量数据(大数据)的可用性增加以及图形处理单元(GPU)的出现 , 显着增加了用于训练计算机的数据的广度和深度 , 并减少了所需的时间用于训练深度学习算法 。
“大数据”一词最早出现在1997年10月由Michael Cox和David Ellsworth撰写的计算机科学文献中 , 该文章发表在IEEE第八届可视化会议论文集中 , “ 针对核心外可视化的应用程序控制的需求分页 ”。 他们写道:“可视化给计算机系统带来了一个有趣的挑战:数据集通常很大 , 这给主内存 , 本地磁盘甚至远程磁盘的容量增加了负担 。 我们称此为大数据问题。 当数据集不能容纳在主存储器(核心)中 , 或者甚至不能容纳在本地磁盘中时 , 最常见的解决方案是获取更多资源 。 ”该术语在学术界之外也曾使用过 。
SGI的创始人吉姆·克拉克(Jim Clark)于1974年在“计算机图形之父”伊万·萨瑟兰(Ivan Sutherland)的指导下在犹他大学完成了博士学位论文 。 克拉克后来创立了Netscape Communications , 其成功的网络浏览器和1995年的IPO引发了“互联网热潮” 。 蒂姆·伯纳斯·李(Tim Berners-Lee)在1989年发明了网络 , 并成功地使全世界数十亿人成为数字数据的消费者和创造者 , 这为数十亿广泛共享的数字图像(例如 , 将猫的照片识别为一只猫”) 。
2007年 ,普林斯顿大学的计算机科学家Fei-Fei Li和她的同事开始组装ImageNet , ImageNet是一个带注释的图像的大型数据库 , 旨在帮助视觉对象识别软件研究 。 五年后 , 即2012年10月 , 由多伦多大学研究人员设计的深度学习人工神经网络在ImageNet大规模视觉识别挑战赛中的错误率仅达到16% , 大大超过了25%的错误率 。 一年前最好的进入 , 预示着“人工智能”的兴起 。
大数据确实很大 。RJT Morris和BJ Truskowski在“ 存储系统的发展 ”一书中说 , 在1996年 , 数字存储在存储数据方面比在纸上更具成本效益 。 在2002年 , 数字信息存储首次超过了非数字存储 。 根据马丁·希尔伯特(Martin Hilbert)和普里西拉·洛佩兹(Priscila Lopez)的“世界存储 , 通信和计算信息的技术能力 ” , 在1986年至2007年之间 , 世界的信息存储能力以每年25%的复合年增长率增长 。 他们还估计 ,1986年 , 所有存储容量中有99.2%是模拟存储 , 但在2007年 , 有94%的存储容量是数字存储 , 这完全颠倒了角色 。
2000年10月 , 加州大学伯克利分校的Peter Lyman和Hal Varian发表了“ 多少信息?” , 这是第一个以计算机存储量来量化世界上每年创建的新信息和原始信息(不计算副本)总量的综合研究 。 1999年 , 全世界产生了1.5艾字节的原始数据 。 2007年3月 , John Gantz , David Reinsel和IDC的其他研究人员发布 了第一项研究 ,以估计和预测每年创建和复制的数字数据的数量-2006年为161艾字节 , 据估计 , 该数字将增加六倍 , 达到988艾字节 。2010年 , 或每18个月翻一番 。
信息爆炸(根据牛津英语词典的说法 , 该术语在1941年首次使用)已经变成了大型数字数据爆炸 。 但是 , 可用数据的数量只是使深度学习成功的两个催化剂之一 。 另一个是GPU 。
虽然深度学习算法的开发及其实际应用在1980年代和1990年代稳步发展 , 但它们受到计算机能力不足的限制 。 1986年10月 , David Rumelhart , Geoffrey Hinton和Ronald Williams出版了“ 通过反向传播错误学习表示法 ” , 其中描述了“一种新的学习过程 , 即反向传播 , 用于神经元样单元网络 , ”是一个概念性突破 。 在深度学习的发展中 。 三年后 , Yann LeCun和AT&T贝尔实验室的其他研究人员成功地应用了反向传播算法到多层神经网络 , 识别手写的邮政编码 。 但是鉴于当时的硬件限制 , 培训网络大约花了3天的时间(与以前的工作相比有很大的改进) 。