为什么要学AI技术

对首先来说AI目前是个宽泛的概念,更确切的说,我为什么会学习神经网络,首先神经网络不是一个新鲜事物,我记得我上大学时候2003年,我就在学校的图书馆借阅了一本,神经网络方面的书,我印象很深刻,但是顺其自然的经历了从入门到放弃的过程,从03年到19年,16年过去了。神经网络又再次的兴起了,关于机器学习和神经网络的兴衰历史。
1:1950开始一位名叫马文·明斯基(后被人称为“人工智能之父”)的大四学生与他的同学邓恩·埃德蒙一起,建造了世界上第一台神经网络计算机。这也被看做是人工智能的一个起点。巧合的是,同样是在1950年,被称为“计算机之父”的阿兰·图灵提出了一个举世瞩目的想法——图灵测试。
2:1956年人工智能迎来了属于它的第一段Happy Time。在这段长达十余年的时间里,计算机被广泛应用于数学和自然语言领域,用来解决代数、几何和英语问题。这让很多研究学者看到了机器向人工智能发展的信心。甚至在当时,有很多学者认为:“二十年内,机器将能完成人能做到的一切。”
3:70年代,人工智能进入了一段痛苦而艰难岁月。由于科研人员在人工智能的研究中对项目难度预估不足,不仅导致与美国国防高级研究计划署的合作计划失败,还让大家对人工智能的前景蒙上了一层阴影。与此同时,社会舆论的压力也开始慢慢压向人工智能这边,导致很多研究经费被转移到了其他项目上。
在当时,人工智能面临的技术瓶颈主要是三个方面,第一,计算机性能不足,导致早期很多程序无法在人工智能领域得到应用;第二,问题的复杂性,早期人工智能程序主要是解决特定的问题,因为特定的问题对象少,复杂性低,可一旦问题上升维度,程序立马就不堪重负了;第三,数据量严重缺失,在当时不可能找到足够大的数据库来支撑程序进行深度学习,这很容易导致机器无法读取足够量的数据进行智能化。
因此,人工智能项目停滞不前,但却让一些人有机可乘,1973年Lighthill针对英国AI研究状况的报告。批评了AI在实现“宏伟目标”上的失败。由此,人工智能遭遇了长达6年的科研深渊。
4:1980年,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。这是一种,采用人工智能程序的系统,可以简单的理解为“知识库+推理机”的组合,XCON是一套具有完整专业知识和经验的计算机智能系统。这套系统在1986年之前能为公司每年节省下来超过四千美元经费。有了这种商业模式后,衍生出了像Symbolics、Lisp Machines等和IntelliCorp、Aion等这样的硬件,软件公司。在这个时期,仅专家系统产业的价值就高达5亿美元。
5:人工智能第二次低谷:可怜的是,命运的车轮再一次碾过人工智能,让其回到原点。仅仅在维持了7年之后,这个曾经轰动一时的人工智能系统就宣告结束历史进程。到1987年时,苹果和IBM公司生产的台式机性能都超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。
为什么要学AI技术
以上的文字和图片,我摘录自(https://blog.****.net/ebzxw/article/details/80470053)。有兴趣的朋友可以去原文查看。
6:现在我们要讨论的问题是,为什么2013年之后神经网络会再次的兴起?这就要看看神经网络需要的几个要素,数据,算力,算法。只要是这些年经历了互联网发展的朋友们都会深刻的感受到,大数据的威力。“大数据”这个词是从2012年才引起关注的,之后搜索量便迅猛增长。为什么大数据这么受关注?看看下面的图就明白了。2004年,全球数据总量是30EB 。随后,2005年达到了50EB,2006年达到了161EB。到2015年,居然达到了惊人的7,900EB。到2020年,将达到35,000EB。这个规律,被称为新摩尔定律,即:人类有史以来的数据总量,每过18个月就会翻一番。
为什么要学AI技术
算力方面,尤其是GPU加入到神经网络之后,算力在爆炸性的增长,以我目前在测试的deepfakes为例6核心,每个核心3G赫兹,然后和P40 显卡作比较,显卡6分钟的算力相当于CPU11个小时的算力,也就是说新的硬件加持+并行算法的创新+神经网络本身算法的创新,解决了神经网络所需的三个必要资源。
数据有了,算力有了。不爆发还等什么呢?