论出名,肯定是Hinton排第一,论成就确实应该排第二。 Geoffrey Hinton是谷歌副总裁兼工程研究员,矢量研究所首席科学顾问,多伦多大学名誉教授。Hinton获得剑桥大学实验心理学学士学位和爱丁堡大学人工智能博士学位。他是CIFAR神经计算和自适应感知(后来的机器和大脑学习)项目的创始主任。 Hinton的荣誉包括加拿大勋章获得者(加拿大最高荣誉)、英国皇家学会院士、美国国家工程院外籍院士、国际人工智能联合会议(IJCAI)卓越研究奖、NSERC赫兹伯格金奖和IEEE James Clerk Maxwell金奖。他还被《连线》杂志评选为“《连线》100-2016年最具影响力人物”,并被彭博社评选为2017年改变全球商业格局的50人。 反向传播:在1986年与David Rumelhart和Ronald Williams合著的一篇论文《通过错误传播学习内部表示》中,Hinton证明了反向传播算法允许神经网络发现自己的数据内部表示,从而有可能使用神经网络解决以前被认为无法解决的问题。反向传播算法是当今大多数神经网络的标准算法。 玻尔兹曼机器:1983年,Hinton与Terrence Sejnowski一起发明了玻尔兹曼机器,这是最早能够学习非输入或输出神经元内部表征的神经网络之一。 卷积神经网络的改进:2012年,Hinton与他的学生Alex Krizhevsky和Ilya Sutskever一起,使用校正的线性神经元和丢弃正则化改进了卷积神经网络。在著名的ImageNet竞赛中,Hinton和他的学生几乎将物体识别的错误率减半,并重塑了计算机视觉领域。 Backpropagation: In a 1986 paper, “Learning Internal Representations by Error Propagation,” co-authored with David Rumelhart and Ronald Williams, Hinton demonstrated that the backpropagation algorithm allowed neural nets to discover their own internal representations of data, making it possible to use neural nets to solve problems that had previously been thought to be beyond their reach. The backpropagation algorithm is standard in most neural networks today. Boltzmann Machines: In 1983, with Terrence Sejnowski, Hinton invented Boltzmann Machines, one of the first neural networks capable of learning internal representations in neurons that were not part of the input or output. Improvements to convolutional neural networks: In 2012, with his students, Alex Krizhevsky and Ilya Sutskever, Hinton improved convolutional neural networks using rectified linear neurons and dropout regularization. In the prominent ImageNet competition, Hinton and his students almost halved the error rate for object recognition and reshaped the computer vision field. |
说点什么...