Yoshua Bengio是蒙特利尔大学的教授,也是Mila(魁北克人工智能研究所)和IVADO(数据价值化研究所)的科学主任。他(与Yann LeCun)是CIFAR机器与大脑学习项目的联合主任。Bengio在麦吉尔大学获得了电气工程学士学位、计算机科学硕士学位和计算机科学博士学位。 Bengio的荣誉包括被任命为加拿大勋章官员、加拿大皇家学会院士和玛丽·维克托林奖。他在创建和担任魁北克人工智能研究所(Mila)科学主任方面的工作也被公认为对该领域的重大贡献。米拉是一个独立的非营利组织,目前有300名研究人员和35名教职员工。它是世界上最大的深度学习研究学术中心,并帮助蒙特利尔成为一个充满活力的人工智能生态系统,拥有来自大公司和人工智能初创公司的研究实验室。 序列概率模型:在20世纪90年代,Bengio将神经网络与序列概率模型(如隐马尔可夫模型)相结合。这些想法被纳入AT&T/NCR用于读取手写支票的系统中,被认为是20世纪90年代神经网络研究的巅峰,现代深度学习语音识别系统正在扩展这些概念。 高维单词嵌入和注意力:2000年,Bengio撰写了具有里程碑意义的论文《神经概率语言模型》,该论文引入了高维单词嵌入式作为单词含义的表示。Bengio的见解对自然语言处理任务产生了巨大而持久的影响,包括语言翻译、问答和视觉问答。他的团队还引入了一种注意力机制,这导致了机器翻译的突破,并形成了深度学习的顺序处理的关键组成部分。 生成对抗性网络:自2010年以来,Bengio关于生成深度学习的论文,特别是与Ian Goodfellow开发的生成对抗性网(GANs),引发了计算机视觉和计算机图形学的革命。在这项工作的一个引人入胜的应用中,计算机实际上可以创建原始图像,让人想起被认为是人类智慧标志的创造力。 怪不得在图灵奖中排第一! Backpropagation: In a 1986 paper, “Learning Internal Representations by Error Propagation,” co-authored with David Rumelhart and Ronald Williams, Hinton demonstrated that the backpropagation algorithm allowed neural nets to discover their own internal representations of data, making it possible to use neural nets to solve problems that had previously been thought to be beyond their reach. The backpropagation algorithm is standard in most neural networks today. Boltzmann Machines: In 1983, with Terrence Sejnowski, Hinton invented Boltzmann Machines, one of the first neural networks capable of learning internal representations in neurons that were not part of the input or output. Improvements to convolutional neural networks: In 2012, with his students, Alex Krizhevsky and Ilya Sutskever, Hinton improved convolutional neural networks using rectified linear neurons and dropout regularization. In the prominent ImageNet competition, Hinton and his students almost halved the error rate for object recognition and reshaped the computer vision field. |
说点什么...