Hinton : segundo autor del artículo que popularizó la propagación hacia atrás, inventó las máquinas de Boltzmann (junto con Sejnowski), inventó redes de creencias profundas, inventó la deserción, tuvo la idea de Alexnet, fue asesor de muchos otros pioneros, incluidos LeCun, Neal, Ghamramani, Salakhutdinov, Sutskever , Krizhevsky, Dal, etc., y realmente construyó a toda la comunidad desde cero con la financiación de CIFAR. Mi lejos, la persona más importante en el campo.
Lecun hizo que CNN funcionara con backprop (Fukushima inventó CNN pero no usó backprop), obtuvo los primeros buenos resultados en redes neuronales e hizo muchos trucos de ingeniería para que las cosas funcionaran. ICLR cofinanciado.
Bengio : una tonelada de trabajo teórico, y aunque no puede ser descrito con una palabra (como Hinton-backprop, LeCun-CNN), probablemente tenga la contribución más diversa en todo el campo, y tendrá dificultades para encontrar un tema en profundidad aprendiendo que Bengio no ha tocado. Asesor de Goodfellow, Courville, Vincent, Larochelle, Samy Bengio, etc.
Ng : trabajo pionero en el aprendizaje por refuerzo, cofundó Google Brain, que resultó con el papel ‘cat’ (probablemente solo superado por el papel de AlexNet en lo que respecta a la popularidad de los resultados), probablemente el primero en mencionar GPU en el contexto de profundidad aprendizaje, y más consejos de ingeniería que nadie más ha hecho. Asesor de Quoc Le y Adam Coates. Su curso Coursera podría haber inspirado a miles de personas a trabajar en el campo y eso debería contar mucho IMO.
Definitivamente tengo que incluir en la lista también a Juergen Schmidhuber , quien ha contribuido en el campo tanto como las otras personas que mencioné aquí, pero no es tan mencionado en virtud de no vivir en América del Norte. De todos modos, una larga historia corta (ya ves lo que hice allí), él (junto con su estudiante Hochreiter) hizo que RNN funcionara en la práctica desarrollando LSTM, mencionó y probó el gradiente de fuga antes de que Bengio (y ofreció la solución con LSTM), usara GPU para CNN antes de que fuera genial (papel de Ciresan et al.) Y desarrolló la CNN superior antes de AlexNet