Les 20 articles les plus influents en IA


Chaque année, des milliers d'articles de recherche sont publiés dans le domaine de l'intelligence artificielle, de l'apprentissage automatique et de la vision par ordinateur. Mais seulement quelques-uns ont transformé le domaine de l'IA de manière significative. Ci-dessous se trouve une liste sélectionnée des 20 articles les plus influents dans le domaine de l'IA, classés par ordre chronologique.

1. Computing Machinery and Intelligence

Alan Turing - 1950


Pourquoi c'est influent:


Ce document a introduit le concept du test de Turing, qui est encore largement utilisé comme référence pour évaluer l'intelligence des systèmes d'IA.

2. Perceptrons

Marvin Minsky and Seymour Papert - 1969


Pourquoi c'est influent:


Ce document a analysé les limites de l'algorithme du perceptron pour la reconnaissance de motifs et a contribué à motiver le développement de modèles de réseaux neuronaux plus puissants.

3. The Unreasonable Effectiveness of Mathematics in the Natural Sciences

Eugene Wigner - 1960


Pourquoi c'est influent:


Ce document a exploré l'idée que les mathématiques sont un outil incroyablement puissant pour comprendre le monde naturel et a posé les bases de l'utilisation des méthodes mathématiques en IA.

4. A Theory of the Learnable

Leslie Valiant - 1984


Pourquoi c'est influent:


Ce document a introduit la théorie de la complexité computationnelle de l'apprentissage, fournissant une base mathématique pour l'analyse des algorithmes d'apprentissage automatique.

5. A Connectionist Model of Visual Processing

David Rumelhart, James McClelland, and the PDP Research Group - 1986


Pourquoi c'est influent:


Ce livre a introduit le cadre de traitement distribué en parallèle (PDP) pour les réseaux neuronaux et a démontré sa capacité à apprendre des tâches de reconnaissance visuelle.

6. Backpropagation Applied to Handwritten Zip Code Recognition

Yann LeCun, Bernhard Boser, John S. Denker, Donnie Henderson, Richard E. Howard, Wayne Hubbard, and Lawrence D. Jackel - 1989


Pourquoi c'est influent:


Ce document a introduit l'utilisation de la rétropropagation, un algorithme d'entraînement de réseau neuronal largement utilisé, pour la reconnaissance de chiffres manuscrits.

7. Support-vector networks

Corinna Cortes and Vladimir Vapnik - 1995


Pourquoi c'est influent:


Ce document a introduit l'algorithme de machine à vecteurs de support (SVM), qui est une méthode puissante pour les tâches de classification et de régression.

8. A Few Useful Things to Know About Machine Learning

Pedro Domingos - 1997


Pourquoi c'est influent:


Ce document fournit une introduction accessible aux principes de base de l'apprentissage automatique et est souvent recommandé comme point de départ pour les nouveaux venus dans le domaine.

9. A Fast Learning Algorithm for Deep Belief Nets

Geoffrey Hinton, Simon Osindero, and Yee-Whye Teh - 2006


Pourquoi c'est influent:


Ce document a introduit le modèle de réseau de croyances profondes (DBN), qui est un type de réseau neuronal capable d'apprentissage non supervisé. Ce document a été influent dans le développement de l'apprentissage profond.

10. Deep Sparse Rectifier Neural Networks

Xavier Glorot, Antoine Bordes, and Yoshua Bengio - 2011


Pourquoi c'est influent:


Ce document a introduit la fonction d'activation rectifiée linéaire (ReLU), qui est maintenant largement utilisée dans les réseaux neuronaux profonds.

11. ImageNet Classification with Deep Convolutional Neural Networks

Alex Krizhevsky, Ilya Sutskever, and Geoffrey Hinton - 2012


Pourquoi c'est influent:


Ce document a introduit l'architecture AlexNet, qui était le premier réseau neuronal convolutif profond à atteindre des performances de pointe sur le banc d'essai de reconnaissance d'images ImageNet.

12. Playing Atari with Deep Reinforcement Learning

Volodymyr Mnih et al. - 2013


Pourquoi c'est influent:


Ce document a introduit une percée dans l'apprentissage par renforcement profond en montrant qu'un réseau neuronal pouvait apprendre à jouer à des jeux Atari à un niveau surhumain en utilisant uniquement des données de pixels bruts en entrée.

13. Deep Residual Learning for Image Recognition

Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun - 2016


Pourquoi c'est influent:


Ce document a introduit les réseaux neuronaux résiduels, qui sont devenus l'architecture de pointe pour de nombreuses tâches de vision par ordinateur.

14. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova - 2018


Pourquoi c'est influent:


Ce document a introduit le modèle BERT, un modèle de langage pré-entraîné qui a atteint des performances de pointe sur de nombreuses tâches de traitement du langage naturel.

15. Generative Pretraining from Pixels

Alec Radford, Luke Metz, and Soumith Chintala - 2016


Pourquoi c'est influent:


Ce document a introduit le réseau génératif antagoniste convolutif profond (DCGAN), un modèle génératif capable de générer des images réalistes.

16. AlphaGo Zero

David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Fan Hui, Laurent Sifre, George van den Driessche, Thore Graepel, and Demis Hassabis - 2017


Pourquoi c'est influent:


Ce document a introduit AlphaGo Zero, un système d'IA capable d'apprendre à jouer au jeu de Go à partir de zéro, atteignant des performances surhumaines sans intervention humaine.

17. Attention Is All You Need

Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin - 2017


Pourquoi c'est influent:


Ce document a introduit le modèle Transformer, une architecture de réseau neuronal qui peut traiter des séquences de longueur variable avec un calcul parallèle, qui a été utilisée pour une variété de tâches de traitement du langage naturel.

18. Neural Ordinary Differential Equations

Ricky T. Q. Chen, Yulia Rubanova, Jesse Bettencourt, and David K. Duvenaud - 2018


Pourquoi c'est influent:


Ce document a introduit le modèle d'équation différentielle ordinaire (ODE) neuronale, un modèle en temps continu qui peut apprendre la dynamique d'un système à partir de ses observations, qui a des applications en physique, en contrôle et dans d'autres domaines.

19. Unsupervised Learning of Visual Features by Contrasting Cluster Assignments

Mathilde Caron, Piotr Bojanowski, Armand Joulin, and Matthijs Douze - 2018


Pourquoi c'est influent:


Ce document a introduit le cadre SimCLR pour l'apprentissage non supervisé de représentations visuelles, qui a atteint des performances de pointe sur plusieurs tâches de classification d'images.

20. GPT-2: Language Models are Unsupervised Multitask Learners

Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever - 2019


Pourquoi c'est influent:


Ce document a introduit le modèle de langage GPT-2, qui peut générer un texte cohérent dans une variété de styles et de sujets, et a été utilisé pour une gamme de tâches de traitement du langage naturel.