Chaque année, des milliers d'articles de recherche sont publiés dans le domaine de l'intelligence artificielle, de l'apprentissage automatique et de la vision par ordinateur. Mais seulement quelques-uns ont transformé le domaine de l'IA de manière significative. Ci-dessous se trouve une liste sélectionnée des 20 articles les plus influents dans le domaine de l'IA, classés par ordre chronologique.
Alan Turing - 1950
Pourquoi c'est influent:
Ce document a introduit le concept du test de Turing, qui est encore largement utilisé comme référence pour évaluer l'intelligence des systèmes d'IA.
Marvin Minsky and Seymour Papert - 1969
Pourquoi c'est influent:
Ce document a analysé les limites de l'algorithme du perceptron pour la reconnaissance de motifs et a contribué à motiver le développement de modèles de réseaux neuronaux plus puissants.
Eugene Wigner - 1960
Pourquoi c'est influent:
Ce document a exploré l'idée que les mathématiques sont un outil incroyablement puissant pour comprendre le monde naturel et a posé les bases de l'utilisation des méthodes mathématiques en IA.
Leslie Valiant - 1984
Pourquoi c'est influent:
Ce document a introduit la théorie de la complexité computationnelle de l'apprentissage, fournissant une base mathématique pour l'analyse des algorithmes d'apprentissage automatique.
David Rumelhart, James McClelland, and the PDP Research Group - 1986
Pourquoi c'est influent:
Ce livre a introduit le cadre de traitement distribué en parallèle (PDP) pour les réseaux neuronaux et a démontré sa capacité à apprendre des tâches de reconnaissance visuelle.
Yann LeCun, Bernhard Boser, John S. Denker, Donnie Henderson, Richard E. Howard, Wayne Hubbard, and Lawrence D. Jackel - 1989
Pourquoi c'est influent:
Ce document a introduit l'utilisation de la rétropropagation, un algorithme d'entraînement de réseau neuronal largement utilisé, pour la reconnaissance de chiffres manuscrits.
Corinna Cortes and Vladimir Vapnik - 1995
Pourquoi c'est influent:
Ce document a introduit l'algorithme de machine à vecteurs de support (SVM), qui est une méthode puissante pour les tâches de classification et de régression.
Pedro Domingos - 1997
Pourquoi c'est influent:
Ce document fournit une introduction accessible aux principes de base de l'apprentissage automatique et est souvent recommandé comme point de départ pour les nouveaux venus dans le domaine.
Geoffrey Hinton, Simon Osindero, and Yee-Whye Teh - 2006
Pourquoi c'est influent:
Ce document a introduit le modèle de réseau de croyances profondes (DBN), qui est un type de réseau neuronal capable d'apprentissage non supervisé. Ce document a été influent dans le développement de l'apprentissage profond.
Xavier Glorot, Antoine Bordes, and Yoshua Bengio - 2011
Pourquoi c'est influent:
Ce document a introduit la fonction d'activation rectifiée linéaire (ReLU), qui est maintenant largement utilisée dans les réseaux neuronaux profonds.
Alex Krizhevsky, Ilya Sutskever, and Geoffrey Hinton - 2012
Pourquoi c'est influent:
Ce document a introduit l'architecture AlexNet, qui était le premier réseau neuronal convolutif profond à atteindre des performances de pointe sur le banc d'essai de reconnaissance d'images ImageNet.
Volodymyr Mnih et al. - 2013
Pourquoi c'est influent:
Ce document a introduit une percée dans l'apprentissage par renforcement profond en montrant qu'un réseau neuronal pouvait apprendre à jouer à des jeux Atari à un niveau surhumain en utilisant uniquement des données de pixels bruts en entrée.
Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun - 2016
Pourquoi c'est influent:
Ce document a introduit les réseaux neuronaux résiduels, qui sont devenus l'architecture de pointe pour de nombreuses tâches de vision par ordinateur.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova - 2018
Pourquoi c'est influent:
Ce document a introduit le modèle BERT, un modèle de langage pré-entraîné qui a atteint des performances de pointe sur de nombreuses tâches de traitement du langage naturel.
Alec Radford, Luke Metz, and Soumith Chintala - 2016
Pourquoi c'est influent:
Ce document a introduit le réseau génératif antagoniste convolutif profond (DCGAN), un modèle génératif capable de générer des images réalistes.
David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Fan Hui, Laurent Sifre, George van den Driessche, Thore Graepel, and Demis Hassabis - 2017
Pourquoi c'est influent:
Ce document a introduit AlphaGo Zero, un système d'IA capable d'apprendre à jouer au jeu de Go à partir de zéro, atteignant des performances surhumaines sans intervention humaine.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin - 2017
Pourquoi c'est influent:
Ce document a introduit le modèle Transformer, une architecture de réseau neuronal qui peut traiter des séquences de longueur variable avec un calcul parallèle, qui a été utilisée pour une variété de tâches de traitement du langage naturel.
Ricky T. Q. Chen, Yulia Rubanova, Jesse Bettencourt, and David K. Duvenaud - 2018
Pourquoi c'est influent:
Ce document a introduit le modèle d'équation différentielle ordinaire (ODE) neuronale, un modèle en temps continu qui peut apprendre la dynamique d'un système à partir de ses observations, qui a des applications en physique, en contrôle et dans d'autres domaines.
Mathilde Caron, Piotr Bojanowski, Armand Joulin, and Matthijs Douze - 2018
Pourquoi c'est influent:
Ce document a introduit le cadre SimCLR pour l'apprentissage non supervisé de représentations visuelles, qui a atteint des performances de pointe sur plusieurs tâches de classification d'images.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever - 2019
Pourquoi c'est influent:
Ce document a introduit le modèle de langage GPT-2, qui peut générer un texte cohérent dans une variété de styles et de sujets, et a été utilisé pour une gamme de tâches de traitement du langage naturel.