Top Qs
Chronologie
Chat
Contexte
Apprentissage profond
ensemble de méthodes d'apprentissage automatique De Wikipédia, l'encyclopédie libre
Remove ads
L'apprentissage profond[1],[2] ou apprentissage en profondeur[1] (en anglais : deep learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux artificiels formant de nombreuses couches pour résoudre des tâches complexes. L'apprentissage profond permet des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel, notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage. Les développements de l'apprentissage profond sont rendus possibles par des investissements privés et publics importants, notamment de la part des GAFAM (Google, Apple, Facebook, Amazon, Microsoft)[3], durant les années 2000.
Remove ads
Définition
Résumé
Contexte
Pour créer un modèle informatique prédictif de manière classique, on modélise les données par extraction de caractéristiques, cette dernière étant souvent effectuée au moyen d'un algorithme. Selon la méthode de l'apprentissage profond, l'extraction de caractéristiques résulte elle-même d'un processus d'apprentissage : on parle donc d'apprentissage de représentations. En pratique, la machine apprend des représentations hiérarchisées, souvent dans les couches cachées de réseaux de neurones artificiels, chacune étant définie à partir de représentations plus simples[DLB2016 1]. Ces représentations étant apprises directement à partir des données, cela évite que les humains aient à expliciter la manière de les construire au moyen d'un algorithme. Si l'on représente la manière dont ces représentations sont construites les unes à partir des autres au moyen d'un graphe, celui-ci contiendra de multiples couches, justifiant ainsi la qualification de « profond ».


Remove ads
Historique
Résumé
Contexte
L'apprentissage profond est considéré comme « la troisième vague » de développement, après le « cybernétique » des années 1940-1960 puis le « connexionniste » des années 1980, chacun ayant été suivi par un hiver de l'intelligence artificielle[DLB2016 2]. Le concept d'apprentissage profond prend forme dans les années 2010, avec la convergence de trois facteurs[DLB2016 3] :
- des avancées théoriques, notamment dues à Geoffrey Hinton, qui a proposé des approches de pré-entraînement permettant d'apprendre des architectures profondes[DLB2016 4] ;
- le phénomène de Big data, qui a permis la mise à disposition de volumes colossaux de données numériques, nécessaires pour apprendre les architectures profondes[DLB2016 5] ;
- l'avènement du GPGPU, consistant a effectuer des calculs génériques et utiles pour l'apprentissage d'architectures profondes au moyen de processeurs graphiques qui accélèrent les calculs[DLB2016 6].
En 2012, le modèle AlexNet, conçu par Alex Krizhevsky, Ilya Sutskever et leur directeur de thèse Geoffrey Hinton[4], obtient les meilleures performances à la campagne d'évaluation internationale ImageNet de reconnaissance d'images. Le réseau surpasse largement le deuxième[5] et popularise ainsi les approches par apprentissage profond en vision par ordinateur.
En 2015, le programme AlphaGo, un modèle neuronal profond qui a « appris » à jouer au jeu de go grâce à l'apprentissage par renforcement, bat le champion européen Fan Hui[6] par cinq parties à zéro. En , le même programme bat le champion du monde Lee Sedol par 4 parties à 1[7]. Ces matches ont eu un fort retentissement dans le grand public, en particulier en Asie.
En 2017, à la conférence NIPS, des chercheurs travaillant pour la plupart dans des équipes de recherche de Google proposent l'architecture transformeur[8], qui servira peu de temps après de base aux grands modèles de langage. L'année suivante, l'entreprise propose le modèle BERT, basée sur la partie « encodeur » du transformeur. Ce modèle de langage permettra une amélioration significative des performances en traitement automatique des langues. La même année, OpenAI propose le modèle GPT, qui est pour sa part fondé sur la partie « décodeur » des transformeurs.
En 2018, Yann Le Cun, Yoshua Bengio et Geoffrey Hinton sont récipiendaires du prix Turing « Pour les percées conceptuelles et techniques qui ont fait des réseaux neuronaux profonds une composante essentielle de l'informatique[9] ».
En 2019, OpenAI publie GPT-2, un modèle de fondation capable de générer du texte. Tout en exprimant leurs inquiétudes sur les détournements possibles de ce type de technologie, les chercheurs de l'association renoncent à partager la version complète[10].
Remove ads
Domaines d'application
Résumé
Contexte
L'apprentissage profond s'applique à divers secteurs des NTIC, notamment :
- en vision par ordinateur, la reconnaissance de formes visuelles, par exemple la reconnaissance d'un panneau de signalisation par un robot ou une voiture autonome[11], ou la reconnaissance d'emplacements dans une image en combinant ses caractéristiques, comme un lit, une fenêtre et des affiches peuvent indiquer une chambre[12]. Elle aide à prédire certaines propriétés (ex. : les propriétés d'un sol filmé par un robot[13]) ;
- la reconnaissance ou la comparaison de formes[14] ou d'objets hautement déformables[15] ;
- l'analyse de mouvements et positions des doigts d'une main, ce qui peut être utile pour traduire les langues signées[16] ;
- le positionnement automatique d'une caméra, etc.[17] ;
- la télédétection (notamment en imagerie satellitaire)[18].
- l'art numérique, l'histoire de l'art ; par exemple la création d'œuvres artistiques à partir d'une photo[19] ;
- la reconnaissance automatique de la parole ou la reconnaissance vocale de voix humaine ou de signaux sonores[20] ;
- la robotique ;
- la sécurité ;
- la pédagogie assistée par l'informatique[21] ;
- l'intelligence artificielle en général ;
- des jeux de société complexes (échecs, go, shogi) ;
- le traitement automatique du langage naturel et en particulier la traduction automatique (moteurs tels que Google traduction, DeepL, Pons)[source secondaire nécessaire] ;
- l'analyse d'émotions révélées par un visage photographié ou filmé[22].
- la bio-informatique[23],[24],[25].
Dans le système de santé, l'apprentissage profond peut aussi[3] :
- poser, dans certains cas (à partir de l'imagerie médicale notamment), un diagnostic médical (ex. : reconnaissance automatique d'un cancer en imagerie médicale[26], mélanome notamment[27] ; détection automatique de la maladie de Parkinson (par la voix)[28] ; diagnostic d'une rétinopathie[29], de métastases de cancer du sein[30] et d'autres problèmes biomédicaux[31], classer les arythmies cardiovasculaires[32], pronostics[33], et prédiction de mortalité hospitalière ainsi que de réadmissions aux urgences[34]. L'apprentissage profond peut aussi améliorer le soin médical[35],[36].
Une application du deep learning en santé publique est le projet Horus[37], un appareil portable utilisant la plate-forme NVidia Jetson, qui aide les mal-voyants ou les aveugles à s'orienter et à reconnaître des personnes ou des objets, en retranscrivant en audio une image captée par une caméra. Des liens entre l'apprentissage profond et la théorie de jeux ont été établis par Hamidou Tembine en utilisant notamment des jeux de type champ moyen[38] ; - pratiquer la bioinformatique[39], par exemple pour l'étude de l'ADN[24] et des segments non codants du génome[23], ou encore la cytométrie[40].
En physique, l'apprentissage profond est utilisé pour la recherche sur les particules exotiques[41].
Remove ads
Réactions
Sont pointés de possibles usages malveillants de l'apprentissage profond. Il est devenu possible avec les hypertrucages d'incruster le visage d'une personne sur une autre, à son insu, et de lui faire faire ou dire des choses qu'elle n'a pas faites (comme dans le film Running Man de 1986), l'apprentissage profond recréant les mouvements du visage en rendant l'incrustation ressemblante. Ainsi, plusieurs actrices comme Gal Gadot, Emma Watson, Cara Delevingne, Emma Stone, Natalie Portman ou Scarlett Johansson se sont retrouvées avec leur visage incrusté sur celui d'une actrice pornographique, soulevant des craintes quant à la généralisation d'un tel usage, permettant à n'importe qui de nuire à la réputation d'une autre personne[42]. Face à ce danger, plusieurs plates-formes telles que Pornhub, Twitter et Reddit ont réagi en interdisant la publication de telles vidéos, et l'utilisateur « deepfakes », créateur du logiciel éponyme permettant à tout usager de créer des fausses vidéos à caractère pornographique, a été banni de Reddit et son fil dédié supprimé[43].
Remove ads
Notes et références
Voir aussi
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads