paris-singularity.fr
Réseaux neuronaux artificiels à mémoire : passé, présent et futur de l'IA - Paris Singularity
En août 2017, les cinq entreprises dont la valorisation est la plus importante sont Apple, Google, Microsoft, Facebook et Amazon. Elles utilisent toutes de façon intensive les réseaux neuronaux d’apprentissage en profondeur développés dans mes laboratoires en Allemagne et en Suisse depuis le début des années 1990, en particulier le réseau de neurones à mémoire à long terme (LSTM). Au début, le LSTM est stupide. Il ne sait rien. Mais il apprend par l’expérience. Son fonctionnement est inspiré par celui du cortex humain, dont chacun des plus de 15 milliards de neurones sont connectés à 10 000 autres neurones en moyenne. Des neurones en entrée alimentent le reste avec des données (son, vision, douleur). Des neurones en sortie déclenchent les muscles. D’autres neurones sont cachés entre les deux. Tous “apprennent” en modifiant les forces de connexion définissant comment les neurones s’influencent mutuellement. Le mode de fonctionnement de notre LTSM est similaire, un réseau neuronal récurrent artificiel (RNN), qui surpasse les méthodes précédentes dans de nombreuses applications. Ce dernier apprend à contrôler les robots, à analyser les images, à résumer les documents, à reconnaître les vidéos et l’écriture manuscrite, à lancer des robots de discussion, à prédire les maladies et l’évolution des marchés boursiers, à composer de la musique et [...]