Deep learning, Google et les startups : AI first

En moins de cinq ans, cette technologie d’apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l’intelligence artificielle (AI).

Pour comprendre le deep learning, il faut revenir sur l’apprentissage supervisé, une technique courante en AI, permettant aux machines d’apprendre. Concrètement, pour qu’un programme apprenne à reconnaître une voiture, par exemple, on le « nourrit » de dizaines de milliers d’images de voitures, étiquetées comme telles. Un « entraînement », qui peut nécessiter des heures, voire des jours. Une fois entraîné, il peut reconnaître des voitures sur de nouvelles images.

Le deep learning utilise lui aussi l’apprentissage supervisé, mais c’est l’architecture interne de la machine qui est différente : il s’agit d’un « réseau de neurones », une machine virtuelle composée de milliers d’unités (les neurones) qui effectuent chacune de petits calculs simples.
« La particularité, c’est que les résultats de la première couche de neurones vont servir d’entrée au calcul des autres », détaille Yann Ollivier, chercheur en IA au CNRS, spécialiste du sujet. Ce fonctionnement par « couches » est ce qui rend ce type d’apprentissage « profond ».

Yann Ollivier donne un exemple parlant :
« Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L’angle est à peu près de 45°. Pour reconnaître la présence d’une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S’il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l’oreille de chat. Et ainsi de suite. »

Lire l’intégralité de l’article
« Comment le deep learning révolutionne l’intelligence artificielle« , par Moragne Tual le monde.fr

En 2012, Google a surpris la communauté du Machine Learning en démontrant que son Google Brain était capable de découvrir, par lui-même, des concepts de haut niveau tel que des visages, des corps humains ou des images de chats, ceci en épluchant des millions d’images glanées sur YouTube.

Pourquoi en parle-t-on autant aujourd’hui ?
Sorti des labos de R&D depuis quelques années, le Deep Learning investit progressivement notre quotidien : la reconnaissance vocale de l’assistant Siri d’Apple, le tagging automatique de morceaux de musique, la synthèse vocale avancée, le légendage automatique d’images et même la conception de nouvelles molécules pharmaceutiques, toutes ces applications mettent aujourd’hui en œuvre des techniques de Deep Learning. Ce résultat est remarquable car jusque-là les techniques de reconnaissance d’images se basaient sur des approches dite supervisées, chaque image devant être explicitement désignée comme contenant un visage humain, une tête de chat etc. Le tour de force des équipes de Google a été de court-circuiter cette étape de labélisation manuelle (tagging).
L’enjeu pour Google est énorme car il s’agit ni plus ni moins que de faire passer à l’échelle ses algorithmes d’apprentissage en tirant parti de la manne d’images disponibles sur le web qui, dans leur immense majorité, ne sont évidemment pas tagguées.

Lire l’intégralité de l’article
« Le deep learning pas à pas : les concepts« , par Manuel Alves technologies-ebusiness.com

Au cours des dernières années, les start-ups spécialisées en deep learning se sont multipliées dans la Silicon Valley ; c’était même le buzz word de l’année 2016 dans les conversations.
Afin de renforcer son expertise, Google a mis la main sur l’éditeur français Moodstocks qui propose une technologie de reconnaissance d’images et d’objets pour terminaux mobiles qui pourra trouver des débouchés tant dans l’e-commerce que dans les arts.
En toute discrétion, Amazon a de son coté acquis Orbeus, une jeune pousse ayant aussi développée une technologie de reconnaissance d’images.
SAS a greffé du deep learning à sa plateforme Viya pour analyser des données stockées dans le cloud.
Le fabricant de puces Intel a racheté Nervana, une start-up qui développe du matériel et des logiciels pour l’apprentissage profond, tandis que Salesforce a racheté MetaMind, un éditeur de logiciels deep learning capables de traiter rapidement des masses d’images et de textes.

Voici 5 startups prometteuses qui méritent d’être suivies en 2017 :

Bay Labs, cap sur l’imagerie médicale
Bay Labs n’est qu’une des start-ups qui utilise l’apprentissage profond dans l’imagerie médicale. Mais, dans son équipe d’ingénierie, on trouve des gens comme Johan Mathe, qui a travaillé précédemment sur Project Loon de Google. Yann LeCun, directeur du groupe de recherche en intelligence artificielle de Facebook, a investi dans la start-up, de même que Khosla Ventures.

Cerebras Systems, après SeaMicro du deep learning
Cerebras est une mystérieuse start-up dirigée par Andrew Feldman, le même qui a vendu l’entreprise de microserveurs Arm SeaMicro à AMD pour 334 millions de dollars. La nouvelle jeune pousse d’Andrew Feldman développe du hardware IA, et selon une source proche, le tour de table organisé par la très réputée société de capital de risque Benchmark a permis de réunir plus de 20 millions de dollars.

Deep Vision, des puces dédiées au deep learning
Basée à Palo Alto, Deep Vision construit des puces basse consommation pour le deep learning. Pendant qu’ils étaient à Stanford, deux cofondateurs de la start-up, Rehan Hameed et Wajahat Qadeer, avaient coécrit un article remarqué sur un « multiprocesseur Convolution Engine ».

Graphcore, optimiser les échanges neuronaux
Graphcore a développé un accélérateur de traitement PCIe (IPU) que les réseaux neuronaux peuvent utiliser pour se former et livrer des conclusions. La start-up a également développé un logiciel capable de travailler avec son infrastructure en utilisant les frameworks d’apprentissage profond existants MXNet et TensorFlow. Parmi les investisseurs de Graphcore on trouve Bosch Venture Capital, Foundation Capital et Samsung Catalyst Fund.

ViSenze, de bons résultats en reconnaissance d’image
Fondée en 2012, ViSenze a obtenu de meilleurs résultats que d’autres concurrents dans certaines épreuves de la compétition de reconnaissance d’images ImageNet 2016. Financée par Rakuten Ventures, ViSenze est une émanation de NexT, un centre de recherche créé par l’Université Nationale de Singapour et l’Université Tsinghua de Chine. Son logiciel peut effectuer de la reconnaissance d’objets et du marquage d’images et de vidéos et délivrer un contenu visuellement similaire.

Comme l’a déclaré très justement le CEO de Google, Sundar Pichai, désormais la priorité est à l’AI – « AI first ».

Lire l’intégralité de l’article
« 5 startups en deep learning à suivre en 2017″, par Jean Elyan et Serge Leblal – lemondeinformatique.fr

Ressources complémentaires :
« Deep learning, ne nous y trompas pas, un ordinateur n’a pas d’idées« , par Luc de Brabandere, senior advisor au Boston Consulting Group – lesechos.fr

« Machine learning et deep learning, comment ca marche ?« , par Ludovic Louis siecledigital.fr

« Pourquoi le deep learning révolutionne l’intelligence artificielle ?« , par Toni Conde – bilan.ch

« Quand le deep learning permet aux aveugles d’écouter leur environnement« , par Reynald Fléchaux – silicon.fr

Crédit photo cover : creative commons/Michael Cordedda « Help. Message from artificial intelligence…« 

© 2019 A MarketPress.com Theme