Deep learning, Google et les startups : AI first

En moins de cinq ans, cette technologie d’apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l’intelligence artificielle (AI).

Pour comprendre le deep learning, il faut revenir sur l’apprentissage supervisé, une technique courante en AI, permettant aux machines d’apprendre. Concrètement, pour qu’un programme apprenne à reconnaître une voiture, par exemple, on le « nourrit » de dizaines de milliers d’images de voitures, étiquetées comme telles. Un « entraînement », qui peut nécessiter des heures, voire des jours. Une fois entraîné, il peut reconnaître des voitures sur de nouvelles images.

Le deep learning utilise lui aussi l’apprentissage supervisé, mais c’est l’architecture interne de la machine qui est différente : il s’agit d’un « réseau de neurones », une machine virtuelle composée de milliers d’unités (les neurones) qui effectuent chacune de petits calculs simples.
« La particularité, c’est que les résultats de la première couche de neurones vont servir d’entrée au calcul des autres », détaille Yann Ollivier, chercheur en IA au CNRS, spécialiste du sujet. Ce fonctionnement par « couches » est ce qui rend ce type d’apprentissage « profond ».

Yann Ollivier donne un exemple parlant :
« Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L’angle est à peu près de 45°. Pour reconnaître la présence d’une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S’il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l’oreille de chat. Et ainsi de suite. »

Lire l’intégralité de l’article
« Comment le deep learning révolutionne l’intelligence artificielle« , par Moragne Tual le monde.fr

En 2012, Google a surpris la communauté du Machine Learning en démontrant que son Google Brain était capable de découvrir, par lui-même, des concepts de haut niveau tel que des visages, des corps humains ou des images de chats, ceci en épluchant des millions d’images glanées sur YouTube.

Pourquoi en parle-t-on autant aujourd’hui ?
Sorti des labos de R&D depuis quelques années, le Deep Learning investit progressivement notre quotidien : la reconnaissance vocale de l’assistant Siri d’Apple, le tagging automatique de morceaux de musique, la synthèse vocale avancée, le légendage automatique d’images et même la conception de nouvelles molécules pharmaceutiques, toutes ces applications mettent aujourd’hui en œuvre des techniques de Deep Learning. Ce résultat est remarquable car jusque-là les techniques de reconnaissance d’images se basaient sur des approches dite supervisées, chaque image devant être explicitement désignée comme contenant un visage humain, une tête de chat etc. Le tour de force des équipes de Google a été de court-circuiter cette étape de labélisation manuelle (tagging).
L’enjeu pour Google est énorme car il s’agit ni plus ni moins que de faire passer à l’échelle ses algorithmes d’apprentissage en tirant parti de la manne d’images disponibles sur le web qui, dans leur immense majorité, ne sont évidemment pas tagguées.

Lire l’intégralité de l’article
« Le deep learning pas à pas : les concepts« , par Manuel Alves technologies-ebusiness.com

Au cours des dernières années, les start-ups spécialisées en deep learning se sont multipliées dans la Silicon Valley ; c’était même le buzz word de l’année 2016 dans les conversations.
Afin de renforcer son expertise, Google a mis la main sur l’éditeur français Moodstocks qui propose une technologie de reconnaissance d’images et d’objets pour terminaux mobiles qui pourra trouver des débouchés tant dans l’e-commerce que dans les arts.
En toute discrétion, Amazon a de son coté acquis Orbeus, une jeune pousse ayant aussi développée une technologie de reconnaissance d’images.
SAS a greffé du deep learning à sa plateforme Viya pour analyser des données stockées dans le cloud.
Le fabricant de puces Intel a racheté Nervana, une start-up qui développe du matériel et des logiciels pour l’apprentissage profond, tandis que Salesforce a racheté MetaMind, un éditeur de logiciels deep learning capables de traiter rapidement des masses d’images et de textes.

Voici 5 startups prometteuses qui méritent d’être suivies en 2017 :

Bay Labs, cap sur l’imagerie médicale
Bay Labs n’est qu’une des start-ups qui utilise l’apprentissage profond dans l’imagerie médicale. Mais, dans son équipe d’ingénierie, on trouve des gens comme Johan Mathe, qui a travaillé précédemment sur Project Loon de Google. Yann LeCun, directeur du groupe de recherche en intelligence artificielle de Facebook, a investi dans la start-up, de même que Khosla Ventures.

Cerebras Systems, après SeaMicro du deep learning
Cerebras est une mystérieuse start-up dirigée par Andrew Feldman, le même qui a vendu l’entreprise de microserveurs Arm SeaMicro à AMD pour 334 millions de dollars. La nouvelle jeune pousse d’Andrew Feldman développe du hardware IA, et selon une source proche, le tour de table organisé par la très réputée société de capital de risque Benchmark a permis de réunir plus de 20 millions de dollars.

Deep Vision, des puces dédiées au deep learning
Basée à Palo Alto, Deep Vision construit des puces basse consommation pour le deep learning. Pendant qu’ils étaient à Stanford, deux cofondateurs de la start-up, Rehan Hameed et Wajahat Qadeer, avaient coécrit un article remarqué sur un « multiprocesseur Convolution Engine ».

Graphcore, optimiser les échanges neuronaux
Graphcore a développé un accélérateur de traitement PCIe (IPU) que les réseaux neuronaux peuvent utiliser pour se former et livrer des conclusions. La start-up a également développé un logiciel capable de travailler avec son infrastructure en utilisant les frameworks d’apprentissage profond existants MXNet et TensorFlow. Parmi les investisseurs de Graphcore on trouve Bosch Venture Capital, Foundation Capital et Samsung Catalyst Fund.

ViSenze, de bons résultats en reconnaissance d’image
Fondée en 2012, ViSenze a obtenu de meilleurs résultats que d’autres concurrents dans certaines épreuves de la compétition de reconnaissance d’images ImageNet 2016. Financée par Rakuten Ventures, ViSenze est une émanation de NexT, un centre de recherche créé par l’Université Nationale de Singapour et l’Université Tsinghua de Chine. Son logiciel peut effectuer de la reconnaissance d’objets et du marquage d’images et de vidéos et délivrer un contenu visuellement similaire.

Comme l’a déclaré très justement le CEO de Google, Sundar Pichai, désormais la priorité est à l’AI – « AI first ».

Lire l’intégralité de l’article
« 5 startups en deep learning à suivre en 2017″, par Jean Elyan et Serge Leblal – lemondeinformatique.fr

Ressources complémentaires :
« Deep learning, ne nous y trompas pas, un ordinateur n’a pas d’idées« , par Luc de Brabandere, senior advisor au Boston Consulting Group – lesechos.fr

« Machine learning et deep learning, comment ca marche ?« , par Ludovic Louis siecledigital.fr

« Pourquoi le deep learning révolutionne l’intelligence artificielle ?« , par Toni Conde – bilan.ch

« Quand le deep learning permet aux aveugles d’écouter leur environnement« , par Reynald Fléchaux – silicon.fr

Crédit photo cover : creative commons/Michael Cordedda « Help. Message from artificial intelligence…« 

 

Big Zuckerberg is watching you in VR

Réalité virtuelle : la nouvelle arme de l’empire Facebook
par Clémentine Spiler

Oui, le casque de réalité virtuelle Oculus Rift, s’apprête à rendre votre existence “magique”. Une “présence” comme vous n’en avez jamais connue, en immersion dans un espace virtuel. Et c’est la maison-mère, Facebook, qui régale.

Une autre présence n’est pas spécifiée. Celle du publicitaire de Facebook, assis sur votre canapé, qui peut désormais observer et utiliser tous les aspects de votre comportement, physique et psychologique.

Les trackers de mouvements font partie intégrante de cette nouvelle technologie qui permet, à l’aide d’un casque visuel et auditif, d’évoluer dans un espace totalement virtuel. Oculus Rift, comme ses congénères développés par Samsung ou Google, traque tous les mouvements corporels. Manuels, pour permettre la saisie d’objets virtuels, mais aussi les mouvements de la tête et des yeux, ce qui s‘avère un peu plus problématique, comme l’analyse The Intercept (lire l’article The Dark side of VR)

Collecte de données psychologiques

Combinée à la data collectée ailleurs sur le web (notamment sur Facebook), les données d’incarnation physique représentent une surveillance comme on n’en a jamais connu. Elles donnent aux entreprises et aux gouvernements une représentation plus vraie que nature de nos comportements et de nos émotions. Un tracking encore plus précis est en cours d’élaboration, et permettrait d’analyser les micro-expressions, les tensions musculaires du visage, afin d’affiner l’analyse des émotions à un instant précis, c’est à dire quasiment de nos pensées.

Cette collecte est évidemment vouée à “enrichir votre expérience”, selon Occulus Rift. On s’en doute, nos expériences ne seront pas les seules à s’enrichir de ces données ultra-intimes. Michael Madary et Thomas Metzinger ont rédigé cette année le premier Code de conduite éthique de la réalité virtuelle. Ils font remarquer que “les informations actuellement utilisées par les publicitaires pour cibler leur offre sont limitées aux périphériques que nous utilisons: le clavier, la souris, le tactile. (…) Les statistiques liées à la réalité virtuelle capturent beaucoup plus d’informations sur les habitudes et les intérêts des utilisateurs, et pourraient révéler bien plus largement ce qu’il se passe dans leur tête.”

Big Zuckerberg is watching you

Facebook collecte déjà depuis le début de l’année nos humeurs et nos goûts avec précision à l’aide des émojis qui ont remplacé le simple like. Et pour flipper encore un plus, on se rappelle de cette étude menée par Facebook sur la “contagion émotionnelle sur les réseaux sociaux”, qui prouvait qu’un fil d’actualité pouvait influencer l’humeur des utilisateurs. À l’issue de ce test, une data scientist avait déclaré anonymement : “Le but de ce que nous faisons est de changer les comportements humains à grande échelle. Nous pouvons désormais analyser les bons et les mauvais comportements, et développer des moyens de récompenser les bons et punir les mauvais”. Vous avez dit dictature ?

En attendant, Oculus Rift nie toute volonté de manipuler ses utilisateurs. Un sénateur américain inquiet a écrit une lettre ouverte à l’entreprise, en lui demandant si telle était sa volonté, il a reçu une réponse concise: “Non”.

Une répartie plus connue sous le nom de la méthode Clapper. Du nom de James Clapper, directeur du renseignement américain. En 2013, alors que le Sénat lui demandait, après les révélations Snowden, si la NSA collectait les données de centaines de millions d’Américains, il avait tout simplement répondu: “Non monsieur”. Mais il n’avait pas l’air très bien.

Lire l’intégralité de l’article sur NovaPlanet.com

Crédit photo : Réalite-virtuelle.com, le magazine de la réalité virtuelle et augmentée

 

#CivicTech Liberté Living-Lab

Après la food tech, l’ad tech ou encore l’ed tech, voici… la « civic tech ». Le Liberté Living Lab a été officiellement inauguré ce jeudi, en présence de la secrétaire d’Etat au Numérique, Axelle Lemaire.
Cet immeuble de 1 600 mètres carrés, situé en plein coeur de Paris, doit symboliser l’émergence d’une nouvelle génération de start-up, d’ONG, d’associations, de chercheurs, de services publics ancrés dans le numérique.

Le lieu sera complètement opérationnel en octobre et ouvrira alors sept jours sur sept, 24 heures sur 24.

Il réunira des start-up, un Fab Lab, un atelier d’intelligence artificielle, organisera des événements ouverts au public… L’espace veut aussi être incarné par 200 personnalités – une cinquantaine ont été réunies, pour l’instant. « Il faut créer du lien, affirme le cofondateur du Liberté Living Lab, Jérôme Richez. L’espace doit être pluridisciplinaire, interculturel et multigénérationnel. Inventer de nouvelles technologies dans un monde en ruine ne sert à rien. » Ses premiers résidents sont néanmoins déjà en place. Une dizaine de start-up y travaillent, certaines en collaboration avec des administrations, et trois artistes, du collectif (La) Horde, viennent même d’y poser leurs valises, souligne Jérôme Richez.

Des projets variés

Parmi les premiers résidents, dont l’hébergement est gratuit, figure notamment la plate-forme Laprimaire.org. Celle-ci doit permettre de faire émerger des candidats à la présidentielle en fonction des attentes des internautes. Elle compterait déjà près de 50.000 inscrits. Autre projet de cette « civic tech » : Fluicity. Créée par Julie de Pimodan, ancienne journaliste et ex-salariée de Google, cette application permet aux communes d’informer et de consulter leurs administrés sur les projets en cours. HelloAsso a aussi établi ses quartiers dans le Liberté Living Lab. Cette plate-forme recense 15.000 associations et leur permet d’orchestrer leurs campagnes de financement. Depuis six ans qu’elle existe, elle a permis de collecter 20 millions d’euros au total, dont la moitié sur les huit derniers mois. Et, en 2016, elle pourrait réunir autant d’argent que depuis sa création. Avec un modèle économique basé sur les pourboires laissés par les donateurs. Un mot qui n’est plus tabou. « Dans la Silicon Valley, des start-up en quête de sens ont émergé, sans perdre de vue la rentabilité », a expliqué Axelle Lemaire lors de l’inauguration, tout en soulignant le défi de cette « civic tech » : « Réussir à parler à tout le monde. »

Accéder à l’article La « civic tech » française se met en place autour d’un nouvel espace, de Nicolas Pauline sur business.lesechos.fr

Crédit photo cover : blogs.microsoft.com

 

Caractériser l’innovation sociale

Comment reconnaître une innovation sociale ? Pour détecter, accompagner ou financer l’innovation sociale, encore faut-il savoir identifier le caractère socialement innovant d’un projet ! Aucun label n’existe pour « certifier » une innovation sociale. En revanche, de nombreux travaux, souvent menés par des collectifs d’acteurs, ont permis d’élaborer des outils de définition et de caractérisation.

par Avise.org, portail du développement de l’économie sociale et solidaire

Créée en 2002 par la Caisse des Dépôts et des grands acteurs de l’économie sociale, l’Avise agit pour accroître le nombre et la performance des entreprises d’économie sociale et solidaire créatrices d’emplois et d’activités nouvelles.

Une grille de caractérisation reconnue au niveau national

Elaborée en 2011, sous l’égide de l’Avise et du Mouvement des entrepreneurs sociaux, par des acteurs de l’économie sociale et solidaire, acteurs de l’innovation et chercheurs, cette grille de caractérisation vise à fournir une base commune à l’ensemble des acteurs de l’innovation sociale, tout en s’adaptant à la diversité de leurs besoins :

– entrepreneur souhaitant diagnostiquer son projet pour repérer des pistes d’amélioration,
– organisme cherchant à sélectionner des projets innovants pour les financer, les valoriser,
– incubateur proposant d’accompagner des projets dans leur développement, etc.
Cet outil est structuré selon 4 axes, correspondant aux 4 piliers de caractérisation d’une innovation sociale, et propose pour chacun une sélection de critères socles (cœur de la caractérisation) et de critères complémentaires (facultatifs). La méthode de pondération n’est pas figée, chacun est libre de la définir en fonction des objectifs de la caractérisation.

Télécharger la grille complète de caractérisation de l’innovation sociale

Crédit infographie : Maison de la citoyenneté mondiale

 

Oser vraiment #reinventerparis

« A l’heure de la concurrence internationale entre grandes cités, c’est dans « l’extra-muros » que se trouvent les espaces pour continuer d’inventer une capitale moderne. Penser à l’échelle métropolitaine conduit à interroger la vocation du centre. Et cette refondation, nécessaire, est d’abord un acte politique. » Paru dans Les échos du 5 octobre dernier, l’article de Christophe Soisson démontre l’opportunité stratégique du projet porté par Anne Hidalgo. Il pointe néanmoins les incohérences de la démarche qu’il définit comme « inversée » : « Il y a très peu d’occasions de projets à la fois ambitieux, autofinancés et aussi féconds. L’enchevêtrement de responsabilités du territoire francilien sera-t-il capable de faire ses preuves en se retrouvant autour de cette opportunité ? Pour être à la mesure du « Grand » Paris, le politique, aussi, doit se réinventer. »

Source : Les Échos – Oser vraiment réinventer Paris, 5 octobre 2015

Retour sur l’appel à projets, par Jean-Louis Missika, Adjoint à la Maire de Paris chargé de l’urbanisme, de l’architecture, des projets du Grand Paris, du développement économique et de l’attractivité
L’innovation au-delà du geste architectural

L’appel à projets « Réinventer Paris » doit vous permettre d’expérimenter et de concrétiser l’étendue des innovations dont Paris a besoin. Loin de concerner la seule audace architecturale, vos projets pourront adresser l’innovation dans toutes ses dimensions. L’objectif n’est pas d’innover sur tous les fronts, mais de rechercher, sur chaque site, en quoi l’innovation est la plus pertinente pour faire émerger des solutions de pointe.

Innovez dans les usages d’abord, en concevant des bâtiments pluriels, mutables, intelligents. Les mutations rapides des modes de vie citadins appellent à innover dans les manières d’habiter, en faisant émerger des espaces de convivialité mutualisés ; dans les manières de travailler, grâce au coworking, au télétravail, aux incubateurs d’un type nouveau ; dans les manières de commercer enfin, à travers les showrooms partagés, fablabs et magasins éphémères. Inventez de nouveaux services adaptés aux exigences de santé et de vieillissement des Parisiens.

Les défis environnementaux de Paris sont massifs et appellent des solutions inédites. Les bâtiments font preuve d’innovation environnementale quand ils révolutionnent la production, la consommation et la récupération d’énergie ; quand ils interagissent de manière intelligente avec leur ilot et la ville entière ; quand ils intègrent des matériaux écologiques ; quand ils expérimentent des végétalisations innovantes ; quand ils concrétisent l’objectif «zéro déchet, zéro carbone».

L’innovation, c’est aussi investir de nouveaux espaces : les sous-sols, les toits, les friches, le périphérique et tous les lieux délaissés qui forment parfois l’avenir de notre métropole.

Enfin, innover c’est autant faire autre chose que faire autrement : l’ensemble de la conception des projets peut être source d’innovation. De la composition de l’équipe à la concertation avec les riverains, en passant par la gestion du chantier le montage financier, à vous de réinventer nos manières de construire aujourd’hui.

23 sites, 75 projets retenus :
Outre les professionnels de l’urbain, agriculteurs, chefs cuisiniers, anthropologues, artistes plasticiens, philosophes, curateurs, distributeurs de cinéma, créateurs de mode, énergéticiens, étudiants et leurs professeurs, opérateur de crèches, incubateurs, opérateurs de co-working … plus de 30 professions différentes, issues de 15 nationalités différentes se sont mobilisées autour du projet.
Pour découvrir l’intégralité des projets retenus, rendez-vous sur le site officiel de la Mairie de Paris « Réinventer Paris »

Credit photo : Mairie de Paris, Réinventer Paris

© 2019 A MarketPress.com Theme