Deep learning, Google et les startups : AI first

En moins de cinq ans, cette technologie d’apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l’intelligence artificielle (AI).

Pour comprendre le deep learning, il faut revenir sur l’apprentissage supervisé, une technique courante en AI, permettant aux machines d’apprendre. Concrètement, pour qu’un programme apprenne à reconnaître une voiture, par exemple, on le « nourrit » de dizaines de milliers d’images de voitures, étiquetées comme telles. Un « entraînement », qui peut nécessiter des heures, voire des jours. Une fois entraîné, il peut reconnaître des voitures sur de nouvelles images.

Le deep learning utilise lui aussi l’apprentissage supervisé, mais c’est l’architecture interne de la machine qui est différente : il s’agit d’un « réseau de neurones », une machine virtuelle composée de milliers d’unités (les neurones) qui effectuent chacune de petits calculs simples.
« La particularité, c’est que les résultats de la première couche de neurones vont servir d’entrée au calcul des autres », détaille Yann Ollivier, chercheur en IA au CNRS, spécialiste du sujet. Ce fonctionnement par « couches » est ce qui rend ce type d’apprentissage « profond ».

Yann Ollivier donne un exemple parlant :
« Comment reconnaître une image de chat ? Les points saillants sont les yeux et les oreilles. Comment reconnaître une oreille de chat ? L’angle est à peu près de 45°. Pour reconnaître la présence d’une ligne, la première couche de neurones va comparer la différence des pixels au-dessus et en dessous : cela donnera une caractéristique de niveau 1. La deuxième couche va travailler sur ces caractéristiques et les combiner entre elles. S’il y a deux lignes qui se rencontrent à 45°, elle va commencer à reconnaître le triangle de l’oreille de chat. Et ainsi de suite. »

Lire l’intégralité de l’article
« Comment le deep learning révolutionne l’intelligence artificielle« , par Moragne Tual le monde.fr

En 2012, Google a surpris la communauté du Machine Learning en démontrant que son Google Brain était capable de découvrir, par lui-même, des concepts de haut niveau tel que des visages, des corps humains ou des images de chats, ceci en épluchant des millions d’images glanées sur YouTube.

Pourquoi en parle-t-on autant aujourd’hui ?
Sorti des labos de R&D depuis quelques années, le Deep Learning investit progressivement notre quotidien : la reconnaissance vocale de l’assistant Siri d’Apple, le tagging automatique de morceaux de musique, la synthèse vocale avancée, le légendage automatique d’images et même la conception de nouvelles molécules pharmaceutiques, toutes ces applications mettent aujourd’hui en œuvre des techniques de Deep Learning. Ce résultat est remarquable car jusque-là les techniques de reconnaissance d’images se basaient sur des approches dite supervisées, chaque image devant être explicitement désignée comme contenant un visage humain, une tête de chat etc. Le tour de force des équipes de Google a été de court-circuiter cette étape de labélisation manuelle (tagging).
L’enjeu pour Google est énorme car il s’agit ni plus ni moins que de faire passer à l’échelle ses algorithmes d’apprentissage en tirant parti de la manne d’images disponibles sur le web qui, dans leur immense majorité, ne sont évidemment pas tagguées.

Lire l’intégralité de l’article
« Le deep learning pas à pas : les concepts« , par Manuel Alves technologies-ebusiness.com

Au cours des dernières années, les start-ups spécialisées en deep learning se sont multipliées dans la Silicon Valley ; c’était même le buzz word de l’année 2016 dans les conversations.
Afin de renforcer son expertise, Google a mis la main sur l’éditeur français Moodstocks qui propose une technologie de reconnaissance d’images et d’objets pour terminaux mobiles qui pourra trouver des débouchés tant dans l’e-commerce que dans les arts.
En toute discrétion, Amazon a de son coté acquis Orbeus, une jeune pousse ayant aussi développée une technologie de reconnaissance d’images.
SAS a greffé du deep learning à sa plateforme Viya pour analyser des données stockées dans le cloud.
Le fabricant de puces Intel a racheté Nervana, une start-up qui développe du matériel et des logiciels pour l’apprentissage profond, tandis que Salesforce a racheté MetaMind, un éditeur de logiciels deep learning capables de traiter rapidement des masses d’images et de textes.

Voici 5 startups prometteuses qui méritent d’être suivies en 2017 :

Bay Labs, cap sur l’imagerie médicale
Bay Labs n’est qu’une des start-ups qui utilise l’apprentissage profond dans l’imagerie médicale. Mais, dans son équipe d’ingénierie, on trouve des gens comme Johan Mathe, qui a travaillé précédemment sur Project Loon de Google. Yann LeCun, directeur du groupe de recherche en intelligence artificielle de Facebook, a investi dans la start-up, de même que Khosla Ventures.

Cerebras Systems, après SeaMicro du deep learning
Cerebras est une mystérieuse start-up dirigée par Andrew Feldman, le même qui a vendu l’entreprise de microserveurs Arm SeaMicro à AMD pour 334 millions de dollars. La nouvelle jeune pousse d’Andrew Feldman développe du hardware IA, et selon une source proche, le tour de table organisé par la très réputée société de capital de risque Benchmark a permis de réunir plus de 20 millions de dollars.

Deep Vision, des puces dédiées au deep learning
Basée à Palo Alto, Deep Vision construit des puces basse consommation pour le deep learning. Pendant qu’ils étaient à Stanford, deux cofondateurs de la start-up, Rehan Hameed et Wajahat Qadeer, avaient coécrit un article remarqué sur un « multiprocesseur Convolution Engine ».

Graphcore, optimiser les échanges neuronaux
Graphcore a développé un accélérateur de traitement PCIe (IPU) que les réseaux neuronaux peuvent utiliser pour se former et livrer des conclusions. La start-up a également développé un logiciel capable de travailler avec son infrastructure en utilisant les frameworks d’apprentissage profond existants MXNet et TensorFlow. Parmi les investisseurs de Graphcore on trouve Bosch Venture Capital, Foundation Capital et Samsung Catalyst Fund.

ViSenze, de bons résultats en reconnaissance d’image
Fondée en 2012, ViSenze a obtenu de meilleurs résultats que d’autres concurrents dans certaines épreuves de la compétition de reconnaissance d’images ImageNet 2016. Financée par Rakuten Ventures, ViSenze est une émanation de NexT, un centre de recherche créé par l’Université Nationale de Singapour et l’Université Tsinghua de Chine. Son logiciel peut effectuer de la reconnaissance d’objets et du marquage d’images et de vidéos et délivrer un contenu visuellement similaire.

Comme l’a déclaré très justement le CEO de Google, Sundar Pichai, désormais la priorité est à l’AI – « AI first ».

Lire l’intégralité de l’article
« 5 startups en deep learning à suivre en 2017″, par Jean Elyan et Serge Leblal – lemondeinformatique.fr

Ressources complémentaires :
« Deep learning, ne nous y trompas pas, un ordinateur n’a pas d’idées« , par Luc de Brabandere, senior advisor au Boston Consulting Group – lesechos.fr

« Machine learning et deep learning, comment ca marche ?« , par Ludovic Louis siecledigital.fr

« Pourquoi le deep learning révolutionne l’intelligence artificielle ?« , par Toni Conde – bilan.ch

« Quand le deep learning permet aux aveugles d’écouter leur environnement« , par Reynald Fléchaux – silicon.fr

Crédit photo cover : creative commons/Michael Cordedda « Help. Message from artificial intelligence…« 

 

Big Zuckerberg is watching you in VR

Réalité virtuelle : la nouvelle arme de l’empire Facebook
par Clémentine Spiler

Oui, le casque de réalité virtuelle Oculus Rift, s’apprête à rendre votre existence “magique”. Une “présence” comme vous n’en avez jamais connue, en immersion dans un espace virtuel. Et c’est la maison-mère, Facebook, qui régale.

Une autre présence n’est pas spécifiée. Celle du publicitaire de Facebook, assis sur votre canapé, qui peut désormais observer et utiliser tous les aspects de votre comportement, physique et psychologique.

Les trackers de mouvements font partie intégrante de cette nouvelle technologie qui permet, à l’aide d’un casque visuel et auditif, d’évoluer dans un espace totalement virtuel. Oculus Rift, comme ses congénères développés par Samsung ou Google, traque tous les mouvements corporels. Manuels, pour permettre la saisie d’objets virtuels, mais aussi les mouvements de la tête et des yeux, ce qui s‘avère un peu plus problématique, comme l’analyse The Intercept (lire l’article The Dark side of VR)

Collecte de données psychologiques

Combinée à la data collectée ailleurs sur le web (notamment sur Facebook), les données d’incarnation physique représentent une surveillance comme on n’en a jamais connu. Elles donnent aux entreprises et aux gouvernements une représentation plus vraie que nature de nos comportements et de nos émotions. Un tracking encore plus précis est en cours d’élaboration, et permettrait d’analyser les micro-expressions, les tensions musculaires du visage, afin d’affiner l’analyse des émotions à un instant précis, c’est à dire quasiment de nos pensées.

Cette collecte est évidemment vouée à “enrichir votre expérience”, selon Occulus Rift. On s’en doute, nos expériences ne seront pas les seules à s’enrichir de ces données ultra-intimes. Michael Madary et Thomas Metzinger ont rédigé cette année le premier Code de conduite éthique de la réalité virtuelle. Ils font remarquer que “les informations actuellement utilisées par les publicitaires pour cibler leur offre sont limitées aux périphériques que nous utilisons: le clavier, la souris, le tactile. (…) Les statistiques liées à la réalité virtuelle capturent beaucoup plus d’informations sur les habitudes et les intérêts des utilisateurs, et pourraient révéler bien plus largement ce qu’il se passe dans leur tête.”

Big Zuckerberg is watching you

Facebook collecte déjà depuis le début de l’année nos humeurs et nos goûts avec précision à l’aide des émojis qui ont remplacé le simple like. Et pour flipper encore un plus, on se rappelle de cette étude menée par Facebook sur la “contagion émotionnelle sur les réseaux sociaux”, qui prouvait qu’un fil d’actualité pouvait influencer l’humeur des utilisateurs. À l’issue de ce test, une data scientist avait déclaré anonymement : “Le but de ce que nous faisons est de changer les comportements humains à grande échelle. Nous pouvons désormais analyser les bons et les mauvais comportements, et développer des moyens de récompenser les bons et punir les mauvais”. Vous avez dit dictature ?

En attendant, Oculus Rift nie toute volonté de manipuler ses utilisateurs. Un sénateur américain inquiet a écrit une lettre ouverte à l’entreprise, en lui demandant si telle était sa volonté, il a reçu une réponse concise: “Non”.

Une répartie plus connue sous le nom de la méthode Clapper. Du nom de James Clapper, directeur du renseignement américain. En 2013, alors que le Sénat lui demandait, après les révélations Snowden, si la NSA collectait les données de centaines de millions d’Américains, il avait tout simplement répondu: “Non monsieur”. Mais il n’avait pas l’air très bien.

Lire l’intégralité de l’article sur NovaPlanet.com

Crédit photo : Réalite-virtuelle.com, le magazine de la réalité virtuelle et augmentée

 

Acsel x Frenchweb Day RH

La transformation digitale n’est pas qu’une histoire d’outils et de technologies ! Pour faire muter durablement les entreprises, il faut aussi penser le numérique en termes de conduite du changement : faire évoluer les modes de management, adapter le temps de travail au mode agile, former les collaborateurs, anticiper les nouvelles compétences, recruter et attirer les talents du digital …

Moteur de l’entreprise, les RH sont devenues l’un des piliers de la transformation numérique des entreprises. Nous vous proposons de découvrir les initiatives d’acteurs innovants dans le domaine.

L’ACSEL et FrenchWeb vous invitent à découvrir les enjeux de la transformation digitale lors de cette matinée qui réunira une vingtaine d’intervenants, acteurs des Ressources Humaines et du management en France, et à l’international.

AGENDA:

9h00 – 9h20 Introduction : Il n’y a pas de transformation digitale sans adaptation des modes de management par Jean-Noël Chaintreuil, fondateur et directeur de 231E47, laboratoire d’innovation et auteur du livre RH & Digital : regards collectifs de RH sur la transformation digitale.

9h20 – 10h00 Table ronde #1 : culture d’entreprise et transformation digitale animée par Thierry Majorel Responsable Innovation et Digital Experience RH chez BPI Group. Avec Laure Wagner Culture Captain de Blablacar, Alix de Sagazan founder AB Tasty, et Peggy Loupe directrice transformation Digitale Interne chez SNCF.

10h00 – 10h10 Keynote : Les nouveaux métiers et compétences de la transformation digitale dans le secteur du marketing et de la communication par Vincent Montet, directeur de la stratégie digitale chez Groupe EDH.

10h10 – 10h50 Table ronde #2 : Comment recruter les meilleurs talents ? animée par Gildas Poirel Directeur au sein du cabinet de conseil en management Hay Group. Avec Vincent Huguet co-founder et CEO d’Hopwork, Grégory Herbé CEO de MyJobCompany, et Perrine Grua Communities and Education director de NUMA Paris.

10h50 – 11h00 Keynote « Linkedin : les dix meilleurs pratiques du recrutement » avec Nicolas Mirail, directeur commercial chez Linkedin.

11h00 – 11h40 Table ronde #3 : Les formations, nouveaux outils, meilleures pratiques animée par Vincent Montet, Directeur de la stratégie digitale chez Groupe EDH. Avec Baptiste Domingues B2B Director chez OpenClassrooms, Sophie Rosier Head of Axa Group Digital Academy chez AXA, Eric Barillan Image Employeur et Campus Management – DRH Group chez Orange.

11h40 – 12h00 Business Case : Workplace by Facebook avec Nicolas Bordas vice-président TBWA\Europe.

12h00 – 12h10 Conclusion : présentation du TOP 100 et des tendances 2017 by Frenchweb
Conclusion de Cyril Zimmermann.

12h10 – 14h00 Cocktail

S’inscrire à l’événement

Crédit photo : © Sergey Nivens – Fotolia.com (via parlonsrh.com)

 

Expérimenter les tiers-lieux

Les tiers-lieux, une notion à expérimenter et co-construire
par Raphaël Besson, Docteur en Sciences du Territoire (Laboratoire PACTE, Université Joseph Fourier, Grenoble) et Chef de projet Living Lab à la Casemate, centre de culture scientifique.

Les tiers-lieux sont des espace hybrides situés entre le domicile et le travail (un « home-away-from-home ») et à l’intersection de l’espace public et privé. Positionnés à l’interface des sciences, de l’économie et de la société, les tiers-lieux ne sont pas restreints à un secteur particulier. Ils peuvent concerner les champs des technologies numériques, médicales, de la culture, du sport, des loisirs etc. Leur spécificité réside justement dans leur capacité à organiser l’interdisciplinarité dans des espaces qui peuvent être physiques et/ou virtuels.

Des lieux stimulant les interactions sociales

Les tiers-lieux créent les conditions d’une plus grande capacité relationnelle entre des acteurs hétérogènes. Première condition, l’ouverture entre les membres de la communauté des tiers-lieux elle-même et le monde extérieur (société civile et autres tiers-lieux). Cette ouverture réside dans la conviction que l’innovation repose sur la masse critique des connaissances mobilisées et la capacité des usagers à concevoir des solutions originales et différentes de celles prévues initialement par les concepteurs. Les tiers lieux sont également des lieux neutres, qui permettent de réduire les relations hiérarchiques de travail, les différences sociales, favorisant ainsi les rencontres informelles et personnelles.

Dans cette perspective, les compétences des médiateurs sont fondamentales au fonctionnement des tiers-lieux. Elles permettent de construire des relations de confiance entre des acteurs socio-économiques et culturels différents, dépositaires d’habitudes de travail et de logiques cognitives distinctes. La convivialité et la flexibilité des tiers-lieux (atmosphère ludique, créative) sont tout aussi essentielles pour créer un sentiment de vie communautaire. La communauté d’acteurs des Tiers lieux peut ainsi travailler, se restaurer, se cultiver, flâner et se distraire grâce aux aménités mises à disposition.

Un nouveau rapport au travail, à la production et à la consommation

Les tiers-lieux présentent la spécificité d’interroger la finalité des productions. Sont tour à tour évoqués des objectifs très hétérogènes : « faire soi-même » (« Do it Yourself »), « créer du lien social », « mieux satisfaire les besoins qui s’expriment dans la société », « augmenter la qualité des produits, services et technologies », « produire de manière durable et responsable » etc. Au travers de ces objectifs ambitieux, l’un des enjeux est d’impliquer le plus grand nombre d’acteurs et de favoriser les initiatives ascendantes. Par ailleurs, le travail au sein des tiers-lieux repose sur l’ouverture, la collaboration, l’échange, l’interdisciplinarité, la co-production. Les usagers / utilisateurs sont ainsi placés au cœur du système d’innovation. Les tiers-lieux facilitent également le passage à l’expérimentation « grandeur réelle ».

Quant au modèle économique, celui-ci est avant tout hybride. Il émane de plusieurs sources de financement : subventions, adhésions, locations, prestations, crowdfunding, etc. Enfin, ces espaces procèdent généralement d’une remise en cause de la propriété intellectuelle classique et de promotion du « libre » ou de « l’open source ».

Une notion à expérimenter et co-construire

Face à la richesse et aux potentialités de ces espaces émergents, nous souhaitons inviter le plus grand nombre d’acteurs à partager recherches, expériences et projets. Tout le monde est concerné : élus et responsables de l’aménagement et de l’attractivité territoriale, universitaires, acteurs économiques, partenaires sociaux et aussi citoyens, salariés, travailleurs indépendants et entrepreneurs.

Lire l’intégralité de l’article du 21/12/16 sur le site ECHOSCIENCES Grenoble

Crédit photo : echosciences-grenoble.fr

 

Deep web, terre de liberté et d’anarchie

– On a exploré le deep web – par Sylvain Abel
Lire l’article sur le site de l’agence Spintank

Le terme deep web ou web profond apparaît de plus en plus régulièrement sur la toile, nous nous sommes demandés s’il existait effectivement un internet parallèle et si oui, ce que l’on peut y trouver. Concrètement, le deep web regroupe la totalité des sites non indexés par les moteurs de recherches classiques. Pour résumer, si ce n’est pas sur Google, c’est probablement du deep web.

Un simple contrôle de l’accès à des sites privés ?

Que sont ces sites non-référencés par des robots sur-optimisés qui, selon certaines sources composeraient 90% d’internet ? La réponse peut à première vue paraître moins excitante que prévue. L’immense majorité de ces espaces dispose juste d’un accès protégé, par un mot de passe (intranet, blogs privés), par l’utilisation d’un test de Turing (les captchas par exemple) ou simplement parce que les développeurs ont jugé que leur site ne devait pas être référencé et qu’ils ont réussi à tromper les robots scrutant les pages.

Ou un véritable réseau ?

Mais il existe une autre partie du deep web, et il s’agit de sites non accessibles avec un navigateur classique. Où se développe effectivement un internet « parallèle » sur lequel l’anonymat rend impossible l’application de la loi. À la fois intriguant et dangereux – pour votre ordinateur (attention aux virus), pour votre esprit (attention aux images qui restent imprimées sur la rétine) et pour des questions légales – on y croise bon nombre de projets et d’espaces qui, s’ils sont bien réels, franchissent sans vergogne le domaine des lois internationales. Ces sites ont une adresse en .onion – le reste étant généralement composée d’une suite de chiffres et de lettres désordonnées – et il est nécessaire de disposer d’un navigateur spécifique pour les atteindre, raison pour laquelle les moteurs de recherche ne les indexent pas.

Un accès toujours plus facile au fil du temps

S’il y a encore quelques années, les protocoles d’accès à ces sites étaient réservés à une élite d’informaticiens, il existe aujourd’hui des logiciels simples d’installation qui en ouvrent la porte. Le plus connu et le plus utilisé est sans aucun doute Tor, The Onion Router (qui a vu son trafic doublé en une semaine il y a un peu moins d’un mois, même si personne ne sait pourquoi). Conçu à la base pour sécuriser les communications de l’U.S. Navy, le protocole s’est démocratisé et est aujourd’hui accessible pour tous en un simple téléchargement. Tor est un logiciel d’anonymisation, également utilisable sur le web traditionnel, qui, sans entrer dans les détails techniques, crée un réseau d’échanges de connexions entre tous ses utilisateurs. Ainsi avant d’atteindre le site que vous chargez, votre connexion va passer par plusieurs points (d’autres internautes sur Tor) à travers le monde. Aucun de ces points n’aura votre identité précise, le système fonctionnant sur différentes couches d’informations qui se libèrent au fur et à mesure, conservant les suivantes cachées et ayant supprimé les précédentes. Rendant votre débit extrêmement lent, ce protocole a pour avantage de rendre très difficile le traçage de vos actions (pas impossible pour quelqu’un disposant d’un grand savoir-faire ou de beaucoup de fonds, mais tout de même suffisamment pour décourager n’importe qui de « normal »).

Une fois Tor installé, la découverte du deep web et des sites en .onion peut commencer, petit tour d’horizon qui est, bien sûr, loin d’être exhaustif de ce gouffre insondable.

Les deux stars du deep web, Hidden Wiki et Silk Road

Hidden wiki est sans doute la meilleure première étape possible pour s’engager dans la découverte du web profond. Véritable source d’informations, ce pendant de Wikipédia caché regorge d’explications sur le fonctionnement et les diverses utilisations du web – profond ou non. C’est également un index de liens, bien qu’un nombre important d’entre eux soient des liens morts (la stabilité des adresses est très faible sur le deep web, beaucoup de sites existent sous forme de multiples copies miroirs qui se développent parfois parallèlement). Par ailleurs, certains des articles portent aussi en eux une fibre philosophique poussée, comme l’un de ceux d’introduction au deep web intitulé « how to exit the matrix » qui va bien au-delà de simples explications techniques et pragmatiques.

Silk Road est sans aucun doute la star du web profond. Depuis maintenant un peu plus d’un an, avec la parution révélant que le site atteignait 22 millions de dollars en ventes annuels, ce marché anonyme est passé d’un espace privé et relativement confidentiel à une exposition répétée dans les medias. Et l’explosion médiatique du Bitcoin n’y est certainement pas complétement étrangère. Avant sa soudaine prise de valeur, le Bitcoin était avant tout la monnaie du deep web, et Silk Road est la plus importante place de marché de cet espace. Qui trouve-t-on ? A part des êtres humains en code barre et les armes, bannies depuis peu, tous les objets imaginables sont autorisés à la vente. Le mantra de Silk Road est de proposer des échanges anonymes entre deux individus consentant. La grande majorité des échanges tourne en effet autour de la vente de drogues de toutes catégories et provenances (avec une certaine « logique » tout de même, le cannabis vient plutôt des Pays-bas et de Suisse là où les produits chimiques proviennent de Chine et d’autres pays d’Asie). Bien entendu ces produits ne sont soumis à aucun contrôle. Des vendeurs malhonnêtes jouent donc sur la similarité de certaines molécules plus ou moins coûteuses à fabriquer, risquant la santé des consommateurs. Pour lutter contre ce type de problèmes, Silk Road a mis en place un système d’évaluation des vendeurs similaires à celui d’eBay. On y trouve aussi un forum très actif où les membres discutent entre eux des vendeurs ou encore des meilleurs procédés pour recevoir un colis.

Des sites aux contenus illégaux, arnaques ou véritable marché noir ?

On trouve sur cet espace un grand nombre de choses farfelues dont beaucoup carrément douteuses côté éthique. Il est aussi parfois très difficile de faire la part des choses entre les arnaques et les véritables propositions commerciales. En admettant que tout soit réel, un véritable marché du vol et de l’assassinat s’est développé. Mais il est probable qu’en réalité il s’agisse – tout du moins pour les tueurs à gage – de simples arnaques, et le fait qu’il faille payer la moitié du prix en avance ne pousse pas à la confiance si l’on peut dire.
D’autres contenus qui seraient certainement censurés sur le web traditionnel s’y trouvent, notamment des manuels de guérilla, des explications pour fabriquer des bombes montées comme un meuble suédois (là encore attention, suivre des instructions à la lettre pour faire des mélanges chimiques peut se révéler dangereux pour les autres, mais aussi pour soi selon l’intention de la personne qui les a écrites).

Le repaire des contenus off-limits

Mais ce qui fait avant tout la réputation du web profond c’est le sexe. Que ce soit la pédophilie, la zoophilie ou la location de prostituée, ce sont des choses bannies du web traditionnel qui ont trouvé refuge dans cet espace. Le deep web est le repaire du contenu qui doit impérativement rester caché tout en étant accessible. La couche d’anonymat ajoutée par Tor (et potentiellement d’autres logiciels complémentaires) semble suffisamment rassurer certains internautes pour discuter et partager ces contenus. Pourtant, ces pédophiles sont activement recherchés, et il n’est pas possible de douter que les services de renseignement et de cybercriminalité n »ait pas conscience de l »existence de ces espaces. Impossible par contre de savoir s’ils n’arrivent pas à agir, s’ils ont un impact et pratiquent des arrestations par ce biais ou encore s’ils sont infiltrés dans ces réseaux pour en démanteler de plus importants. Toujours est-il que même le Hidden Wiki liste certains de ces services, bien qu’il soit difficile sans cliquer sur les liens de savoir ce qui se cache réellement derrière, des virus, de la pédophilie ou le FBI.

Mais tout n’est pas noir sur le deep web

Malgré ces aspects peu réjouissants, le deep web regorge aussi de projets originaux plus humains. Et c’est avant tout dans la mise en commun des connaissances, une autre facette des espaces libertaires, que le deep-web excelle. Investi avant tout par les informaticiens, l’espace regorge de manuels dédiés à la fois au software et au hardware, il y en a bien assez pour ridiculiser la plupart des bases de données du web traditionnel combinées. D’autres projets relèvent de ce processus de partage de contenus librement, comme The Free Bibliotheca Alexandrina qui porte bien son nom. C’est un site sur lequel les internautes sont invités à déposer des documents s’apparentant aux livres en format numérisé (essais, textes ou encore bande-dessinées). Ceux-ci sont ensuite accessibles à n’importe quelle personne qui se connecte au site. Seule requête des administrateurs : que le nom du fichier lors de l’upload soit clair, comprenant titre, auteur et si possible date de l’ouvrage. Et ce n’est pas le seul, on trouve des concurrents regroupant manuels et romans comme The Tor Library, en illustration, et ses quelque 55GB de fichiers pdf. Enfin, on trouve également des services proposant gratuitement des espaces de stockage sans limite d’espace, avec un bémol cependant puisqu’il faut pouvoir accéder au deep web pour récupérer ses fichiers.

Pour conclure

Le deep web est une terre de liberté et d’anarchie. Difficile à surveiller grâce au cryptage apporté par Tor et à l’instabilité des sites qui s’y trouvent, c’est un espace où l’on est confronté à des pratiques taboues ailleurs. Qu’il s’agisse d’horreurs ou d’idéal de partage, le manque du contrôle traditionnel des données est sa caractéristique première. Et pourtant, il est certain que ces espaces font l’objet d’une certaine surveillance, car si des fils de discussion entiers expliquent comment s’y rendre sur le forum 15-18 de jeuxvidéo.com, qui pourrait penser que les organismes d’état chargés d’enquêter sur les pratiques illégales du web n’ont pas conscience de leur existence ? Le deep web est par ailleurs de plus en plus souvent mentionné sur la partie émergée de la toile. Et cette exposition pourrait bien transformer ces espaces méconnus et cachés en plateformes très fréquentées.

À propos de l’agence Spintank

Crédit photo : Creative Commons Deep Web

© 2019 A MarketPress.com Theme