L’apprentissage entre neurosciences et intelligence artificielle

ApprentissageLa rentrée 2018 a été marquée par l’importance accordée par le Ministre de l’éducation aux bases neuroscientifiques de l’apprentissage avec la nomination de Stanislas Dehaene, chercheur en sciences cognitives, à la présidence du Conseil scientifique de l’éducation. Un post de Prospectibles avait souligné l’importance des recherches de ce neuropsychologue dans la compréhension du phénomène de la lecture. Quant à l’’apprentissage profond’, il devient le nouveau défi de l’intelligence artificielle en démontrant la capacité d’entités informatiques (réseaux de neurones) de développer une sorte d’apprentissage en s’’entraînant’ à l’aide d’algorithmes qui s’auto-corrigent.

Ces deux programmes n’ont pas manqué de susciter des polémiques, notamment dans l’enseignement où les pédagogues ont souligné l’aspect multifactoriel de l’apprentissage qui ne se limite pas à un phénomène neurobiologique et comporte de nombreux facteurs sociaux. D’autres se sont inquiétés de l’utilisation de la notion d’intelligence pour désigner l’activité de super-programmes informatiques. Car ce qui manque encore à ces machine pensantes, c’est la dimension émotionnelle de l’intelligence, qui, contrairement à l’idée reçue cartésienne est un facteur important dans la cognition, comme le souligne Frédéric Duriez dans Thot Cursus. Et on est encore loin de « voir une machine pleurer » comme le prédit Yann Le Cun, chercheur en intelligence artificielle, dans une interview à 20 minutes. Ce spécialiste de l’apprentissage profond chez Facebook est d’ailleurs le co-auteur avec Stanislas Dehaene, d’un ouvrage sur l’histoire de intelligence, qui vient de paraître chez Robert Lafont.

La neuropédagogie, nouvelle tendance éducative

Pascal Roulois, enseignant et chercheur en neuropédagogie, la définit ainsi sur son site « la neuropédagogie est la rencontre entre la pédagogie et les sciences cognitives : neurosciences, psychologie, philosophie. Elle vise principalement à renforcer l’efficacité de l’apprentissage (intellectuel, manuel) et de l’enseignement en analysant et intégrant de nombreux paramètres, biologiques aussi bien que psychologiques. Discipline systémique qui fait le lien entre « l’ordinateur » (le cerveau) et les « logiciels » (connaissance, compétence, savoir, savoir-être, information…), son champ d’application est donc large. ». Dans ce texte de 2013, il rappelle que cette discipline puise dans une longue histoire et que des pédagogues comme Philippe Meirieu (qui critique aujourd’hui l’orientation actuelle de l’enseignement basée sur les neurosciences) et bien d’autres sont à l’origine de nombreux concepts de neuropédagogie … Philippe Meirieu reconnaît dans son ouvrage « Apprendre, oui mais comment ?« , l’importance des processus mentaux dans la progression de la compréhension. En effet, contrairement au modèle de cours habituel : identification (repérer des informations) – signification (comprendre les informations) – utilisation (résoudre des exercices), « Une information n’est identifiée que si elle est associée à un projet d’utilisation intégrée dans la dynamique du sujet et c’est ce processus d’interaction entre l’identification et l’utilisation qui est générateur de signification, c’est-à-dire de compréhension ». cover-MIT-600x399

Pascal Roulois reconnaît néanmoins dans un texte plus récent que « Les neurosciences bénéficient d’une aura exagérée, alors que bien souvent, elles ne remplissent pas les critères ordinaires que l’on applique aux autres sciences ». Il souligne aussi que « les neurosciences ont permis à l’intelligence artificielle de faire un bond technologique prodigieux, qui a été rendu possible grâce à l’observation du cerveau humain, si bien que les grands projets cherchent à fabriquer des neurones et synapses artificiels. Les retombées pratiques se mesureront très prochainement, y compris en matière d’apprentissage. ». Or la neuropédagogie est « fondamentalement pluridisciplinaire » : elle est « formée de neurosciences, mais aussi de psychologie, plus particulièrement de psychologie de l’éducation et de psychologie cognitive ». D’où son importance dans la compréhension du phénomène de l’apprentissage.

Ce que les neurosciences nous apprennent, c’est qu’il existe deux modes d’apprentissage, avec ce que Rémy Sussan, citant l’ouvrage de Barbara Oakley dans Internet Actu, appelle le ‘paradoxe de la créativité’. « Autrement dit, lorsqu’on cherche à résoudre un problème, la partie du cerveau qui y travaille n’est pas celle qui trouve la solution ». Selon la chercheuse, le cerveau fonctionne sur deux modes : le ‘diffus’ et le ‘concentré’. Le mode concentré suit un cheminement logique en enchaînant les associations d’idées claires et évidentes ; le mode diffus est celui de l’inconscient où notre train de pensées associe les idées les plus éloignées. C’est à ce moment-là, devant un problème inédit ou difficile que nous avons besoin de nouvelles connexions entre nos neurones. Ces deux modes sont complètement liés et complémentaires « En fait, l’inconscient, le mode diffus, n’est capable que de résoudre les questions sur lesquelles le mode concentré a intensément travaillé auparavant. »

meg3Mais comme le souligne, Michel Lussault, ancien Président du Conseil supérieur des programme, cité dans Libération, «Les élèves ne sont pas juste des cerveaux dans des bocaux. Il y a une interaction permanente entre le corps, le cerveau et l’environnement ». Cela explique l’appel du syndicat du primaire Sniupp, cosigné par 60 chercheurs pour alerter l’opinion et mettre en garde le Ministre « Un conseil scientifique, oui, mais représentant toute la recherche… Dans le dialogue permanent que l’école doit entretenir avec la recherche, aucune discipline ne peut légitimement s’imposer aux autres et aucune ne doit être ignorée. La recherche ne peut être instrumentalisée dans des débats médiatiques le plus souvent réducteurs. ». C’est cette position que défend vigoureusement le psychologue Luc-Laurent Salvador dans Agoravox. Face à S. Dehaene affirmant dans l’ouvrage Apprendre à lire : des sciences cognitives à la salle de classe, que les enseignants doivent « devenir experts de la dynamique cérébrale », L.L. Salvador rappelle que « le cerveau est le produit de l’activité humaine et non pas l’inverse ». C’est à travers de la répétition, de l’entraînement des activités de fonctions corporelles et mentales qui « en viennent à imposer leur trace sur le substrat neural et donc à déterminer l’organisation cérébrale la plus favorable à leur exécution jusqu’à en permettre l’automatisation. ». Pour lui, l’important n’est pas ce qui se trouve dans la boite (crânienne) et que nous dévoile l’imagerie médicale, mais ce qui se trouve à l’extérieur « là où s’accomplit l’activité : le corps, l’esprit, les autres, le monde. ». S’il reconnaît que le cerveau joue « un rôle indispensable consistant, d’une part, à permettre des coordinations internes entre nos cycles perception-action puis, d’autre part, à les conserver (comme la pâte à modeler) », pour ce professionnel, les neurosciences ont un apport pédagogique nul, n’apportant que « de simples confirmations de ce que l’on savait déjà ». Comme le souligne l’épistémologue et neurophysiologiste André Giordan dans un post d’Educavox, « la crédibilité des neurosciences n’est pas assurée sur le plan de l’éducation, les preuves de leur efficacité sont souvent fragiles ou même absentes. Les arguments avancés reposent sur des études rarement corroborées sur le terrain et comportant nombre de biais conceptuels et méthodologiques ». Il donne comme exemple la condamnation de la méthode globale en lecture. Alors que pour Dehaene « ceux qui ont une méthode alphabétique, phonique entraîne le circuit de l’hémisphère gauche qui est le circuit universel, efficace de la lecture. Les personnes qui ont une attention globale, la forme du mot, ces personnes n’utilisent pas ce circuit. Leur attention est orientée vers l’hémisphère droit qui est un circuit beaucoup moins efficace pour l’analyse de la lecture ». Pour lui, « tout autre circuit d’apprentissage éloigne l’enfant de la lecture ». Pour Giordan, en revanche, « Le processus d’apprentissage de la lecture chez chaque enfant est unique, il dépend essentiellement de son désir d’apprendre à lire et du contexte qui le favorise… ». imagesAPPPRO

L’apprentissage profond : quand la machine s’autonomise

Jusqu’à récemment, l’informatique permettait aux humains de programmer des machines, aujourd’hui l’intelligence artificielle s’inspire du fonctionnement du cerveau, avec des réseaux de neurones artificiels. Le réseau est constitué de dizaines ou de centaines de couches de neurones, chacune recevant et interprétant les informations de la couche précédente, d’où le nom d’apprentissage profond (deep learning). On retrouve des « interprétations du traitement de l’information et des modèles de communication du système nerveux, à l’image de la façon dont le système nerveux établit des connexions en fonction des messages reçus, de la réponse neuronale et du poids des connexions entre les neurones du cerveau » (Wikipedia). Elles concernent plusieurs champs d’application : la reconnaissance visuelle et vocale, la vision par ordinateur, le traitement automatisé du langage, etc. (voir les exemples dans le post de Prospectibles sur l’IA) Ces systèmes ont des principes sous-jacents qu’ils partagent avec l’intelligence humaine et animale. Comme le soutient Yann Le Cun dans son interview à 20 minutes, « De même que l’aérodynamique explique à la fois comment volent les avions et les oiseaux. Les avions sont, d’une certaine manière, inspirés des oiseaux. Ils utilisent les mêmes principes sous-jacents mais ils n’ont pas de plumes ni de muscles ». Parmi ces principes, on trouve l’apprentissage. Le bébé, comme le petit animal, apprend des modèles du monde par observation, il apprend à suivre un visage, à détecter des mouvements ou qu’un objet peut être caché. Pour le moment, cet apprentissage est impossible à reproduire pour les machines. En matière d’apprentissage de modèles, on a d’abord eu l’apprentissage supervisé : « on donne l’image d’un chien à la machine et on lui dit ‘c’est un chien’. On lui donne la réponse. L’autre forme d’apprentissage, c’est l’apprentissage par renforcement, On laisse la machine faire des essais et des erreurs et, elle se corrige toute seule. ». Mais alors que dans un jeu vidéo, un humain met un quart d’heure pour atteindre un certain niveau de performance, il faut une centaine d’heure à une intelligence artificielle ! C’est aussi ce que constate Rémi Sussan, citant  un article de la Technology Review dans InternetActu : « C’est pourquoi depuis les travaux de Hinton les progrès en IA ont été plus le fait de l’ingénierie (voire, nous dit le magazine, du « bricolage » ) que de la science proprement dite. On ajoute tel ou tel perfectionnement à l’algorithme, et on procède par essai et erreur. » Pour créer une véritable intelligence artificielle, analogue à celle des humains, il faudrait la doter de ‘sens commun’, d’une connaissance du monde.

visuel_le_maitre_dapprentissage_500x370Si nous arrivons à apprendre plus vite, selon Le Cun, c’est que nous avons un modèle prédictif du monde : on sait que si on tombe d’une falaise, ce sera fatal ! « Ce qui nous manque, c’est de permettre aux machines d’apprendre ces modèles prédictifs. Et on se heurte au même problème : le monde n’est pas entièrement prédictible… ». Les tâches des systèmes intelligents autonomes ne seront pas définies par des programmes, mais par des systèmes de valeurs. « Ce qui définit la tâche de ce robot, ce sera : aide l’humanité de telle manière. Un but très général. La machine définira elle-même les moyens par lesquels elle remplira ses pulsions et son système de valeurs. ». Nos pulsions « sont un système de valeurs précâblé dans notre cerveau. C’est lui qui nous dit qu’il faut respirer, manger, se reproduire. Comment va-t-on construire des machines autonomes ? En déterminant ces pulsions, ces systèmes de valeurs, de manière à ce que leur comportement s’aligne avec les valeurs humaines. ».

L’adoption du processus d’apprentissage profond, inspiré des neurosciences cognitives, a permis aux intelligences artificielles de réaliser des avancées considérables dans de nombreux domaines. Mais ces systèmes logiciels sont encore loin d’avoir acquis l’autonomie nécessaire pour se « libérer » de la direction humaine. Si ces « machines pensantes » ne sont pas encore aux portes du pouvoir, les humains disposant de ces intelligences ‘étendues’ risquent de ne pas toujours en faire un bon usage, comme le craint le sociologue Eric Sadin dans son ouvrage sur l’IA analysé par Claire Chartier dans l’Expansiondeep_learning_1258x323

Chartier, Claire. – La face (très) noire de l’intelligence artificielle. – L’Express L’Expansion, 25/10/18

Droit, Roger-Pol. – Figures Libres. Ainsi naquit la vérité artificielle. – Le Monde, 25/10/18

Le Cun, Yann ; Beaudonnet, Laure. – Intelligence artificielle : « Dans le futur, on pourrait voir une machine pleurer. – 20 Minutes, 23/10/18

Sadin, Eric. – L’intelligence artificielle ou l’enjeu du siècle : anatomie d’un antihumanisme radical. – Paris : l’Echappée, 19/10/18

Dehaene, Stanislas ; Le Cun, Yann ; Girardon, Jacques. – La plus belle histoire de l’intelligence – Des origines aux neurones artificiels : vers une nouvelle étape de l’évolution. – Paris : Robert Laffont, 18/10/2018

Duriez, Frédéric. – Est-ce bien raisonnable d’être rationnel ?Thot Cursus, 08/10/18

Apprendre ! Les talents du cerveau, le défi des machines/Stanislas Dehaene, dir. – Paris : Odile Jacob, 05/09/18. (Sciences)

Johnson, Sydney. – What can machine learning really predict in Education?EdSurge News, 25/09/18

Moragues, Manuel. – Le premier livre traduit par une IA est… un manuel de deep learning. – L’Usine nouvelle, 12/09/18

Pédagogie et neurosciences, les limites et les réussites : dossier. – La Recherche n°539, Septembre 2018.

Taddei, François ; Peiron, Denis. – « Transmettre les compétences clés du XXIe siècle » : entretien. – La Croix, 31/08/18

Beard, Alex. – How babies learn and why robots can’t compete. - The Guardian, 03/04/18

Roulois, Pascal. – Qu’est-ce que la neuropédagogie ?Xos, 08/02/18

Salvador, Luc- Laurent. – Au secours, la neuropédagogie est au pouvoir ! – Agoravox, 25/01/18

Piquemal, Marie. – Un conseil scientifique en éducation, pourquoi faire ?Libération, 10/01/18

Cariou, Gautier. - L’apprentissage profond bouleverse les sciences. – La Recherche, n°529, Novembre 2017

Sussan, Rémi. – Les limites du deep learning et comment les dépasser.Internet Actu, 24/10/17

Giordan, André. – Apprendre à lire ? …Educavox, 29/08/17

Le plaisir d’apprendre/Philippe Meirieu et col. – Paris : Autrement, 2014

 

 

 

 

Une loi contre les « fake news » : quelle efficacité ?

fake_news_facebookAnnoncée par le Président de la République lors des vœux à la presse en janvier 2018  la proposition de loi relative à la lutte contre la manipulation de l’information a été adoptée à l’Assemblée nationale le 7 juillet mais rejetée par le Sénat le 26 juillet. Ce projet de loi a pour objectif de lutter contre la diffusion de fausses informations, particulièrement lors des campagnes électorales. L’expérience de diffusion massives de ‘fake news’ qui ont pu influencer les électeurs lors de la campagne présidentielle américaine en 2016 et du referendum sur le Brexit en Grande-Bretagne, (voir le post de Prospectibles), a amené les démocraties à réfléchir aux mesures à prendre pour lutter contre la désinformation et la manipulation de l’information.

La Commission européenne recommande, après la publication d’une communication sur la désinformation en ligne, un code bonnes pratiques et le soutien à un réseau indépendant de vérificateurs de faits. En Allemagne, une loi récente contraint les réseaux sociaux à une modération réactive. Au Royaume-Uni, une commission d’enquête mise en place en 2017 a pour objectif de lutter contre la diffusion de fausses nouvelles en impliquant les GAFA.

En France, comme le constatait dans son avis du 19 avril le Conseil d’Etat, le droit français contient déjà plusieurs dispositions visant à lutter contre les fausses informations : la loi de 1881 sur la liberté de la presse permet de » réprimer des propos sciemment erronés, diffamatoires, injurieux ou provocants ». La Loi de 2004 pour la confiance de l’économie numérique les a rendus applicables aux services de communication publique en ligne. Le code électoral contient aussi des dispositions visant à garantir le bon déroulement des campagnes électorales en luttant aussi bien contre la diffusion des fausses nouvelles que contre la publicité commerciale à des fins de propagande électorale.

La proposition de loi

Le gouvernement explique la nécessité d’une nouvelle loi en raison du changement d’échelle de la diffusion des fake news permis par les outils numériques et les réseaux sociaux. Comme le souligne Françoise Nyssen, Ministre de la culture et de la communication « Les fausses informations ne sont pas nécessairement plus nombreuses qu’avant, mais elles sont relayées plus rapidement et plus massivement. Elles se propagent jusqu’à six fois plus vite que les informations vérifiées. Elles font donc plus de dégâts ».

Dans la proposition de loi « Toute allégation ou imputation d’un fait inexacte ou trompeuse constitue une fausse information ». Les opérateurs de plateformes en ligne sont tenus de fournir à l’utilisateur, outre une information sur l’identité des fournisseurs de contenus, « une information loyale, claire et transparente sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ».

Elle crée un nouveau référé, pendant les trois mois précédant une élection, pour faire cesser la diffusion artificielle et massive de fausses informations destinées à altérer la sincérité du scrutin. Il s’agit de lutter contre les contenus sponsorisés et les systèmes robotisés, les « fermes à clics », qui véhiculent ces fausses informations et qui le feraient sciemment, en sachant que l’information est fausse.

Mais surtout, le juge des référés peut, « à la demande du ministère public, de tout candidat, de tout parti ou groupement politique ou de toute personne ayant intérêt à agir, et sans préjudice de la réparation du dommage subi, prescrire aux personnes physiques ou morales toutes mesures proportionnées et nécessaires pour faire cesser cette diffusion. » Comme le souligne le dossier d’actualité Vie publique « Un candidat ou un parti pourrait saisir le juge des référés pour faire cesser la diffusion de ces « fausses informations » quand il s’en estime victime. Le juge statuerait dans un délai de 48 heures. » Le CSA se voit confier de nouvelles compétences et devient le garant du devoir de coopération des plateformes. Outre son pouvoir de sanction à l’encontre des services de communication audiovisuelle (radio, télévision, vidéos à la demande publics et privés) en cas de non-respect de leurs engagements, le CSA pourra aussi « refuser le conventionnement ou résilier une convention d’une chaîne liée à un État étranger ou sous son influence. » Il peut aussi » suspendre la convention d’une chaîne pendant une période électorale ou pré-électorale si elle participe à une entreprise de déstabilisation en diffusant de façon délibérée des fausses informations de nature à altérer la sincérité du scrutin. »

Enfin, le projet de loi comprend aussi des dispositions portant sur le renforcement de l’éducation aux médias et à l’information pour l’acquisition d’une citoyenneté numérique dans le cadre de l’enseignement moral et civique.

censorship-550x206Le débat

La proposition de loi a fait l’objet d’un débat houleux à l’assemblée avant son adoption, notamment en ce qui concerne la définition de fausse information qui s’est achevé par l’adoption d’un amendement remplaçant l’idée de « mauvaise foi » par celle d’intention « délibérée ». Les oppositions de droite et de gauche ont exprimé leurs réticences « Pour les élus de l’opposition, la proposition de loi serait synonyme de censure et de contrôle de l’information, voire d’une dérive autoritaire du pouvoir. Christian Jacob (député LR) craint une « police de la pensée », Marine Le Pen (FN) dénonce un texte « liberticide », Boris Vallaud (PS) une « loi de circonstances ». (Dossier Vie Publique). Pour Jean-Luc Mélenchon (LFI), le CSA, autorité administrative, n’est pas légitime pour juger si un média étranger outrepasse sa fonction …

Des juristes et des médias critiquent aussi ce texte, comme Christophe Bigot, avocat en droit de la presse, interviewé sur RT France, qui trouve ces méthodes archaïques ; ou Me Thierry Vallat, avocat au barreau de Paris qui dans un interview sur RT France, s’interroge sur la notion de fausse information, qui renvoie plutôt à ‘bon ou mauvais journaliste’ : pour lui le gouvernement cible la chaîne RT France. En ouvrant au CSA la porte d’internet, on ignore ce qui risque de se passer après. Comment pourra-t-il réguler les plateformes ? Cette loi « inapplicable et dangereuse » ouvrirait la boite de Pandore. Sur son blog du Figaro, Alain Bensoussan, avocat à la Cour d’appel de Paris et expert en droit des technologies de l’information suggère « Plutôt que légiférer dans l’urgence, il faut repenser le texte en encadrant le rôle des plateformes et des robots logiciels dans la diffusion de fausses informations. »

De la propagande à l’architecture du faux : les différents canaux du ‘fake’

La prolifération des fausses nouvelles ne date pas d’hier : Patrick Chastenet, professeur de science politique à Bordeaux, le rappelle dans son article de The Conversation ; la propagande et la manipulation de l’information ont été utilisées par le tyran Pisistrate au Vie siècle avant J.C.  Comme le remarque un partisan du Brexit, les électeurs préfèrent que l’on s’adresse à leurs tripes plutôt qu’à leur raison … Aux Etats-Unis, les messages politiques mensongers n’ont pas commencé avec Trump. Déjà, en 2008, Sarah Palin, candidate à la vice-présidence, répandit l’idée que la réforme du système de santé prévoyait des ‘death panels’ où des comités gouvernementaux décideraient du sort des personnes âgées ou handicapées ! Près de 30% des américains ont cru que ces « panels » faisaient partie de la réforme … Le site Politifact révèle que 70% des déclarations de Trump « étaient principalement fausses, fausses ou de pure invention ».  A présent, comme l’indique l’article du Washington Post, c’est Donald Trump lui-même qui s’estime victime de ‘fake news’ de la part des médias et même du moteur de recherche Google qui ne remonterait sur lui que des informations négatives si bien qu’un de ses conseiller économique propose de ‘réguler’ ces recherches !

Les Américains sont-ils donc plus crédules que les autres ? Ils sont surtout plus connectés et plus nombreux à s’informer en ligne et principalement sur les réseaux sociaux. La nouveauté réside dans le caractère viral des informations, vraies ou fausses, relayées sur les réseaux sociaux et les forums de discussion. Contrairement aux théories généreuses des pionniers du web, les internautes ne bénéficient pas de « démocratie numérique » fondée sur un accès égal pour tous à la connaissance. Alors que la masse d’information n’a jamais été aussi vaste et rapidement disponible, l’information non filtrée par des algorithmes devient plus rare en raison de nos choix antérieurs. En effet, nos recherches antérieures et nos choix sur les réseaux sociaux (likes, RT, etc.) nous enferment dans des boucles de filtres qui produisent un cercle vicieux dont nous ne sommes souvent pas conscients … 1d162bf19fb6e1f83aa71ed060459d59d872aee3-thumb-500xauto-64860

Comme le souligne Olivier Ertzscheid dans son post, les plateformes constituent « une architecture toxique au service du faux […] Et cette architecture est celle, visible, de la promiscuité des profils dans Facebook, comme elle est aussi celle, invisible, de l’orchestration algorithmique de la viralité qui unit les GAFAM. ». Cette ‘promiscuité’ sur les plateformes implique qu’il est impossible de ne pas propager de fausses informations, comme il est impossible de ne pas y être confronté ou exposé …

Cette architecture du faux, qui se double aussi d’une architecture de l’invisibilisation – les ‘Shadow Profiles’ (utilisateurs malgré eux des réseaux sociaux) et les ‘Dark posts (publicités ciblées sur Facebook à partir des données personnelles). Seule une architecture technique autorisant d’autres usages, comme un index indépendant du web, en remettant les ressources documentaires au centre à la place des personnes. La disparition de Google Reader et la fin programmée des fils RSS n’est pas un hasard et est corrélée avec des logiques de désinformation.

Les biais cognitifs et la question de la confiance

51fmZrX204L._SX195_Olivier Ertzscheid pointe aussi une autre raison : nos biais cognitifs « Nous avons une appétence, une gourmandise presque « naturelle » pour le faux, la tromperie et l’illusion. Et c’est de cette appétence dont l’architecture technique se repaît ».

C’est aussi ce que souligne Katy Steinmetz dans un article de Time. Dans une expérience menée par le chercheur en psychologie de l’Université de Stanford Sam Wineburg, un professeur d’université devant évaluer une publication scientifique de l’American College of Pediatricians, est abusé par un site web qui comporte toutes caractéristiques d’un site officiel. Le « .org » à la fin de l’url, la liste de références scientifiques, le design sobre du site, tout l’amène à la crédibilité. Or le site en question représente un groupe qui a est le produit d’une scission conservatrice de l’organisation officielle : il a été accusé de promouvoir des politiques homophobes et est classé comme discriminatoire (hate group). L’équipe de Wineburg a trouvé que des Américains de tous âges, des adolescents ‘digital natives’ aux universitaires de haut niveau, ne se posent pas les questions importantes au sujet des contenus qu’ils trouvent sur le web, ajoutant encore à la crédulité numérique. C’est aussi ce qui amène les internautes à retweeter des liens sans les ouvrir et à se reposer sur les moteurs de recherche. Pour Wineburg, la consommation d’information sur internet « C’est comme si on conduisait des voitures sans avoir de permis ». Même si des lois et des services de renseignement pouvaient débusquer tous les mauvais acteurs du bout de leurs claviers, il serait imprudent de nettoyer l’internet de toutes ses affirmations trompeuses … Dénoncer une information comme ‘fake news’ peut même la rendre plus populaire, C’est ce que Facebook a constaté lorsque le réseau social a alerté ses utilisateurs que certains posts pouvaient être des ‘hoaxes’ (canulars) avant de réaliser que cette approche ‘immunisante’ pouvait être contre-productive …

On retrouve cet aspect contre-productif du ‘débunkage’ (démystification) des ‘hoaxes’ avec le service de fact-checking de l’AFP. Aurore Gayte relate dans son article du Monde comment ce service a réussi à démystifier une vidéo très partagée sur internet censée représenter la mise en scène de migrants en train de se noyer (on voit des personnes sur la plage filmant des hommes et des femmes voilées émergeant à peine de l’eau). Les journalistes de l’AFP ont pu retrouver, grâce à une analyse détaillée de la vidéo, l’origine de ce document : il s’agit d’un documentaire tourné en Crête par une réalisatrice grecque sur un événement en Turquie en 1922, quand les Grecs ont fui l’incendie d’Izmir. Et pourtant, « même en étant une référence mondiale, et même après avoir expliqué point par point le raisonnement derrière un fact-checking, ils sont nombreux à ne toujours pas vouloir croire ce que dit l’AFP. »

Olivier Ertzscheid désigne aussi une autre raison : les ‘régimes de vérité’ de chaque plateforme : « la popularité pour Google (est « présenté comme vrai » ce qui est populaire), la vérifiabilité sur Wikipédia, et sur Facebook ce que l’on nomme « l’engagement » ou le « reach » c’est à dire une forme singulière, perverse et paroxystique de popularité. Ainsi ce qui est faux sur Google ou sur YouTube peut être vrai dans Wikipédia ». Avec ces différents régimes, il est difficile de départager le vrai du faux et aussi dangereux de se servir de l’un, par exemple Wikipedia pour en démentir un autre, par exemple YouTube … Pour le chercheur « Le dé-référencement à la hussarde est aussi efficace qu’il est à manier avec une extrême précaution tant il renforce là encore un régime d’arbitraire limité à la seule décision de la plateforme ».

L’éducation à l’information et aux médias semble être la principale solution à long terme. L’initiative de la journaliste Aude Favre avec sa chaîne YouTube « WTFake » contre la désinformation sur internet, signalée par Vincent Manilève dans Libération constitue une première réponse au niveau du grand public. Pour les étudiants, les ateliers comme celui des BU de Rennes sur l’évaluation de l’information et le problème des fake news en bibliothèque, rapporté par Damien Belveze (Doc@rennes) devrait pouvoir se multiplier. Comme l’a formulé Edward Snowden dans une interview citéé dans le Fil d’Actu « la réponse aux mauvais discours n’est pas la censure, mais plus de discours ».

xfakenews_0.jpg.pagespeed.ic_.232PSP6q2x

Pour l’avocat Christophe Bigot, « la loi sur les fakes news correspond à des méthodes archaïques. - RT France, 04/04/18

Parce que notre ligne éditoriale ne convient pas au pouvoir en place, serons-nous bientôt censurés ?RT France, 06/04/18

Ertzscheid, Olivier. - Fifty Shades of Fake. Le jour des fous et des mensonges. Et les 364 autres.Affordance.info, 22/04/18

Kodmani, Hala. – Russia Today, Sputnik … Un mois d’intox passé au crible. – Libération, 03/05/18

Deschamps Christophe. – Des faits alternatifs à la « Deep Fake Reality » ou comment on fabrique de la poudre aux yeux. – Outils froids, 04/05/18

Loi contre les fausses informations : l’avis du Conseil d’Etat. – Les Crises, 05/05/18

Belvèze, Damien. – Compte-rendu de l’atelier : comment aborder l’évaluation de l’information et le problème des fake news en bibliothèque ? (17/05/18). – Doc@Rennes, 23/05/18

Casilli, Antonio ; Devilliers, Sonia. – Comment se fabriquent les « fake news » ?France Inter, 08/06/18

Chastenet, Patrick. – Fake news, post-vérité … ou l’extension du domaine de la propagande. - The Conversation, 12/06/18

Fausses nouvelles, manipulation de l’information : comment lutter contre les fake news ? Dossier d’actualité - Vie publique, 20/06/18

Manilève, Vincent. – Aude WTFake pedago contre la désinformation sur Internet.Libération, 02/07/18

Proposition de loi relative à la lutte contre la manipulation de l’information : texte adopté n° 151. – Assemblée Nationale, 03/07/18

Les enjeux de la loi contre la manipulation de l’information. – Ministère de la Culture, 04/07/18

Vallat, Thierry. – La loi anti-fake news, une loi « liberticide » : entretien. – RT France via YouTube, 04/07/18

Bensoussan, Alain. -Diffusion de fausses nouvelles par des robots logiciels, enjeu de la loi Fake news. – Droit des technologies avancées – Le Figaro, 20/07/18

Steinmetz, Katy. – How your brain tricks you into believing fake news. – Time, 09/08/18

Gayte, Aurore – Comment fonctionne le « fact-checking » à l’AFP ?Le Monde, 23/08/18

Romm, Tony. – Trump’s economic adviser : ‘We’re taking a look’ at wether Google searches should be regulated.The Washington Post, 23/08/18

 

Affaire Cambridge Analytica : qui a peur des réseaux sociaux ?

Relation-client-online-reseaux-sociaux-plus-performants-que-mail-FDepuis près de trois mois, le scandale Facebook Cambridge Analytica défraie la chronique : tous les médias, la ‘blogosphère’ et les réseaux sociaux résonnent de commentaires et d’analyses sur ce ‘cambriolage’ d’identités numériques 3.0 …

Facebook a reconnu le mois dernier que le réseau avait ‘partagé’ les données personnelles de 87 millions d’utilisateurs avec une entreprise britannique, Cambridge Analytica, qui, sous prétexte de recherche socio-linguistique, vendait ces informations aussi bien à des firmes publicitaires qu’à des groupes politiques. L’élection de Donald Trump aussi bien que le referendum sur le Brexit auraient bénéficié de ces manipulations numériques. Mark Zuckerberg, le PDG de Facebook, est allé personnellement faire amende honorable devant le Congrès des Etats-Unis.

Que sont ces réseaux sociaux et comment ont-ils pris autant d’importance dans notre vie quotidienne ? Partis d’une idée de partage et d’échange de ‘pair à pair’, ils sont devenus en moins d’une quinzaine d’années les ‘géants du net’, des entreprises multinationales qui comptent des milliards d’usagers ! Or, comme l’explique dans son post Thierry Crouzet, « nous avons négligé une loi mécanique des réseaux décentralisés : le ‘winner-take-all’, (le gagnant rafle tout) autrement dit des nœuds deviennent plus gros que tous les autres, concentrant un nombre faramineux de connexions, et de fait ils recentralisent le réseau, donc limitent l’intelligence collective. » amour-amitie-solidarite-les-petits-miracles-des-reseaux-sociaux

Certains psychologues reprochent aux réseaux sociaux de s’éloigner d’une ‘sociabilité originaire’ (où l’on se retrouve pour des ‘rencontre en dur’) comme Jean Twenge, professeure de psychologie citée dans Slate : les jeunes adolescents ne sortent plus et passent leur vie penchés sur leurs smartphones : « La patinoire, le terrain de basket, le bassin de baignade de la ville, le spot de pêche du coin –ils ont tous été remplacés par des espaces virtuels accessibles par les applications et le web.».

Doit-on donc « effacer Facebook » et les autres médias sociaux de notre vie numérique, ou est-il encore possible d’en tirer des effets bénéfiques ou positifs ? Ces médias sont, d’autre part, devenus indispensables aux enseignants-chercheurs et aux professionnels de l’information et de la communication qui peuvent exploiter leur potentiel pour s’informer et échanger avec leurs pairs.

Transfert de donnesLes socionautes 

Kamel Lefafta, consultant en marketing digital dresse le portrait-robot du socionaute français en 2018. En France, 60% des femmes et 59% des hommes utilisent les réseaux sociaux ; les 12-39 forment la masse critique des usagers avec un taux d’utilisation de 87% mais l’écart générationnel se réduit et les plus de 60 s’y retrouvent de plus en plus. 65% des personnes habitant l’agglomération parisienne les utilisent contre 57% résidant dans une commune rurale ; 70% de cadres et presque autant d’employés (68%) et d’ouvriers (67%), mais seulement 29% de sans diplômes. Les socionautes passent en moyenne 82 minutes par jour sur les réseaux et utilisent essentiellement trois plateformes : Facebook, YouTube et Twitter. Contrairement aux Américains, qui, comme le souligne le site BBCNews, restent ‘loyaux’ à Facebook malgré le scandale Cambridge Analytica, les usagers français sont de plus en plus méfiants vis-à-vis des réseaux sociaux. Comme le résume Kamel Lefafta : « A la fois accro et méfiant, le socionaute français vit une relation paradoxale avec ses réseaux sociaux préférés. Il s’y rend principalement pour échanger, garder le lien avec ses proches, s’informer et se divertir. »

Il est évident que les activités diffèrent en fonction du type de réseaux employé : Facebook, WhatsAppp et Instagram pour les échanges avec la famille et les amis ; YouTube pour se divertir ; LinKedin pour les relations professionnelles, Twitter pour suivre l’actualité et la recherche, Meetic ou Tinder pour les rencontres. Mais il arrive aussi que la frontière se brouille entre le privé et le professionnel. C’est ce que souligne Mathilde Saliou dans son article de Numérama.  « Vous voyez bien que vos collègues likent ». C’est la réflexion d’une chef de service lors d’une réunion, s’étonnant que certains membres de l’équipe n’ont pas partagé ou ‘liké’ un post de l’entreprise sur Facebook … Une autre personne ne sait quoi répondre à un supérieur qui lui demande d’être ami sur Facebook … Pour pouvoir accéder à une association « Je n’aime pas du tout mélanger le professionnel et le personnel, donc ça m’a gênée ». Certain.e.s, dont le travail tournent autour de la communication, sont obligé.e.s de se créer un deuxième profil, complètement professionnel. De plus en plus, les entreprises se dotent d’une charte informatique pour définir et organiser les rapports numériques au sein des entreprises. D’après une juriste spécialisée « « Légalement, aucun employeur n’a de contrôle sur les éléments personnels de l’employé, sauf à ce que ceci ne fasse partie intégrante du contrat. Mais dans ce cas, ils n’ont de pouvoir que dans la limite de la transparence et de la proportionnalité. »

Les usages professionnels des réseaux sociaux

images_resocComme on l’a vu, les réseaux sociaux sont utilisés par les marques commerciales pour entretenir l’intérêt et toucher de nouveaux usagers. Les « Community managers »(CM) sont censé.e.s animer les pages de l’entreprise et aussi répondre aux questions des socionautes. Ces communicant.e.s sont beaucoup plus efficaces pour résoudre un problème que les services clients des organisations. En exposant un contentieux sur une page lue par un large public, on risque de ternir l’image de la firme : on vous propose tout de suite de passer en message privé pour traiter le problème ! Certaines entreprises ont quasiment remplacé leur service clients par un CM sur Facebook !

Mais les médias sociaux peuvent être aussi des ressources précieuses pour les enseignants, les chercheurs et les professionnels de l’information. Comme l’explique Pierre Levy, professeur de communication à l’Université d’Ottawa « Dans mes cours, je demande à mes étudiants de participer à un groupe Facebook fermé, de s’enregistrer sur Twitter, d’ouvrir un blog s’ils n’en n’ont pas déjà un et d’utiliser une plateforme de curation collaborative de données comme Scoop.it, Diigo ou Pocket. » Les étudiants sont ainsi plongés dans le flux de ces outils de communication et comprennent mieux leur fonctionnement. Ils apprennent aussi l’importance de l’indexation avec les tags qui permettent de classer et de catégoriser les informations. Les plateformes de curation permettent d’organiser une veille collaborative, indispensable aux futurs chercheurs. La participation et le travail collaboratif sur les réseaux sociaux est d’ailleurs quasiment obligatoire dans les MOOCs.

Organiser et partager sa veille avec des collègues et des lecteurs est aussi un des objectifs des bibliothécaires sur les réseaux sociaux. Cela fait partie d’un programme plus vaste de médiation numérique qui aboutit à l’éditorialisation de contenus, à travers des blogs, par exemple. Comme l’explique les diapositives Les réseaux sociaux en bibliothèque : « La Bibliothèque dissémine ses contenus pour mieux les réintégrer dans ses propres dispositifs ». Mais comme les entreprises ou les collectivités locales, les bibliothèques doivent animer leurs communautés d’usagers sur les réseaux.

La structure des réseaux et la connectivité

Un réseau est « un ensemble d’individus reliés entre eux par des liens créés lors d’interactions sociales » Thomas Laigle, Le Réseau pensant. Cette définition semble induire que les individus ont librement décidé d’interagir socialement et que la communauté ainsi créée ne dépend que de leur seule volonté. Or, quand on analyse la participation des socionautes sur les réseaux, l’activité développée est plutôt réduite. La courbe de participation se traduit par la distribution 90/9/1 : 90% de simple lecteurs, 9% de contributeurs occasionnels et 1% de contributeurs actifs. On est loin de la l’utopie des pionniers d’internet qui voulaient édifier un réseau décentralisé où chacun collabore !

Thierry Crouzet rappelle cette espérance dans son post : « Lors de l’avènement d’Internet, nous avons été quelques utopistes à croire et à prédire que la complexité toujours croissante ainsi que les possibilités technologiques nous aideraient à créer des réseaux toujours plus décentralisés, avec ce rêve que les hiérarchies seraient toujours moins présentes, donc les étoiles toujours plus petites. »  Contrairement à Rezonance, réseau social citoyen limité à la Suisse romande, les réseaux sociaux sont tombés dans le trou noir du ‘winner-take-all’, « L’information circule alors à sens unique. Elle irrigue les hubs et elle assèche les nœuds périphériques. » On a choisi la facilité en allant tous au même endroit au même moment. Plutôt que de réguler l’internet en limitant les connexions, on a fait confiance aux mêmes distributeurs, les GAFAM … mentions-legales-réseaux-sociaux

Les plateformes et le capitalisme de surveillance

Sur l’internet recentralisé, les plateformes deviennent les intermédiaires obligées pour les transactions économiques (acheter, vendre). Elles ont gagné la bataille de la distribution et sont devenues plus performantes. La publicité sur Facebook est un des leviers incontournables pour les entreprises. Le modèle économique de Google et Facebook repose essentiellement sur la revente des données personnelles à des ‘data brokers’, comme le développe Benjamin Sontag dans l’émission de France Inter Comme un bruit qui court. Si Facebook se présente comme une plateforme communautaire (ce qu’il est), il ne faut pas oublier les 30 millions d’utilisateurs actifs en France métropolitaine ! « Un atout indéniable pour l’ensemble des secteurs industriels tous confondus qui pourront utiliser les nombreuses données récoltées et segmentées pour un ciblage Facebook efficient auprès des bonnes personnes. » comme le souligne Arnaud Verchère dans son article du Siècle digital.

La Quadrature du Net, qui mène en ce moment une action de groupe contre les GAFAM en application de la nouvelle loi européenne (RGPD) explique comment Facebook arrive à récolter des informations grâce à ses techniques de traçage, même pour des personnes qui n’ont pas de compte Facebook. En plus des contenus publics, message privés, liste d’amis, de pages, de groupes, likes, commentaires et réactions diverses, les informations sur l’appareil qu’on utilise et de la localisation GPS, le réseau social utilise des cookies, des pixels invisibles (images transparentes qui transmettent des informations de connexions) le login de Facebook que certains sites ou applications utilisent comme outil d’authentification des utilisateurs … Les personnes ciblées sont rarement informées et leur consentement n’est pas sollicité … On peut néanmoins les détecter en installant des traceurs sur le navigateur comme UBlock ou Privacy Badger. GDR

« De l’analyse de toutes ces données résulte un nouveau jeu d’informations, qui sont les plus importantes pour Facebook et au sujet desquelles l’entreprise ne nous laisse aucun contrôle : l’ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler. » A partir d’un test de personnalité et des seuls ‘j’aime’ d’un échantillon de 58 000 utilisateurs, l’université de Cambridge a réalisé une étude en 2013 qui lui a permis d’estimer « leur couleur de peau (avec 95 % de certitude), leurs orientations politique (85 %) et sexuelle (80 %), leur confession religieuse (82 %), s’ils fumaient (73 %), buvaient (70 %) ou consommaient de la drogue (65 %). » « Au bout de 100 clics, on peut connaître quelqu’un mieux que sa famille » (Benjamin Sontag). Et ce n’est même pas la puissance publique, l’Etat, ce ‘big brother’ qui nous espionne à tous les instants, ce sont des sociétés privées multinationales, ce que la Quadrature net appelle le ‘capitalisme de surveillance’. reseauxsociaux

Les manipulations cognitives des notifications : l’écologie de l’attention

Depuis quelques mois on a vu des cadres des GAFAM venir dénoncer les pratiques des géants du numérique. « Depuis Chamath Palihapitiya et Sean Parker (respectivement cadre et ancien président de Facebook) à Loren Brichter (ancien codeur de Twitter), en passant par Tristan Harris (ex salarié de Google auteur du virulent manifeste « Comment la technologie pirate l’esprit des gens »), tous ces repentis du digital pointent du doigt les manipulations cognitives que leur ex employeurs n’ont cessé d’utiliser et de perfectionner depuis des années, dans le but de captiver l’attention de leurs utilisateurs et de s’accaparer leur « temps de cerveau disponible ». Hervé Monier analyse dans son post, comment la captologie, cette nouvelle discipline théorisée par le psychologue américain Brian J. Foggs maintient « les niveaux d’attention et d’engagement des internautes au plus haut degré d’excitation possible » grâce à une combinaison « des enseignements de la psychologie et des neurosciences avec les dernières avancées de l’informatique ». Les plateformes utilisent cinq biais cognitifs pour capter notre attention. A commencer par les notifications, ces signaux auditifs ou visuels qui apparaissent sur nos écrans pour nous signaler la nécessité d’une mise a jour ou d’une mention sur nos réseaux sociaux favoris, puis les gratifications représentées par les ‘likes’ et les retweets qui déclenchent le ‘circuit de la récompense’ avec l’activation de la dopamine, le fameux  neurotransmetteur, sans oublier les interactions sociales dont notre cerveau est si friand !

Mais si les socionautes sont hantés par les ‘informations à ne pas manquer’ (FOMO : Fear of Missing Out), ils ne sont pas pour autant ‘accros’ aux écrans et aux applis … « Pour les addictologues Joël Billieux (professeur à l’université du Luxembourg) ou bien Michel Lejoyeux (chef du service de psychiatrie et d’addictologie à l’hôpital Bichat), l’addiction aux écrans et aux réseaux sociaux par exemple est en elle-même plutôt marginale. » Certains symptômes (manque ou habituation) ne s’appliquent pas vraiment, internet représente davantage un moyen supplémentaire de satisfaire une addiction existante (pornographie, jeu d’argent ou jeu vidéo). De même, aucune étude scientifique n’a vraiment constaté des dégâts cognitifs permanents chez les plus jeunes, liés à un usage excessif des réseaux ou des plateformes … De même, comme le souligne Antonio Casilli dans une émission de France Culture, la sociabilité ‘intermédiée’ qui fonde les réseaux sociaux n’est pas apparue avec les technologies de l’information, mais a toujours existé : on retrouve cette dimension symbolique autant dans les œuvres de fiction (romans, théâtre, poésie) que dans la presse écrite ou les récits oraux (rapsodes).

Plutôt que de prôner la déconnexion et l’abstinence dans l’usage des réseaux sociaux et services en ligne qui constituent malgré tout de formidables outils de socialisation et d’apprentissage, ces experts mettent en garde contre la perte de contrôle face à la technologie. Là encore, on retrouve le problème de la gouvernance de l’internet et de la régulation des plateformes.

640_img_8987

Données personnelles : gare aux GAFAM/Giv Anquetil, Antoine Chao, Charlotte Perry. – Comme un bruit qui court – France Inter, 12/05/18

Verchère, Arnaud. – Le ciblage Facebook, c’est bien plus que des centres d’intérêt. – Le Siècle digital, 11/05/18

Frenkel, Sheera. – Scholars Have Data on Millions of Facebook Users. Who’s Guarding It. – The New York Times, 06/05/18

Calimaq. – L’anti-protection sociale de Facebook et le « providentialisme de plateforme ». – S.I.Lex, 06/05/18

Monier, Hervé. – Réseaux sociaux et plateformes : après des années de manipulations cognitive, vers une écologie de l’attention. – Le blog des marques et du branding, 06/05/18

Facebook privacy: Survey suggest continuing US loyalty. – BBC New, 06/05/18

Casilli, Antonio ; Tisseron, Serge. - Splendeurs et misères des réseaux sociaux. – Matières à penser – France Culture, 27/04/18

Audureau, William. – Comment les réseaux sociaux accentuent l’enfermement dans ses idées. – Le Monde, 24/04/18

Ertzscheid, Olivier. – Pourquoi je ne quitte pas (encore) Facebook ?Libération, 24/04/18

Brunfaut, Simon. – Antoinette Rouvroy : « A mon sens,Zuckerberg est dépassé. – L’écho, 23/04/18

Pourquoi attaquer Facebook ?La Quadrature du Net, 19/04/18

Le premier réseau social a 20 ans. – Thierry Crouzet, 19/03/18

Saliou, Mathilde. – « Vous voyez bien que vos collègues likent » : les profils perso au service du boulot, une fatalité ?Numérama, 19/03/18

Alberti, Xavier. – Twitter, Facebook et les « braves gens ». – Xavier Alberti, 26/02/18

Levy, Pierre. - Comment j’utilise les médias sociaux dans mes cours à l’université. – Red.Hypothèse.org, 22/02/18

Réseaux sociaux : portrait robot du socionaute en 2018. – LK Conseil, 113/02/18

Gaudion, Anne-Gaëlle. – Réseaux sociaux en bibliothèque : support de la formation donnée les 7 et 8 septembre 2017. Bibliothèque départementale de la Mayenne. – Slideshare.net, 11/09/17

Audouart, Marie-Françoise ; Rimaut, Mathilde ; Wiart, Louis. - Des tweets et des likes en bibliothèques. – Paris ; Editions de la Bibliothèque publique d’information, 2017. – Coll. Etudes et recherche. – OpenEdition Books, 11/12/17

Panfill, Robin – Les smartphones ont-ils détruit la génération « iGen » ? – Slate.fr, 04/08/17

 

 

Au-delà du développement des cryptomonnaies : la blockchain, le nouveau paradigme numérique ?

1 yMaDxLYR19wbYrB-nji2rgLe bitcoin va bientôt fêter ses dix ans et les cryptomonnaies se retrouvent au centre de plusieurs controverses. Outre la bulle qui était sur le point d’éclater en décembre dernier, les critiques pleuvent sur ce nouveau mode d’échange. Bill Gates, le co-fondateur de Microsoft, vient de déclarer que cette technologie « a causé des morts d’une manière assez directe » comme le rapporte Mathilde Loire dans son article de Numerama. Pour le milliardaire philanthrope, c’est l’anonymat des transactions qui est responsable de ces méfaits en permettant aux organisations criminelles d’échapper à la police. Néanmoins, Bill Gates ne met pas en cause le mécanisme fonctionnant derrière les cryptomonnaies : la blockchain.

Ce mécanisme devrait bouleverser complètement de nombreux secteurs économiques basés sur des transactions sécurisées. De la finance à l’industrie agro-alimentaire, en passant par l’assurance, la santé, le droit d’auteur, la distribution/consommation d’énergie, le droit (les ‘smart contrats’), les objets connectés seraient concernés. La Commission européenne vient de lancer un observatoire-forum des chaînes de blocs dans l’UE et  en France, l’Assemblée nationale lance deux missions d’information : la première est directement centrée sur les technologies blockchains ; la seconde sera centrée sur les cryptomonnaies, ou cryptoactifs. Au niveau international, le Center for Global Economics a publié une étude sur la blockchain et le développement économique, identifiant quatre défis pour le développement : faciliter les payements internationaux, pourvoir une infrastructure sécurisée de vérification de l’identité numérique,assurer les droits de propriété et enfin rendre l’aide plus sûre et transparente.

Si certains écologistes se réjouissent du fait que cette technologie simplifiera la certification de la production participative d’énergies renouvelables, d’autres s’inquiètent des « gouffres énergétiques » représentés par la consommation d’énergie des ‘mineurs’ pour effectuer les transactions.

La blockchain blockchain-31-638

« Une blockchain, ou chaîne de blocs, est la mise en œuvre d’une technologie de stockage et de transmission d’informations sans organe de contrôle. Techniquement, il s’agit d’une base de données distribuée dont les informations, envoyées par les utilisateurs, sont vérifiées et groupées à intervalles de temps réguliers en blocs, liés et sécurisés grâce à l’utilisation de la cryptographie, et formant ainsi une chaîne1. Par extension, une chaîne de blocs est une base de données distribuée qui gère une liste d’enregistrements protégés contre la falsification ou la modification par les nœuds de stockage. Une blockchain est donc un registre distribué et sécurisé de toutes les transactions effectuées depuis le démarrage du système réparti. » Wikipedia.

Comme on le voit dans cette définition, la principale originalité de la blockchain est l’absence d’organe de contrôle. Comme le protocole Internet, le mécanisme informatique est complètement décentralisé : il n’y a pas de responsable ou de ‘tiers de confiance’. La confiance s’instaure entre les différents agents du système qui sécurisent chaque transaction grâce à la cryptographie. Cela pose problème d’ailleurs pour l’application du nouveau Règlement général de la protection des données (RGPD) que l’Union européenne validera en mai 2018. Comme le souligne Charlie Perreau dans le Journal du Net, si le consentement clair des utilisateurs et la ‘privacy by design’ à l’œuvre dans la blockchain sont compatibles avec le règlement, l’absence de responsable « la personne physique ou morale, l’autorité publique, le service ou un autre organisme qui, seul ou conjointement avec d’autres, détermine les finalités et les moyens du traitement » est incompatible avec le RGPD, car personne n’a la responsabilité juridique du traitement des données. Incompatibles aussi, le droit à l’oubli ou à l’effacement des données, impossible actuellement dans la blockchain, de même que la conservation limitée des données, « celles-ci étant conservées à l’infini … (sauf en cas de dysfonctionnement). »

Le fonctionnement de la chaine de blocs diffère en fonction des produits. Alors que pour le bitcoin, elle est basée sur la « preuve de travail » (proof-of-work) où les utilisateurs ‘mineurs’ doivent exécuter plusieurs algorithmes pour valider la transaction, d’autres cryptomonnaies sont basées sur la « preuve d’enjeu » (proof-of-stake) prouvant leur participation au système (possession d’une certaine quantité de cryptomonnaie). Cependant, cette solution favoriserait les membres les plus riches et éliminerait ceux qui y entrent et ne possèdent encore rien en jeu (nothing at stake) : d’où l’introduction de plusieurs méthodes de pondération (en fonction de la vélocité ou des votes). Ces méthodes consomment beaucoup moins d’énergie que la ‘preuve de travail’ mais sont beaucoup moins sécurisées …

shutterstock-blockchainLa blockchain et l’énergie

Alors que la technologie blockchain a été très vite adoptée pour la production et la certification des énergies renouvelables, elle a aussi été accusée de consommer d’énormes quantités d’énergie, notamment dans le ‘minage’ (production) de bitcoins. Fabrice Flipo et Michel Berne citent dans un article du Nouvel Obs, une étude de 2014 montrant « que la consommation du réseau destiné au bitcoin était probablement de l’ordre de grandeur de la consommation électrique d’un pays comme l’Irlande. ».  A quoi Benjamin Allouche répond dans un post de Bitcoin.fr que si « Le bitcoin est objectivement une technologie qui a besoin d’une quantité monstrueuse d’énergie pour fonctionner. Ceci est malheureusement la vérité. », le problème principal est non la quantité d’énergie consommée (de l’ordre de la consommation annuelle de la Bulgarie en 2017), mais la source et le mode de production de l’énergie. La plupart des mineurs se trouvent en Chine et utilisent de l’électricité produite à partir du charbon. De plus les mineurs sont en concurrence pour valider les transactions et fonctionnent surtout avec des proof-of-work, et le premier qui valide est récompensé en bitcoins ! Cette course explique la consommation folle car la puissance demandée est très importante. En utilisant plutôt des énergies renouvelables, les dommages environnementaux seront bien moindres, en effet « consommer 1 TWh produit grâce à de l’énergie solaire aura un impact moins négatif sur l’environnement qu’1 KWh produit au charbon. ». Les Islandais fonctionnent déjà à l’énergie verte. Le problème se situe plutôt du côté technique de la blockchain. Le proof-of-work est le seul consensus à garantir la sécurité absolue du protocole. Le proof-of-stake, utilisé par d’autres cryptomonnaies, bientôt adopté par ether, est moins gourmand en énergie, mais moins sécurisé.

Unicef, LGBT token, ‘smart contracts’, tourisme, traçabilité agro-alimentaire : les différents chantiers de la blockchain

Les cryptomonnaies

Le bitcoin est loin d’être la seule cryptomonnaie, on en dénombre des milliers aujourd’hui, mais c’est la plus importante et la plus cotée.  Comme on l’a vu, c’est aussi celle qui utilise le protocole le plus sécurisé : lorsque deux utilisateurs échangent de la monnaie, ils sont les seuls à avoir accès à la transaction. Les banques commencent à prendre en compte ce phénomène, la puissante Bank of America vient de reconnaître dans un rapport avec la SEC que les cryptomonnaies représentaient une menace pour leur modèle économique …

L’ether est la deuxième cryptomonnaie qui s’impose. Créée par un jeune Canadien d’origine russe, Vitali Buterin, elle ne se limite pas à la production monétaire, mais utilise sa plateforme décentralisée Etherum pour réaliser des ‘contrats intelligents’ (smart contracts). Toujours basée sur la technologie blockchain : les applications fonctionnent exactement comme elles ont été programmées : sans immobilisation ni censure et sans l’interférence d’un tiers. Comme le souligne l’article de CNews « La blockchain d’Ethereum pourrait ni plus ni moins remplacer les notaires, avocats ou autres en jouant le rôle de «tiers de confiance» lors d’une transaction, et en mettant en quelques secondes en place des contrats sans failles, de manière bien plus efficace qu’un humain. ».

L’Unicef vient de lancer de lancer un projet pilote qui propose aux jeunes ‘gamers’ d’utiliser leurs ordinateurs pour ‘miner’ des ethers au bénéfice des enfants de Syrie. Peter Beaumont dans son article du Guardian indique que cette levée d’argent, qui permet de réduire de 30% les budgets d’aide des Nations Unies (perdus dans la corruption) n’est pas la seule application de la plateforme Etherum : le Programme alimentaire mondial (PAM) l’a aussi utilisée pour distribuer des bons d’alimentation dans un camp de réfugiés syriens en Jordanie à l’aide d’un fichier biométrique d’identification basé sur la reconnaissance des iris.

Une autre cryptomonnaie originale est le ‘LGBT token’. L’entrepreneur américain Christof Wittig, fondateur du chat gay Hornet, veut, en lançant ce ‘jeton rose’ mettre « le pouvoir de la blockchain au service de l’égalité des droits ». Comme l’indique Corentin Durand dans Numerama, ce système ne se limite pas à la production de monnaie, il sert aussi à l’identification sécurisée des membres de la communauté et à la création d’outils et de fonds pour soutenir des initiatives militantes. Wittig veut « faire prendre conscience à toutes les entreprises l’importance économique de ses membres. Afin de marquer les esprits, l’entrepreneur met en avant que l’économie rose représenterait la quatrième économie mondiale si elle se classait comme un pays. ». KryptoMoney.com-Blockchain-news

Outre la production de cryptomonnaies, le protocole blockchain se retrouve à l’œuvre dans de multiples projets économiques, juridiques et alternatifs. Certains, comme l’évoque Irénée Régnauld de Mais Où va le Web, avancent même que la blockchain pourrait signer la fin du capitalisme… En effet, « certaines caractéristiques propres à la Blockchain (architecture distribuée, autonomie, transparence et ouverture) semblent heurter les fondements même du système capitaliste solidement ancré sur les notions de propriété privée, de concurrence, de salariat et de séparation entre capital et travail. ». II reconnaît néanmoins que « l’aplatissement des rapports hiérarchiques ne signent ni la fin du salariat, ni celle du capitalisme ». Néanmoins la blockchain ouvre le champ des possibles avec les Organisations Décentralisés autonomes (DAO), programmes « auto-exécutoires » qui ne nécessitent pas d’autorités centralisatrices, comme Le Bon Coin ou Facebook … On retrouve d’ailleurs cette philosophie libertarienne dans l’interview de Vitali Buterin, le patron d’Etherum, au Monde, où il se définit politiquement comme ‘cuckservatist’ (conservateur contaminé par des idées libérales).

Le système fonctionne déjà, comme on l’a vu pour la certification dans la production et la vente d’électricité, surtout issue d’énergies renouvelables.

Un de chantiers importants qui s’ouvre à cette technologie est la traçabilité des produits agro-alimentaires. Grâce à la blockchain, les différents acteurs économiques de ce secteur sont représentés dans chaque chaînon et chaque transaction est transparente. A tout moment du processus, de la ferme au consommateur, il sera possible de tracer le produit. Comme l’explique Larry Miler dans Forbes, alors que ce sont les consommateurs et les détaillants qui profitent le plus de la transparence, ce sont souvent les agriculteurs qui doivent supporter le fardeau de la traçabilité. Avec le système blockchain, tous les acteurs se retrouvent sur la même page et tracent les produits de façon plus rentable. Le projet de traçabilité TE-Food, basé sur la blockchain, a été implémenté avec succès au Vietnam à Ho-Chi-Minh Ville. En France, le CEA et la start-up Connecting Food ont signé un partenariat de trois ans pour développer de nouveaux outils basés sur la technologie blockchain, améliorant le suivi et les contrôles des produits de l’industrie alimentaire.

Blockchain-graphics_networksLe tourisme avec des réservations sans agences, les industries culturelles avec le droit d’auteur, la santé avec le livret médical sécurisé, la gestion des identités numériques sont les prochains défis que les administrations et les entreprises devront relever avec des protocoles blockchain s’ils ne veulent pas être dépassés par d’autres collectifs …

Ray, Shaan. – How blockchains will enable privacy. – Towards Data Science, 03/03/18

Keane, Jonhatan. – This startup is creating the cultural cryptocurrency for museums and institutions.The Next Web, 02/03/18

Loire, Mathilde. – Bill Gates estime que les cryptomonnaies causent des morts. – Numerama, 28/02/18

Jackson, Reuben. – Op Ed: Why Millenial Migrate to Blockchain Technology and Cryptocurrency in Droves. – Bitcoin Insider, 28/02/18

Rins, Robin. – Blockchain : quel impact sur le secteur industriel ?Blog Kostango, 26/02/18

L’Assemblée nationale s’empare du sujet blockchain. – Blockchain France, 26/02/18

Clark, Bryan. – Bank of America admits cryptocurrency is threatening its business model.TheNext Web, 24/02/18

CEA et Connecting food développent une solution blockchain pour renforcer la confiance dans la filière alimentaire. – CEA – Communiqué de Presse, 23/02/18

Keane, Jonhatan. – The blockchain-based start-up will cut out the middlemen in travel booking. – The Next Web, 22/02/18

Durand, Corentin. – La « quatrième économie mondiale » lance sa blockchain : le LGBT Token. – Numerama, 20/02/18

Boulestin, Rénald. – Microsoft veut croiser l’identité numérique avec la blockchain. – Silicon, 16/02/18

Myler, Larry. – Farm-to-table: How Blockchain Will Change the Way You Eat. – Forbes, 16/02/18

Eudes, Yves. – Le jeune geek qui concurrence le bitcoin. – Le Monde, 15/02/18

La blockchain au service de la charité et de l’environnement. – Cryptoast, 09/02/18

Perreau, Charlie. – La blockchain est-elle compatible avec le RGPD ?Journal du Net, 09/02/18

Beaumont, Peter. – Unicef recruits gamers to mine Etherum in aid of Syrian children. – The Guardian, 06/02/18

Commission européenne. – La Commission européenne lance l’observatoire-forum des chaînes de blocs de l’UE. – Commission européenne – Communiqué de presse, 02/02/18

Biseul, Xavier. – Comment mettre en œuvre un projet de blockchain en cinq étapes.Journal du Net, 02/02/18

Allouche, Benjamin. – Le bitcoin et l’environnement : entre vérité, mensonge et perspectives. – Bitcoin.fr, 04/01/18

Les blockchains, un moyen pour mieux gérer l’électricité ?Engie, 21/11/17

Jeffries, Daniel. – What will bitcoin look like in twenty years?Hacker Noon, 31/10/17

Certification des énergies renouvelables : la première mise en oeuvre de la blockchain en France ? - Avis d’expert – Actu-environnement, 09/10/17

Pisa, Michael ; Juden, Matt. – Blockchain and Economic Development: Hype versus Reality. – CDG Policy Paper 107, July 2017. – Center for Global Development. pdf.- Cgdev.org, 20/07/17

Pialot, Dominique. – Le monde de l’énergie à l’heure de la blockchain. - La Tribune, 09/01/17

Flipo, Fabrice ; Berne, Michel. – Le bitcoin et la blockchain : des gouffres énergétiques ? - Nouvel Obs, 20/07/16

La blockchain signera-t-elle la fin du capitalisme ?Mais où va le web ?,21/07/16

 

Big data, open data, protection des données personnelles : où en sont la science et l’utilisation des données ?

Cloud hackingLes données sont partout, aussi bien dans la vie quotidienne que dans la recherche. Une nouvelle discipline, la science des données, mobilise des experts en mathématique et informatique pour analyser et traiter ce ‘pétrole’ du 21e siècle à coup d’algorithmes et de logiciels d’intelligence artificielle. Tout au long de la journée, des ‘bots’ (petits logiciels d’IA) et des objets connectés les recueillent grâce à des capteurs. On y accède librement, grâce aux dispositifs d’open data, que ce soit dans la ville intelligente (smart city) ou au niveau de la ‘science ouverte’. Les GAFA et autres géants du net se disputent nos données personnelles en investissant des milliards pour les exploiter. Quel droit et quelles réglementations doit-on mettre en place pour protéger ces données tout en profitant de ces nouvelles ressources ?

La science des données

La science des données (en anglais data science) est une nouvelle discipline qui s’appuie sur des outils mathématiques, de statistiques, d’informatique (cette science est principalement une « science des données numériques »4) et de visualisation des données. Le premier objectif du « data scientist » est de produire des méthodes (automatisées, autant que possible) de tri et d’analyse de données de masse et de sources plus ou moins complexes ou disjointes de données, afin d’en extraire des informations utiles ou potentiellement utiles. Pour cela, le « scientifique des données » s’appuie sur la fouille de données, les statistiques, le traitement du signal, diverses méthodes de référencement, l’apprentissage automatique et la visualisation de données. Il s’intéresse donc à la classification, au nettoyage, à l’exploration, à l’analyse et à la protection de bases de données plus ou moins interopérables. (Wikipedia).

Comme l’énonce Stéphane Mallat, dans sa leçon inaugurale pour la création d’une chaire Science des données au Collège de France, « cette discipline s’inscrit au cœur de la problématique scientifique : extraire de la connaissance des données empiriques qui se trouvent à la base de toutes les sciences. On est dans une évolution extraordinairement rapide qui inclut toutes les sciences qui viennent avec leurs propres données. »

Les deux principaux traitements sont la modélisation et la prédiction. L’enjeu en est la généralisation. Dans ce domaine, l’informatique a une avance considérable sur les mathématiques. Elle permet à partir d’un exemple qu’on connaît, d’extrapoler pour les exemples qu’on ne connaît pas. Elle s’appuie sur un très grand nombre de variables (ex : millions de pixels dans une image). 800x-1

En ce qui concerne la gestion des données scientifiques, les professionnels de l’information, dans les bibliothèques de recherche par exemple, peuvent être de précieux collaborateurs pour les chercheurs. Comme le soulignent Ayoung Yoon et Theresa Schulz dans leur article du College & Research Libraries « les bibliothèques universitaires se sont activement impliquées dans les services des données de la recherche : des services qui portent sur l’ensemble du cycle de vie des données comprenant le plan de gestion, la curation numérique (sélection, conservation, maintenance et archivage), la création de métadonnées et la conversion. ». Un nouveau service, le TDM ‘Text and Data Mining’ (fouille automatique de texte et de données) a pu être récemment être ajouté grâce à une série d’amendements au droit d’auteur en France, mais aussi au Royaume Uni.

Les données numériques et la « ville intelligente »

Dans la ‘smart city’, le recueil et le traitement des données devraient permettre aux citoyens de bénéficier de services sur mesure. A Toronto, une filiale de Google est en train d’édifier une métropole futuriste dans un quartier défavorisé au bord du lac Ontario. Comme le rappelle Ian Austen dans le New York Times fin décembre « le Premier ministre canadien, Justin Trudeau a promis que ce projet créerait ‘des technologies qui nous aideraient à construire des communautés plus intelligentes, plus vertes et plus inclusives ». Mais pour certains résidents cet enthousiasme doit être tempéré surtout quand il s’agit d’une entreprise connue pour sa collecte et analyse des données. Le projet Quayside sera chargé de capteurs et de caméras de surveillance qui traqueront tous ceux qui habitent, travaillent ou simplement passent dans le quartier. La masse de données recueillie permettra de mieux organiser et définir les besoins de la future ville, que la société appelle d’ailleurs une ‘plateforme’. L’électricité sera fournie par des mini-réseaux de voisinage, basés sur des énergies renouvelables. D’immenses auvents protègeront de la pluie et du soleil d’été et des allées chauffées feront fondre la neige l’hiver ! 271607011737Bigdata

Mais les capteurs dans les bâtiments pourront mesurer le bruit dans les appartements tandis que les caméras et les capteurs extérieurs surveilleront aussi bien la pollution de l’air que le mouvement des personnes et des véhicules dans les carrefours … Comme le fait remarquer Pamela Robinson, professeur de planification urbaine à l’université Ryerson de Toronto « les données vont être recueillies par une entreprise privée et non par une collectivité administrative. Pour le moment rien n’a été annoncé sur qui en aura la propriété ni qui y aura accès. » De même, si Quayside promet des logements à tous les niveaux de revenus, pour le moment la seule entreprise qui a prévu de s’y installer est Google Canada, donc plutôt des jeunes cadres bien payés … D’après cette chercheuse, les données collectées pourraient être utilisées pour limiter ou décourager l’usage, par ailleurs légitime, des espaces publics par des sans-logis, des jeunes ou d’autres groupes …

Bernard Stiegler qui intervenait dans la Cité du Futur, conférence de Maddyness, déclarait « Pour faire des villes intelligentes, essayons d’être intelligent. La nouvelle urbanité, c’est la ville désautomatisée, car la ville automatisée détruit les relations de voisinage ». Citant l’expérience de Plaine Commune (Communauté de 9 communes de Seine Saint-Denis) où il est personnellement impliqué mais aussi des entreprises comme Vinci, Orange et la Caisse des Dépôts, le philosophe a expliqué que cela implique de savoir utiliser ces technologies innovantes avec la population de Seine Saint-Denis pour qu’elle y prenne part, notamment à travers un programme d’économie contributive.

images_villeC’est aussi le point de vue de Florence Durand-Tornare, fondatrice et déléguée générale de l’association Villes Internet dans l’article de Martine Courgnaud-Del Ry dans la Gazette des communes : « Plus de trente « Villes Internet » (hors métropoles) décrivent, parfois depuis longtemps, des dispositifs de mise à disposition de données informatives, techniques, juridiques ou statistiques. Ce qui me paraît significatif, c’est qu’elles ouvrent avant tout des données utiles au citoyen, et pas uniquement celles qui sont attendues par les grands opérateurs dans les zones hyper-urbaines — essentiellement relatives au transport ou à la gestion de l’énergie… Nous remarquons aussi que l’ouverture des données est l’occasion d’organiser des dispositifs participatifs avec les citoyens, qui contribuent parfois activement à choisir les applications utiles aux résidents que la donnée permet de produire. »

L’adoption du RGPD et la polémique sur la ‘patrimonialisation’ des données personnelles

L’Assemblée nationale examine en ce moment le projet de loi sur la protection des données personnelles « qui adapte notre droit au nouveau cadre juridique européen, composé d’une part, du règlement général de la protection des données (RGPD) et d’autre part de la directive sur les fichiers de police et de justice, qui entreront tous deux en vigueur en mai 2018. ». Ce règlement fixe de nouvelles obligations à toute entreprise exploitant des données : droit de portabilité d’un opérateur à l’autre, droit d’effacement et surtout, consentement explicite.

Une controverse vient de se développer dans la presse après une interview Gaspard Koenig dans Les Echos évoquant le Rapport du mouvement Génération libre vantant les mérites de la commercialisation des données personnelles. Pour G. Koenig « si la data est bien cet « or noir » du 21ème siècle, il n’y a pas de raison de ne pas payer les producteurs – nous – sans laisser aux raffineurs (les agrégateurs et les plates-formes) l’intégralité des revenus liés à l’exploitation des data. » Pour ce philosophe libéral, il y a trois options pour gérer l’accès aux données : mettre en place une « sorte d’agence nationale chargée de mettre des data encryptées à la disposition des entreprises », créer, comme la CNIL et la Commission européenne, des « droits pour les citoyens et des obligations pour les entreprises, avec le risque de judiciarisation excessive de l’économie digitale et d’étouffer l’innovation ». La troisième option qu’il privilégie et « qui peut s’articuler à la précédente, est la patrimonialité des données pour permettre aux entreprises de se les approprier après avoir justement rémunéré les citoyens. ». Cette transaction se ferait à travers « un système de ‘nanopaiements’ qui viendraient créditer ou débiter en continu un compte digital personnel ». Ceux qui refuseraient de céder leurs données seraient obligés de payer les services numériques. Cette idée a été reprise dans une tribune du Monde prônant la ‘monétisation de nos données’, signée par plusieurs personnalités (Bruno Bonnell, Laurence Parisot, Alexandre Jardin, Gaspard Koenig). claire-sambuc-juriste-tariq

Cette « fausse bonne idée » comme la définissent Serge Abiteboul et Gilles Dowek dans une tribune dans le Monde, a été immédiatement attaquée par un grand nombre de chercheurs et de juristes dans la presse et sur les réseaux sociaux. Pour ces deux chercheurs « Le cas des données numériques est cependant un peu plus complexe que celle de des champs d’orge ou de blé, car qui cultive les données ? Ceux qui les produisent (vous et moi, les géants du Web, les hôtels…), ou ceux qui les entassent et les analysent pour en tirer du profit (ni vous et moi) ? ». Et même une fois la propriété établie, comment les internautes seront-ils assurés que le contrat ne soit pas léonin (accès au service contre ‘open bar’ pour les géants du Net) ? De plus, il n’est pas sûr que ces entreprises soient vraiment intéressées par nos données personnelles, vu qu’à travers le ‘crowdsourcing’, un grand nombre d’internautes produisent déjà du travail sur les données pour une très faibles rémunération. Mais surtout les données personnelles sont avant tout sociales : elles résultent des interactions des internautes entre eux ou avec des entreprises ou  institutions (mails, commentaires, profils, etc.). Tristan Nitot dans son post sur Standblog, reprenant la comparaison avec la vente d’un rein, rappelle que déjà le CNNum estimait que « l’introduction d’un système patrimonial pour les données personnelles est une proposition dangereuse ». Comme il est interdit de faire commerce de ses organes (‘indisponibilité’ ou ‘non patrimonialité’ du corps humain), on ne peut séparer  l’individu de ses données personnelles, ça serait en faire un objet qu’on peut commercialiser « permettre la patrimonialisation c’est — métaphoriquement — permettre de revendre par appartements son moi numérique, c’est faire commerce de son corps numérique, en quelque sorte, ce qui est interdit en France pour son corps physique, au nom de la dignité humaine. ». De plus, il sera très difficile à un individu de se faire payer vu les difficultés qu’a le fisc à faire payer les GAFA … Le rapport de force ne sera pas du tout en sa faveur …

indexUne autre position est celle développée par l’essayiste Evgeni Morozov dans l’émission Soft Power citée par Calimaq dans son post fin octobre. Plutôt que la défense individuelle de la vie privée, Morozov propose de faire des données personnelles un ‘bien public’ et de les faire relever du ‘domaine public’. Il ne pense pas « qu’on puisse régler tous les problèmes que posent les géants du net en utilisant les outils traditionnels de régulation du marché, c’est-à-dire en leur faisant payer des taxes et en mettant en place des lois anti-trust ». Il préconise même d’accélérer le processus d’automatisation et d’analyse des données, car tout n’est pas négatif. Si les cancers pourront bientôt être dépistés grâce aux données, cela ne devrait pas se faire en donnant autant de pouvoir à des entreprises de la Silicon Valley ! Un système dans lequel les données appartiennent à la communauté permet à tout un chacun de se saisir de ces données pour en faire quelque chose, même au niveau local. E. Morozov préconise « un système hybride empruntant à la fois des éléments à la domanialité publique et à la propriété intellectuelle, tout en s’inspirant de certains mécanismes des licences libres ».

Cette hybridation entre protection personnelle et usage collectif se retrouve dans le point de vue du sociologue Antonio Casilli qui défend dans un article du Monde avec Paola Tubaro, l’idée que « la défense de nos informations personnelles ne doit pas exclure celle des travailleurs de la donnée ». Pour ces chercheurs « Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès. ». C’est pourquoi plutôt que la protection individuelle des données, Casilli et Tubaro défendent une négociation collective contre des services. Lionel Maurel et Laura Aufère développent cette approche dans un post très détaillé de S.I.Lex.  Ces chercheurs prônent une protection sociale au sens large du terme, car « si les données sont produites dans le cadre d’activités assimilables à de nouvelles formes de travail, alors ce sont des mécanismes de protection sociale enracinés dans le droit social qu’il convient de déployer pour garantir les droits des personnes. ». Ils préconisent de se doter de moyens adéquats pour engager ces négociations dont les termes restent encore dictés par le cadre imposé par les plateformes. Dans cet article, repris d’ailleurs par Libération, les chercheurs dessinent les contours de ce nouveau droit social du 21e s. Jusqu’à présent, la protection des données était restreinte au niveau individuel. Comme le soulignent la juriste Antoinette Rouvroy et Valérie Peugeot de l’association Vecam, que ce soit pour l’obligation de consentement que pour la portabilité des données, aussi bien la CNIL que le RGPD se concentrent trop sur le niveau individuel. D’où l’importance de « mobiliser un nouvel imaginaire pour construire un cadre de négociation collectives sur les données ». th-300x1000-rgpd.jpg

Rochfeld, Judith ; Farchy, Joëlle ; Forteza, Paula ; Peugeot, Valérie. - « Les internautes réclament un usage moins opaque et une maîtrise de leurs données personnelles ». Tribune. – Le Monde, 07/02/18

Loi données personnelles : dans l’apathie des débats, une envolée néo-libérale absurde ! - La Quadrature du Net, 07/02/18

Courgnaud-Del Ry, Martine. – Des services numériques communs émergent enfin sur tout le territoire. – Gazette des communes, 07/02/18

Guillaud, Hubert. – Pourquoi mes données personnelles ne peuvent pas être à vendre ! – Internet Actu, 06/02/18

Données personnelles : le projet de loi qui va mieux nous protéger. – La Dépêche, 06/02/18

Assemblée nationale. – Société : protection des données personnelles – Projet de loi déposé le 13 décembre 2017- discussion 06-08/02/18/Paula Forteza, Rapporteure.

Wiggleworth, Robert (FT). – Big data : les données numériques peuvent-elles révolutionner l’action politique ? – Nouvel Economiste, 06/02/18

Collectif. – Nos « données personnelles » nous appartiennent : monétisons-les ! - Le Monde, 05/02/18

Casilli, Antonio ; Jeanticou, Romain.  – La domination des géants du numérique est-elle un nouveau colonialisme ? Entretien. – Télérama, 05/02/18

Abiteboul, Serge ; Dowek, Gilles. – « La propriété des données est une fausse bonne idée ». – Le Monde, 05/02/18

Maurel, Lionel ; Aufrère, Laura. – Pour une protection sociale des données personnelles. – S.I.Lex, 05/02/18

Nitot, Tristan. – Données personnelles et droit de vendre des organes humains. – Standblog, 02/02/18

Lévêque, Rémy. – « Facebook nous prend en otage ». – Usbek & Rica, 02/02/18

Parapadapis, George. – RGPD, de l’incertitude aux solutions pratiques. – Informatique News, 31/01/18

Revendre ses données « personnelles », la fausse bonne idée. – Mais où va le web ?, 29/01/18

Ertzscheid, Olivier. – Faut pas prendre les usagers des GAFAM pour des datas sauvages. – Affordance.info, 28/01/18

Pour une patrimonialité des données : Rapport. – Mes data sont à moi/Collectif data. – Génération libre.eu, 25/01/18

Naughton, John. – Who’s doing Google and Facebook dirty work?- The Guardian, 24/01/18

Casilli, Antonio ; Tubaro, Paola. – La vie privée des travailleurs de la donnée (Le Monde, 22/01/18) – Antonio A. Casilli

Mallat, Stéphane. – Sciences des données : leçon inaugurale (vidéo). – Collège de France, 11/01/18

Schmitt, Fabienne ; Madelaine, Nicolas. – Gaspard Koenig : « Chaque citoyen doit pouvoir vendre ses données personnelles ». – Les Echos, 07/01/18

Rey, Olivier ; Rouvroy, Antoinette. – Données, savoir et pouvoir (Table ronde). – PhiloInfo, décembre 2017 (vidéo).

Austen, Ian. – City of the Future? Humans, not technology, are the challenge in Toronto. – The New York Times, 29/12/17

Calimaq (Lionel Maurel). – Evgeni Morozov et le « domaine public » des données personnelles. – S.I.Lex, 29/10/17

 

Intelligence artificielle : quels impacts sur l’économie et la société ?

IALes progrès de la recherche en intelligence artificielle en ont fait un sujet incontournable des tendances de la décennie actuelle. Annoncées depuis les années 1960, les avancées dans cette discipline complexe se sont confirmées depuis les années 2000, grâce, notamment, au ‘machine learning’ (apprentissage automatique : les machines ‘apprennent’ à partir des jeux de données qui leur sont proposés) et à son dernier développement le ‘deep learning’ qui s’appuie sur les ‘réseaux de neurones’ : des algorithmes de machine learning sont utilisés pour entraîner les couches profondes de réseaux de neurones. Plutôt que de modéliser de vastes quantités d’information (ex : calculer tous les coups possibles dans une partie d’échec), les réseaux de neurones apprennent tout seuls en digérant des millions de données (Maddyness). Combinés avec des mégadonnées (big data), ces intelligences artificielles réalisent des opérations et des actions qui dépassent en rapidité et en pertinence les actions humaines. Cela explique le succès de ces technologies cognitives au Web Summit de Lisbonne en novembre dernier où robots et véhicules autonomes ont joué les vedettes.

Les exemples des récents succès de l’automatisation et de l’IA se multiplient : les taxis autonomes, comme Lyft à Boston ; la prévention des suicides grâce à leur détection sur les messages Facebook, la prédiction (réussie) de la personne de l’année au magazine Time, la découverte de nouvelles exoplanètes dans un partenariat Google-NASA, etc. Comme le souligne Olivier Ezratty dans son post, l’intelligence artificielle n’est pas un produit. Il n’y a pas de logiciels d’intelligence artificielle mais des solutions d’intelligence artificielle très variées qui s’appuient sur plusieurs dizaines de briques logicielles différentes qui vont de la captation des sens, notamment audio et visuels, à l’interprétation des informations, au traitement du langage et à l’exploitation de grandes bases de données et de connaissances structurées ou non structurées.

Combinée avec une voix de synthèse, Chaï, une application d’intelligence artificielle permet d’écouter sur son téléphone mobile la suite d’un livre papier à l’endroit exact où l’on s’est arrêté. Cette application convient plus à un documentaire qu’à un ouvrage de fiction. Idéal pour réviser ses cours dans les transports en commun ! Les fichiers audios comportent des dictionnaires qui enrichissent le texte, en transformant par exemple les sigles et acronymes en termes développés. Et comme le confirme Alexis Botaya, qui présentait ce produit au salon HumainxMachines, aucun problème de droit d’auteur en raison d’un accord avec les éditeurs : le traitement s’effectuant à partir du fichier de l’ouvrage avant son impression et le client doit avoir acheté le livre papier.

Au Japon, l’entreprise Tasei se propose de lutter contre le surmenage de ses employés en leur envoyant des drones bourdonner autour d’eux et leur jouer « Auld Lang Syne », la chanson écossaise qui signale au Japon la fermeture des magasins … Comme l’explique Nelly Lesage dans Numérama, les Japonais peuvent effectuer plus de 80h d’heures supplémentaires par mois ! Le modèle T-Frend est doté d’une caméra qui surveille le comportement des employés et se déclenche quand ils dépassent les horaires. Pour une fois, la surveillance est utilisée pour le bien-être des travailleurs !

En Chine, la reconnaissance faciale est généralisée dans la vie quotidienne et le piéton qui traverse au feu rouge est vite repéré et sa photo affichée au carrefour ! Comme l’explique Leng Biao, professeur de vision informatique à Pékin, cité dans l’article du Monde, « L’important ce sont les algorithmes. Quand il s’agit de reconnaitre une personne dont on a la photo, la reconnaissance faciale est très fiable, on trouve même des logiciels gratuits sur internet ». Et comme en Chine les gens sont moins préoccupés des questions de vie privée, cette méthode est bien acceptée…   1486620188464

Ces performances se sont multipliées depuis une quinzaine d’années et ne manquent pas de soulever controverses et inquiétudes aussi bien parmi les scientifiques et géants du net (Stephen Hawking, Elon Musk et Bill Gates) que dans le grand public. Laurent Alexandre, le chirurgien et homme d’affaire, voudrait au contraire, « casser la gueule à l’Europe pour avancer ». Comme le souligne Pierre Cheminade dans la Tribune, pour le créateur de Doctissimo l’Europe a déjà perdu la bataille du numérique et « que pour ne pas perdre la guerre et sortir d’une situation de « colonie numérique sans souveraineté », la France doit renforcer la recherche en intelligence artificielle et supprimer la protection des données personnelles. ».

Ces préoccupations autant éthiques que réglementaires ont amené le gouvernement français à confier au mathématicien et député Cédric Villani, une mission sur ce sujet, accompagnée d’une consultation publique. Au niveau européen, Margarethe Vestager, commissaire européenne à la concurrence, est intervenue au Web Summit pour affirmer que le marché unique européen n’a pas vocation à être régi par « la loi de la jungle, mais par la démocratie à l’œuvre, pour le respect de la concurrence au service de l’innovation » .

 

Les principaux secteurs impactés   Un-groupe-de-recherche-créé-pour-encadrer-lintelligence-artificielle-des-robots

De nombreux secteurs et services sont déjà ou seront bientôt touchés par ces innovations technologiques, et ce à différents niveaux.

  • Les transports avec les véhicules autonomes
  • La santé avec des programmes de détection de maladies (cancers)
  • La relation client avec l’utilisation d’agents conversationnels et de traitement automatique de courrier électronique
  • La sécurité avec la reconnaissance faciale et les technologies de vision artificielle
  • L’urbanisme avec la ville connectée (smart city)

L’enseignement, la psychothérapie, le journalisme, la politique et même la littérature pourraient être touchés par cette vague d’automatisation. Mais pour le moment toutes les professions ‘créatives’ sont relativement épargnées.

Des informations contradictoires sur les conséquences socio-économiques et l’emploi de l’automatisation de l’industrie et des services se multiplient sans s’annuler pour autant … Nelly Lesage dans son article de Numerama évoque « un rapport du cabinet McKinsey & Cie qui estime que 800 millions de travailleurs perdront leur emploi d’ici 2030, en raison de l’automatisation ». Cette « invasion des robots » touchera surtout les pays les plus avancés, comme l’Allemagne et les Etats-Unis. Les métiers impliquant une interaction humaine, comme les médecins, les avocats, les enseignants et les barmen, devraient, quant à eux être préservés. La vidéo publiée dans le Monde « Serons-nous un jour remplacés par des intelligences artificielles » cite une étude du cabinet Roland Berger de 2014 qui prévoit que 3 millions d’emplois pourraient disparaître d’ici 2025 à cause des intelligences artificielles ! Et les métiers engendrés en retour par le secteur robotique ne compenseront pas ces disparitions. Plus préoccupant encore, ces mesures ne se limitent pas aux métiers simples et répétitifs … Dans son article de l’Usine digitale, Christophe Bys, en revanche, cite une étude internationale de Cap Gemini selon laquelle « les entreprises qui ont recours à l’intelligence artificielle n’ont majoritairement pas détruit d’emplois. Elles en ont même créé. ». Toutefois cette étude qui relativise l’impact de l’IA porte sur un périmètre restreint d’entreprises (dont le chiffre d’affaire est supérieur à 500 millions de dollars). Les pays européens (France, Espagne, Pays-Bas) ont déployé moins d’initiatives IA que l’Inde ou l’Australie …

C’est aussi le point de vue de Bertrand Diard, président de Tech in France, dans son interview dans la Croix « La robotisation dans l’industrie n’a pas réduit le volume d’emplois. Ce qui l’a fait, ce sont les délocalisations vers la Chine. L’Allemagne, qui est très robotisée, a créé de la richesse et de l’emploi industriel, alors que la France, dans le même temps, en a perdu. » De nouveaux métiers devraient émerger autour de ces nouvelles technologies et il faut développer la formation des travailleurs qui pourraient ainsi s’adonner à des tâches plus intéressantes. Alain Guillemolles a interviewé dans le même article Romain Guers, délégué syndical au Crédit Mutuel. Cette banque a adopté Watson, l’agent intelligent d’IBM (ce chatbot est aussi en fonction chez Orange et Bouygue Telecom) pour l’assister dans le traitement des données de la relation clients : « il n’est pas question de remplacer les conseillers bancaires par des robots. […] l’outil ‘intelligent’ aide les chargés de clientèle à trier le courrier en fonction des priorités exprimées par les clients. De plus, ils ont accès à un « assistant » qui peut répondre à certaines demandes d’information en épargne et assurance. Mais le conseiller commercial reste le pivot de la relation avec le client. ». Là aussi, la mise en place de l’outil IA n’a pas eu d’impact sur l’emploi. Pour le moment, car les outils intelligents apprennent très vite …

On retrouve ici les deux conceptions de l’IA : d’une part, l’IA comme assistant de l’humain qui permet de réaliser l’’homme augmenté’, doté de sortes de prothèses technologiques ; d’autre part, l’IA autonome qui arriverait à une sorte de ‘conscience’ !

cover-MIT-600x399Dans la recherche médicale, en revanche, l’outil intelligent n’est pas encore vraiment fiable. Watson devait permettre aux soignants « de passer moins de temps sur la littérature et plus de temps pour prendre soin des patients ». Comme le souligne Jean-Yves Paillé dans la Tribune, « L’IA destinée à trouver des solutions afin de personnaliser les traitements en cancérologie est pour le moment décevante, en particulier dans les diagnostics ». Le système souffre d’un certain nombre de biais : d’abord dans les publications scientifiques : sur 700 000 articles publiés par an en médecine, de nombreuses publications n’ont pas de valeur. « La machine n’est pas capable aujourd’hui de faire la différence entre ce qui ne vaut rien et un article intéressant » comme l’analyse Guy Vallencien dans

« La médecine sans médecin » cité dans l’article. De plus près de 2% des scientifiques admettent « avoir fabriqué, falsifié ou modifié des données ou des résultats au moins une fois. » « jusqu’à 33,7% ont avoué d’autres pratiques de recherche douteuses » d’après l’étude de Plos One.  Mais aussi l’intelligence artificielle s’appuie sur des données médicales spécifiques aux protocoles de soins des Etats-Unis et aurait du mal à s’adapter aux méthodes de différents pays où les protocoles peuvent différer … « L’IA ne peut pas être plus neutre et performantes que les données dont elle dispose ».

Ethique et réglementation

L’éthique fait partie des principaux axes définis par la mission Villani et concerne de nombreux aspects du déploiement de ces technologies. Aux États-Unis, les géants du numérique, Google, Apple, Facebook, Amazon, Microsoft, IBM ainsi que de nombreux chercheurs s’engagent pour développer une intelligence artificielle responsable et éthique. Le Partnership on AI to benefit people and society (Partenariat sur l’IA au service des citoyens et de la société), organisation à but non lucratif, a pour objectif la compréhension du public sur l’IA et la définition de meilleures pratiques dans ce domaine.

Au Québec, le préambule de la Déclaration de Montréal a été dévoilé en clôture du Forum sur le développement socialement responsable de l’intelligence artificielle le 3 novembre. Portant sur les thèmes de la cybersécurité, la responsabilité légale, la psychologie morale, le marché du travail, le système de santé et la ville intelligente, le Forum a comme ambition la ‘coconstruction’ entre le public, les experts et les pouvoirs publics. Comme l’a déclaré Guy Breton, recteur de l’UdM « Les avancées de l’intelligence artificielle toucheront progressivement tous les secteurs de la société et nous devons poser, dès maintenant, les balises qui encadreront son développement afin qu’il soit conforme à nos valeurs et porteur d’un véritable progrès social.» Les-rendez-vous-du-numérique-et-du-développement-commercial

En France, la CNIL dans son rapport des enjeux éthiques des algorithmes et de l’intelligence artificielle, présenté le 15 décembre, réaffirme deux principes fondateurs et préconise six recommandations opérationnelles pour permette à l’Homme de garder la main. Tout d’abord, le principe de loyauté : l’intérêt de l’utilisateur doit primer ; un principe de vigilance/réflexivité ensuite en organisant « un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants ». Ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique.

Parmi les recommandations : former à l’éthique tous les acteurs-maillons de la ‘chaîne algorithmique’ ; rendre les systèmes algorithmiques compréhensibles ; encourager la recherche sur l’IA éthique ; renforcer la fonction éthique au sein des entreprises. Comme le dit Isabelle Falque-Pierrotin, Présidente de la CNIL « L’objectif de ce débat est de garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle ».

Alexandra Yeh évoque dans son compte-rendu de la Conférence Nouvelles pratiques du journalisme de l’Ecole de Journalisme de Sciences Po, la proposition de Dominique Cardon pour une ‘éducation des algorithmes’. Comme on s’en est rendu compte dans les années 1980, les tentatives de programmer les machines à raisonner comme des humains avec des règles et des systèmes de décisions logiques sont vouées à l’échec. L’humain n’est pas un être pleinement rationnel et ses décisions dépendent souvent de facteurs imprévisibles (contextes, affects, sensibilité). Il faut donc « apprendre aux machines à analyser nos comportements plutôt que nos représentations ». Pour Dominique Cardon « nous devons réfléchir à la façon dont voulons éduquer les algorithmes ». Car nous sommes responsables des biais de l’IA (cf le cas des IA racistes).

Avec l’automatisation, les dilemmes moraux vont se multiplier : en plus de gérer les actions accidentelles ou intentionnelles de leurs inventions, les chercheurs en AI devront faire face à de tels dilemmes. Par exemple, face à une situation de danger, l’IA de la voiture autonome devra décider qui épargner en cas d’accident : une femme enceinte ou un homme âgé ; renverser un enfant ou deux adultes ? En fait, décider lesquels d’entre nous devront vivre ou mourir …  Jean-François Bonnefons, professeur à la Toulouse School of Economics, explore ces dilemmes avec le projet Moral Machine qui « confronte les internautes à ce genre de situations pour leur demander de trancher, a déjà recueilli 40 millions de décisions ». Ce programme permet d’identifier les critères pesant dans la décision, les variations selon le type de personne (genre, âge, CSP, nationalité) et les différences culturelles et géographiques. Si les choix moraux sont relativement homogènes (sauver les humains plutôt que les animaux ), les résultats montrent qu’il n’existe pas de règle d’éthique totalement universelle, même si des convergences locales existent dans le monde …

A l’instar des avancées de l’intelligence artificielle, les préoccupations éthiques et politiques à ce sujet sont un « work in progress ». Nous aurons l’occasion d’y revenir à l’avenir.

data-672x372Bonnes fêtes et meilleurs vœux pour 2018

Pour aller plus loin

L’intelligence artificielle, quelles conséquences pour l’emploi. – Les Numériques – Dossier, 17/12/17

Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. – CNIL, 15 décembre, 2017

Cheminade, Pierre. – Laurent Alexandre : « La France a perdu sa souveraineté numérique ». – La Tribune, 13/12/17

Georges, Benoît. – Ce que les Français attendent de l’intelligence artificielle. Les Échos, 12/12/17

Paillé, Jean-Yves. – Dans la santé, Watson, l’IA d’IBM, doit encore faire ses preuves.La Tribune, 08/12/17

Simonite, Tom. – Artificial Intelligence seeks an Ethical Conscience. – Wired, 12/07/17

Lausson, Julien. – Intelligence artificielle : la Mission Villani vous demande votre avis. – Numérama, 07/12/17

Tisseron, Serge. - IA, robots qui parlent et robots sous influence.InaGlobal, 06/12/17

Yeh, Alexandra. – IA et journalisme : quelle éthique ?Meta-media, 05/12/17

#NPDJ Les nouvelles pratiques du journalisme 2017. – École de journalisme de Sciences Po, 04/12/17

Lesage, Nelly. – Un rapport estime que les robots vont prendre 800 millions d’emplois d’ici 2030. – Numérama, 30/11/12

2067, des robots dans la ville/Usbek & Rica. – Inriality, 28/11/17

Kiefer, Bertrand ; Navaris, Sophie. – « La médecine, le dernier lieu où l’on peut exprimer sa sensibilité » Entretien. – Tribune de Genève, 25/11/17

Maignan, Iris. – #Étude : les Français, pas (du tout) prêts pour l’intelligence artificielle. – Maddyness, 25/11/17

Web Summit 2017 à Lisbonne : que retenir du Davos de la Tech ? - FrenchWeb, 16/11/17

Guillemoles, Alain. - Watson mène la révolution de l’intelligence artificielle. – La Croix, 13/11/17

Deluzarche, Céline. – #IA : Deep learning, le grand trou de l’intelligence artificielle. – Maddyness, 13/11/17

Quel sera l’impact de l’intelligence artificielle sur l’emploi. – La Croix, 13/11/17

Piquard, Alexandre. – L’intelligence artificielle, star inquiétante du Web Summit à Lisbonne. – Le Monde, 10/11/17

Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. – Université de Montréal, 03/11/17

Gavois, Sébastien. – Intelligence artificielle : enjeux économiques et cadres légaux s’invitent au Sénat. – NextInpact, 26/10/17

Ezratty, Olivier. – Les usages de l’intelligence artificielle. – Opinions libres, 19/10/17. – E-book téléchargeable.

Intelligence artificielle, une nouvelle mission confiée à France Stratégie. – France Stratégie – Premier Ministre,16/10/17

Yann Le Cun ; « Aujourd’hui, Facebook est entièrement construit autour de l’intelligence artificielle » Entretien. – Le Monde, 03/10/17 – vidéo.

Quel avenir pour l’enseignement à distance ?

F1Émergeant il y a cinq ans, les MOOCs avaient soulevé un grand enthousiasme en matière d’enseignement en ligne : voir ces cours prestigieux d’universités d’élite mis à la disposition gratuitement du plus grand nombre représentait une ‘disruption’ dans l’univers sélectif de l’enseignement supérieur, en particulier aux États-Unis où l’accès à l’Université est difficile et les droits de scolarité élevés.

L’éclatement de la bulle Mooc

Les Moocs ont-ils fait ‘pcshitt’, comme le prétend Marine Miller dans son article du Monde ?

Un certain nombre de critiques s’élèvent contre l’évolution de cette innovation pédagogique. Tout d’abord, sa technologie qui n’a rien de vraiment révolutionnaire : des vidéos de cours magistraux accompagnés de quelques quizz … C’est loin d’être la disruption annoncée … De plus, la gratuité des cours, qui faisait l’attrait de ce dispositif, notamment dans les pays anglo-saxons, a été partiellement réduite, en particulier en ce qui concerne la certification ou les crédits dont les étudiants peuvent bénéficier. Sans parler de ceux qui déplorent la dématérialisation des cours et l’absence physique du professeur (et des étudiants !).

Malgré les 25 millions de participants et avec un marché estimé de 2500 millions de dollars (chiffres de 2015à vérifier), les MOOCs ne semblent pas avoir trouvé leur rythme de croisière. D’après une étude de Coursera, citée par Managexam, seuls 4% des étudiants avouent poursuivre leur formation jusqu’au bout … ! Et tous les étudiants n’ont pas la capacité d’apprendre de façon autonome … Mais tous les participants ne cherchent pas forcément à décrocher le diplôme ou la certification à mettre sur leur CV … Et près de 50% en ont suivi au moins la moitié … !images_civ

Mais plus sérieusement, c’est la philosophie même de ces cours en ligne qui est remise en cause. Outre les abandons massifs et le changement de modèle économique des plateformes, Karen Head dénonce le « colonialisme académique » que représentent les MOOCs dans son livre Disrupt This !, cité dans la recension de livres de Impact of Social Science. Professeur associée de littérature au Georgia Institute of Technology (Georgia Tech), elle a expérimenté elle-même ce dispositif en proposant son cours d’écriture de 1ere année sur un MOOC, bénéficiant d’un financement de la Gates Foundation qui voulait disposer au moins d’un cours non-traditionnel dans son offre. Ce ‘point de vue de l’intérieur’ lui a permis de nuancer son impression. Pour elle, cette disruption évolue dans le contexte du modèle éducatif de l’enseignement supérieur américain, la plupart des plateformes sont basées aux USA et nouent des partenariats avec les universités américaines les plus renommées. C’est difficile d’évoquer une ‘démocratisation’ de l’enseignement supérieur dans ce contexte. Les plateformes européennes (FUN, FutureLearn[GB]) ont plus ou moins imité le modèle américain. La seule proposition ‘vendable’ des Moocs, c’est la promesse d’un changement positif pour tout un chacun, que les ‘mal desservis du monde entier’ vont pouvoir profiter d’un accès libre aux enseignements des meilleures universités’. En fait, on assiste à l’adoption de contenu payant produit par ces grandes universités par les petites et moyennes universités, le développement et la maintenance d’un MOOC reste encore très opaque. 05894964-photo-illustration-objets-connectes

L’évolution du modèle économique : des MOOCs aux SPOCs

Ce que montrait aussi l’étude de Coursera, c’est la tendance à préférer les cours qui ont un aspect de formation professionnelle : 52% des interrogés suivent un cours pour améliorer leurs compétences dans le cadre de leur travail ou pour trouver un emploi. C’est cette ‘employabilité’ que critiquait d’ailleurs Karen Head, son cours de ‘composition de première année’ ne remplissait évidemment pas ce critère et ne pouvait pas être évalué de la même façon … Dans ce contexte professionnel, on retrouve l’influence des entreprises et l’importance du classement et des statuts des étudiants. C’est aussi cette variable qui a conduit des plateformes comme Coursera et Udacity à faire payer les certifications. D’ailleurs sur certains MOOCS, certaines parties du cours ne sont pas accessibles gratuitement, comme le souligne le post de Couserajunkie « Free MOOCs ? Forget about it ». Jusqu’au bouton LinkedIn qui disparaît si on n’a pris l’option de certification payante …

C’est à ce moment-là que l’on a vu fleurir les SPOCs (Small Private Online Course : cours en ligne privé en petit groupe). Ces formations, en général plus courtes, sont de plus proposées en entreprise comme alternative aux cours en présentiel. Les professeurs qui conçoivent ces cours s’appuient sur des contributions d’entreprises pour créer du contenu tourné vers les secteurs à forte demande (commerce, analyse des données, technologies numériques). Coorpacademy , en revanche, parie sur un nouveau paradigme, au lieu de proposer des séquences de formations continue de 3 jours, 2 semaines ou six mois, cette start-up propose « des apprentissages au fil de l’eau, quand un peu de temps se libère, dans les transports en commun ou en attendant un rendez-vous » comme le souligne Christophe Bys dans son article d’Usine digitale. C’est la méthode Apple avec iTunes : « Il change les règles du jeu en pariant non pas sur la gratuité, mais sur la fragmentation de l’usage ». De plus, un ‘protocole pédagogique inversé’ (le cours commence par un quizz, l’étudiant vérifie ensuite les réponses), permet de prendre en compte l’hétérogénéité des personnes qui suivent la formation. Chacun suit en fonction de ses besoins, de ces lacunes et peut rejoindre ensuite une communauté de groupe où la compétition peut se transformer en coopération, les apprenants d’hier pouvant se transformer en coach pour aider les nouveaux venus …

Les Mooceurs peuvent aussi avoir une démarche collective, comme le remarque Matthieu Cisel dans son post « L’avenir des MOOC passe-t-il par l’entreprise ?». Dans une structure, association, entreprise, un groupe de personnes peut se saisir d’un MOOC pour créer des dynamiques collectives, souvent dans une démarche ‘bottom-up’. Le MOOC peut être l’occasion de travailler un point ensemble : la gestion de projet, le prise de parole en public, la statistique, etc. Pour Matthieu Cisel, « l’avenir des MOOCs se trouve dans leur intégration, formelle ou non, dans les cursus de formation initiale ou continue ».

5202542_7_3ee3_plusieurs-tests-existent-pour-mesurer_4a49d65e5a7648af61b4aded15f8ecb3Des avancées pédagogiques et technologiques

  • Un cours de droit sur Facebook Live

Bruno Dandero, professeur de droit des affaires à Paris 1 Panthéon-Sorbonne diffuse ses cours magistraux en direct sur Facebook Live. Au lieu d’utiliser une plate-forme pédagogique privée ou publique (Coursera, edX ou FUN), cet enseignant élargit son audience des 300 étudiants de son cours à des milliers d’internautes du réseau social ‘massif’, sans inscription spécifique ni identifiants autres que ceux de Facebook. Comme le souligne Paul Conge dans l’Etudiant, ces interactions et contributions (remarques, liens hypertextes et questions juridiques) finissent par constituer un « document pédagogique enrichi ». Comme le dit le Pr Dandero, commentant les 25 000 vues de sa première vidéo « Ce qui me plait c’est de donner accès aux cours à des personnes qui ne sont pas inscrites à l’université ». Son audience est internationale et francophone (Vietnam, Madagascar, Afrique noire). Mais, malgré tout, un cours de droit de 3e année, ça demande des prérequis » …

  • L’intelligence artificielle s’invite sur les MOOCs : les ‘chatbots’ assistants pédagogiques

De nombreux enseignants américains utilisent de plus en plus des fonctionnalités d’intelligence artificielle (Siri d’Apple, Alexa d’Amazon, Watson d’IBM) pour les assister dans leurs cours en ligne. Ces chatbots, répondent aux questions, rappellent à l’ordre les étudiants pour certaines tâches ou échéances et peuvent animer des débats en ligne … Évidemment, cela risque de faire disparaître les ‘teaching assistants’, ces étudiants que Karen Head se plaignait de ne pouvoir rémunérer correctement dans son MOOC … Mais comme l’explique Donald sur le post de Wildfire Learning, cela permet aux assistants humains de se focaliser sur les questions intéressantes et créatives quand les ‘bots’ se chargent des questions récurrentes (à Georgia Tech, 10 000 par semestre pour 350 étudiants).

paysage-application-realite-virtuelle

  • L’émergence de la réalité virtuelle dans la classe

L’importance prise par la formation professionnelle dans l’enseignement à distance implique l’acquisition de compétences plus pratiques que les seules notions théoriques émises par les vidéos des cours en ligne. Malgré le jeu d’acteur des enseignants et leurs exploits graphiques sur les tableaux, noirs ou blancs, il faut souvent beaucoup d’imagination pour se représenter les choses enseignées … C’est là qu’intervient la réalité virtuelle immersive. De la l’école primaire à la formation des chirurgiens en Irlande en passant la construction de maisons durables en Chine, sans oublier évidemment, la simulation du pilotage d’un avion, les casques de réalité virtuelle emmènent les apprenant sur le ‘terrain’. Pour les enfants, Facebook et Google se partagent le marché. Avec Time Machine de Facebook social VR, les élèves se retrouvent dans la préhistoire près des dinosaures avec une application de type ‘Jurassic Park’. Dans Expeditions, du kit Google, le professeur se transforme en guide au sommet de l’Everest ou sur Mars … La Rady School of Management, de l’Université de San Diego en Californie a déjà son programme virtuel sur VirBela, la plateforme de réalité sociale virtuelle. En s’y connectant, les étudiants sont plongés dans des situations de cas concrets et doivent interagir comme dans un jeu vidéo …

Les MOOCs n’ont pas révolutionné l’enseignement supérieur : le ‘mammouth’ est difficile à renverser … Ce dispositif a néanmoins bousculé un certain nombre de rigidités pédagogiques et fait bouger les lignes dans les formations initiales et continue. L’enseignement initial se retrouve même impacté par cette innovation à travers la pratique de la ‘classe inversée’, de plus en plus adoptée dans certains cours. Cette pédagogie qui encourage les apprenants à se familiariser avec un certain nombre de notions sur internet avant d’assister aux cours et d’en débattre ensuite avec leurs enseignants, a inspiré la plateforme FUN qui propose aujourd’hui aux lycéens de terminale des MOOCs de préparation à l’enseignement supérieur sur des matières sensibles (Maths, droit, SHS, sport). Cela leur permettra d’être prêts au niveau des prérequis ou ‘attendus’ pour certaines filières comme le prévoit la prochaine réforme de l’admission à l’université.

MOOC

Siemens, George ; Gasevic, Dragan ; Dawson, Shane. – Preparing Digital University :a review of the history and current state of distant, blended, and online learning. – Athabasca University, University of Edinburgh, University of Texas Arlington, University of South Australia. – Bill & Melinda Gates Foundation, February 2015. (pdf).

Cisel, Matthieu. – MOOC : pour la Révolution, on repassera. – Educpros : La révolution MOOC, 22/04/15

Cisel, Matthieu. – L’avenir des MOOC passe-t-il par l’entreprise ?Educpros : La révolution MOOC, 23/06/15

Free MOOCs ? Forget about it. – Courserajunkie, 26/05/15

Trujillo, Elsa. – La formation professionnelle, l’avenir des MOOC. -Microsoft RSLN, 26/08/15

Bys, Christophe. – Coorpacademy veut appliquer la méthode Apple à la formation professionnelle.Usine digitale, 01/09/15

Brasher, Joan. - What makes students stick with a MOOC?Research News Vanderbilt, 26/02/16

Conge, Paul. – Un prof de droit donne des cours en direct sur Facebook. – L’Etudiant, 23/09/16

Merry, Peter. - Immersive Virtual Reality: Online Education for the Next Generation. – Converge, 28/09/16

Les universités britanniques lancent les premiers MOOCs certifiants. – Le Monde, 18/10/16

MOOCs : les chiffres qui comptent. – Managexam, 01/11/16

Bot teacher that impressed and fooled everyone. – Wildfire Learning, 02/08/17

Duthion, Brice – MOOC, SPOC, COOC et autres tutos, ou les aventures en ligne d’un formateurs voulant se former … -Etourisme.info, 03/10/17

Frank, Cyrille. – Mooc, elearning, gamification, serious-game … innovations réelles ou mirages ?Médiaculture, 14/10/17

Boeva, Yana. – Book review: Disrupt This! MOOCs and the Promise of Technology by Karen Head. – Impact of Social Sciences, 22/10/17

Antaya, Felipe. – Ouvrir les murs de la classe avec le numérique. – École branchée, 23/10/17

Miller Marine. – Les MOOC font pschitt. – Le Monde, 23/10/17

Evolution des bibliothèques : où en est-on ?

4175783446_7e32581cf5_bLa fin des bibliothèques, souvent annoncée (presque autant que la fin du travail !), ne semble pas  encore réalisée. Au contraire, la dernière Enquête sur les publics et les usages des bibliothèques municipales du Ministère de la culture indique une augmentation de la fréquentation des bibliothèques publiques (40% des Français de plus de 15 ans contre 35% en 2005). Si toutes les bibliothèques ne sont pas devenues des ‘learning centres’ ou des ‘leisure centres’ comme dans d’autres pays, un certain nombre de mutations sont à l’œuvre, aussi bien dans les bibliothèques universitaires et de recherche que dans les BM et les médiathèques grand public.

Ces évolutions concernent autant l’offre d’activités des bibliothèques que les transformations plus profondes des métiers et des pratiques de l’information-documentation.

L’innovation est le maître-mot, comme le rappelle Clémence Jost dans Archimag en évoquant le thème central du Congrès de l’ABF en 2016 « L’innovation en bibliothèques ». Pour repenser la bibliothèque, Christine Tharel-Douspis, cite dans le BBF la « Bibliothèque en [r]évolution », thème de la Journée Régionale de la Commission lecture publique de Mobilis organisée en partenariat avec l’ENSSIB. Au programme, réseaux sociaux, usages différents et mouvants, BiblioRemix, co-construction, design thinking, expérience utilisateur, etc.

Diversification et offre de pratiques innovantes

Un certain nombre de bibliothèques ont introduit de nouveaux outils ou de nouvelles pratiques à destination des publics. Outre les incontournables ‘fablabs’, on trouve aussi :

  • Un kiosque qui distribue de courtes nouvelles rédigées par les étudiants à la Penn State University Library
  • Des « feuilletoirs» numériques (écrans tactiles insérés dans les rayonnages donnant accès aux 132 000 documents des collections en magasins) à la Bibliothèque Alexis de Toqueville à Caen
  • Des animations de réalité virtuelle avec casques à la Médiathèque Federico Fellini de Montpellier et à la bibliothèque de la Manufacture de Nancy FabLab
  • « Les Yeux docs », plateforme de vidéos documentaires à la BPI
  • Labo2 : laboratoire des usages numériques à la BM de Nantes : écriture, jeux vidéo, créations numériques, outils cartographiques
  • Une « grainothèque» à la BM Aimé Césaire de Villeneuve-La-Garenne : chacun peut apporter son sachet de graines dans un espace dédié où d’autres « semeurs » peuvent se servir gratuitement.
  • Un concours de « Bibtubeurs» à la BM de Bègles où de jeunes lecteurs réalisent des « Booktubes » : petite vidéo résumant un livre que l’on veut partager avec d’autres lecteurs. Donner en 5 minutes envie de lire le livre et apprendre à maîtriser les bases techniques de la réalisation vidéo.
  • La plateforme de photos Instagram d’étudiants sur des livres ou des activités de la bibliothèque. Comme La New York Public Library des d’autres BU américaines, la bibliothèque de la « London School of Economics” lance sa plateforme Instagram pour sa « Review of Books ».

Comme le souligne l’enquête sur les bibliothèques municipales « l’usage des équipements [de lecture publique] évolue également : autrefois axé sur l’emprunt et le livre, il s’est fortement diversifié, en lien avec la richesse des services proposés par les bibliothécaires, sur place, en ligne et hors les murs ».

Les transformations en profondeur des métiers de l’information et de la 6232096-9311528documentation

L’impact du numérique et de la communication n’est pas récent dans ces métiers et remonte bien à plus d’une trentaine d’années, mais les mutations se font surtout sentir depuis une dizaine d’années. Elles se traduisent par un certain nombre de transformations dans la vie professionnelle du domaine.

  • Mise à jour de la terminologie en sciences et techniques de l’information (Archives 21)
  • Le rôle des bib-docs dans la lutte contre la désinformation et les Fake news. L’importance de la formation à l’’information literacy’ dans la construction des savoirs.
  • La contribution à l’encyclopédie Wikipédia, aussi bien en tant que professionnel avec l’évènement 1Bib1Ref (Un bibliothécaire, une référence), qu’en tant que médiateur pour faire connaître cette entreprise « Creative common » aux lecteurs. Comme le souligne Sylvain Machefert, auteur de ce chapitre, « Wikipédia peut aussi être le point de départ à une sensibilisation du public aux questions en lien avec le droit d’auteur », en raison de sa licence libre.
  • Le rôle croissant de la communication interne au sein de l’institution, notamment à travers les outils collaboratifs et les réseaux sociaux d’entreprises, comme Slack ou Teams.
  • Le rôle des bibliothèques de recherche dans le développement des Humanités numériques. Le rapport des Research Libraries UK souligne le rôle que pourraient avoir ces bibliothèques dans la création, l’archivage, la curation et la préservation d’outils pour la recherche en Humanités numériques. Le RLUK veut comprendre le rôle joué par ces bibliothèques dans la représentation numérique pour identifier les zones spécifiques à valoriser et aussi pour faciliter le partage des bonnes pratiques. 497671-rea-197588-011-580x310
  • Les nouvelles appellations des métiers de la documentation. Comme le relève E. Barthe dans son blog, cité par H. Girard dans la Gazette des Communes, le mot documentaliste, tel que le définit le code du Répertoire opérationnel des métiers et des emplois (ROME), ne correspond plus à la réalité du métier. Depuis le début des années 2000, on a vu émerger des knowledge managers, des gestionnaires de bases de données et de ressources numériques, des community managers et autres webmasters … Ces nouveaux métiers qui portent aussi sur la gestion des documents et de l’information n’apparaissent pas dans le code ROME 1601. Or, on trouve de nombreux emplois et postes pour ces dénominations … Cette évolution des métiers a été cartographiée par l’ADBS en 2013. Mais comme le remarque Archimag dans son 2e Baromètre sur l’emploi et le compétences (2016), d’autres compétences complémentaires sont nécessaires, comme le numérique ou la communication.
  • L’importance de la présence des bibliothèques sur les réseaux sociaux. Les bibliothèques se sont majoritairement investies dans les deux principaux réseaux sociaux Facebook et Twitter où se retrouvent la plupart des utilisateurs. Mais comme on l’a vu plus haut, certaines bibliothèques choisissent de participer à des activités plus ciblées sur certains réseaux, comme Instagram ou YouTube pour développer l’aspect prescripteur des lecteurs. Sur les réseaux sociaux dédiés aux livres qui remontent aux années 1990, on est passé des pionniers (Zazieweb), aux start-ups et à la professionnalisation (Babélio) pour atteindre une certaine concentration avec la pérennisation de certains sites (Sens critique) et une polarisation de la prescription avec la quasi disparition de la ‘longue traîne’. Comme le souligne Louis Wiart, dont l’étude est citée par Christine Tharel-Douspis dans son article du BBF, les réseaux sociaux ont un effet de caisse de résonnance : les best-sellers et les livres les plus cités concentrent le plus de visibilité, tandis que les catégories intermédiaires sont moins représentées … « Les réseaux sociaux ne bouleversent pas les champs des pratiques, mais fortifient le lien entre professionnels et usagers ».
  • Le « BiblioRemix » et le « nouveau paradigme de la participation ». Cette démarche veut accompagner l’évolution des bibliothèques vers le ‘3e lieu’ et rompre avec l’image stéréotypée de ces établissements. Elle implique la participation du public dans une démarche de décision et de gouvernance plus citoyenne. Il s’agit de repenser la bibliothèque avec les usagers, de co-concevoir les politiques publiques. Avec BiblioRemix, on passe du service public aux services aux publics. De nombreux exemples de projets sont cités dans l’article du BBF, dont les 4C aux Champs libres à Rennes (Création, collaboration, connaissance et citoyenneté).

Ces différentes tendances dessinent une nouvelle configuration des bibliothèques, où professionnels et usagers se retrouvent dans des pratiques où l’information passe par différents canaux comme la communication interne et extérieure, la formation, la participation, ou des outils comme les humanités numériques, la curation et l’échange aussi bien « in real life » que sur les réseaux sociaux.

communs

Mollett, Amy ; Mc Donnell, Anthony. – Five ways libraries are using Instagram to share collections and draw public interest. – Impact of Social Sciences, 16/04/14

Enquête sur les publics et les usages des bibliothèques municipales en 2016. – Ministère de la Culture et de la Communication – Livre et lecture, 16/06/16

Barclay, Donald A. – The challenge facing libraries in an era of fake news. – The Conversation, 05/01/17

Jost, Clémence. - Innovation : les bibliothèques, laboratoires de réinvention. – Archimag, 02/05/17

Machefert, Sylvain. – “Wikipédia et bibliothèques : agir en commun” dans Communs du savoir et bibliothèques/Lionel Dujol. – Paris, Cercle de la Librarie, 2017. Via Hal-archives ouvertes, 31/05/17

Tharel-Douspis, Christine. « Bibliothèque en (r)évolution ». – Bulletin des bibliothèques de France  n° 11. – 23/06/17

Kamposiori, Christina. – The role of Research Libraries in the creation, archiving, curation, and preservation of tools for the Digital Humanities. RLUK Report. – Research Library UK, cop. July 2017. Pdf.

La communication interne en bibliothèque : expérimentation de Teams, le Slack de Microsoft. – Hortensi-us, 15/07/17

Girard, Hélène. – Documentaliste : le poids du mot face aux mutations des fonctions.La Gazette des communes, 03/08/17

Enis, Matt/ – Penn State Libraries launch short stories dispensers. – Library Journal, 04/08/17

Ducharme, Daniel. – Un projet de mise à jour de la terminologie de base en sciences de l’information. – Archives 21, 15/08/17

L’inventivité en bibliothèque : les bibtubeurs, le concours de Booktube. – Actualitté, 29/08/17

Dillaerts, Hans.- Créer, gérer et animer un dispositif de Fab Lab au sein d’une bibliothèque publique : entretien avec Julien Amghar, créateur de l’espace Kénéré le Lab. – DLIS.Hypothèses.org, 06/09/17

 

 

Présidentielle 2017 : quel bilan pour les civic-tech ?

1249b0949cb30954e2effc2017a51af1_originalCette élection présidentielle se présentait comme l’occasion d’expérimenter des technologies qui permettraient d’avoir une approche plus participative et plus pertinente que les campagnes précédentes. Les sondages traditionnels, qui ont montré leurs limites lors des derniers scrutins au Royaume Uni et aux Etats-Unis, seraient remplacés par l’analyses des mégadonnées et l’intelligence artificielle permettant de prédire les résultats au plus près du vécu de l’électeur. Et surtout, par l’utilisation massive de diverses plateformes de participation citoyenne et des réseaux sociaux.

Que ce soit avec  la plateforme citoyenne de la Primaire.org (qui permet aux citoyens de choisir leurs candidat(e)s et de co-construire les projets politiques), les comparateurs en ligne de programmes électoraux, les chatbots pour discuter sur les messageries instantanées ou les applications de réalité virtuelle, la campagne électorale a expérimenté un certain nombre de ces nouveaux outils ou services, les civic-tech.

Définition(s)

La newsletter Civictechno propose plusieurs définitions de ces dispositifs « à la croisée de l’innovation, d’un gouvernement ouvert et de l’engagement du citoyen » (Rapport de la Knight Foundation, 2013). On y retrouve le désir « de rapprocher les citoyens des collectivités et des Etats », de « rendre les gouvernements plus accessibles et plus efficaces » et de permettre « à des individus ou à des groupes d’influer sur la scène publique ».

Comme le rappelle Dominique Cardon dans son intervention  « Démocratie et internet » (Nouvelles citoyennetés), « Peu d’innovations technologiques ont autant été investies de promesses politiques que ne l’a été internet. ». La contre-culture qui a entouré les pionniers de l’internet a influencé cette articulation entre technologie et politique. L’infrastructure réticulaire et la décentralisation (le réseau distribué, idiot au centre, intelligent à la périphérie) remettent en cause la démocratie représentative. L’utopie libertaire des pionniers inspire les premières communautés virtuelles : l’’empowerment’ et les communautés électives devraient permettre de « changer la société sans prendre le pouvoir ».

Néanmoins, la démocratie représentative s’est aussi emparée de ces outils, notamment lors des campagnes électorales, comme par exemple lors de la campagne d’Obama en 2008 avec des réseaux de mobilisation de bénévoles et des financements de la campagne par micro-dons (badges de fierté).

La participation citoyenne civic-tech

Ségolène Royale avait initié cette idée en 2007 avec son site « Désirs d’avenir », devenue depuis desirs-davenir.eu, laboratoire d’idées, citoyen et participatif, qui fonctionne avec la page Facebook de la Ministre de l’environnement. L’objectif était de recueillir des idées, des expertises et des témoignages venant de la base pour élaborer un programme sans passer par le parti. Le résultat fut mitigé malgré la considérable production militante, comme le souligne Patrice Flichy  Internet et le débat démocratique, (2008).

On retroette participation militante dans l’élaboration de la Loi numérique, où 21 330 citoyens ont co-écrit le projet de loi, comme l’indique le document du Ministère de l’économie présenté par Axelle Lemaire.

Outre l’expérience de la Primaire.org qui a réussi à désigner une candidate à la présidentielle (Charlotte Marchandise n’a finalement obtenu que 135 parrainages sur les 500 nécessaires pour se présenter à l’élection), de nombreuses initiatives se sont multipliées pour inventer de nouvelles formes d’engagement citoyen.  D’autres mouvements ont mis en œuvre des plateformes participatives à commencer par des candidats (Benoît Hamon, Jean-Luc Mélenchon). On les retrouve dans l’article du Monde : « Les civic-tech ou le B-A BA de la démocratie ».

MaVoix, vise les législatives et a pour objectif de « hacker l’Assemblée Nationale en faisant élire des citoyens volontaires, formés et tirés au sort qui voteront pendant 5 ans sur toutes les lois comme leurs électeurs le décideront. ». Quant à la ‘boite à outils’ citoyenne voxe.org, elle ne se contente pas de comparer simplement les programmes des candidats ; cette application permet aussi de s’informer sur la campagne, d’interpeler les candidats et aussi de se rencontrer IRL (dans la vraie vie) pour débattre d’un sujet, par exemple sur la valeur travail dans un café de Strasbourg. La Fabrique de la Loi (Medialab + CEE Sciences Po) permet d’explorer l’évolution des textes de loi au fil de la procédure.

index

Les plateformes des candidats

Le mouvement de Jean-Luc Mélenchon la France Insoumise est celui qui se présente comme le plus équipé au niveau numérique. Il dispose de deux outils pour interagir avec ses militants : la plateforme La France insoumise (plus de 500 000 participants) et la messagerie instantanée très sécurisée Discord Les Insoumis qui permet des conférences en ligne dans différents ‘salons’ pour discuter du programme. Enfin le portail Insoumis.online rassemble tous les outils et les réseaux sociaux où interviennent JLM et les insoumis : les sites internet proches de la FI ; les chaînes YouTube de JLM et d’autres militants et médias ; les comptes twitter des diverses militants et communautés FI ; les comptes Facebook, complétés par des jeux vidéo engagés et d’autres ressources (bande dessinée, banque d’images, outils de simulation et … concours de photos de chats et de chiens sur twitter !). Et évidemment l’’hologramme’ (en fait une projection vidéo) de Mélenchon qui lui a permis de tenir jusqu’à 6 meetings simultanément … !

Le candidat Benoît Hamon propose aussi des outils de participation : le Conseil citoyen où on peut participer au programme sur 10 thèmes (éducation, travail, santé, environnement, discriminations) et la plateforme Expression « ouverte à toutes les initiatives de la société civile, elle est alimentée par des textes, des vidéos, des photos, des films d’animation et des infographies pour éclairer les expérimentations et projets qui construisent aujourd’hui le monde de demain. ».

La plateforme Marine2017 est beaucoup plus classique : à part un compte à rebours pour le jour de l’élection, elle ne propose que des soutiens pour la candidate, sur la plateforme et sur les réseaux sociaux twitter et Facebook, accompagné par un lien vers le site : actualités, programme, blog de Marine Le Pen, vidéos, photos, boutique et formulaire de procuration en ligne ! Mais la plupart des militants proches du FN se retrouvent sur des fils de forums comme la ‘Taverne des patriotes’ ou  4chan liés à l’’altright’ américain sans oublier, bien sûr les médias russes.

Sur le site d’En Marche !, seul un fil d’actualités avec un moteur de recherche présente une revue de presse sur la campagne et les dernières déclaration d’Emmanuel Macron. En fait l’équipe informatique du candidat, dirigée par Mounir Mahjoubi, ex-directeur du Conseil national du numérique, est surtout occupée de contenir les piratages de ses serveurs et de faire la chasse aux ’fake news’ comme on l’a vu à la fin de la campagne avec l’affaire du compte aux Bahamas et les MacronLeaks où une somme de documents du mouvement En Marche ! a été publiée sur le forum  4Chan puis relayée sur les réseaux sociaux …

digital surveillanceL’effet bulle

Mais il existe aussi un côté obscur de ces instruments … Le dessinateur Joann Sfar en a fait récemment la cruelle expérience. S’apprêtant à voter Mélenchon, l’auteur du « Chat du rabbin » a été choqué par les prises de position du leader de la France Insoumise en matière de relations internationales (adhésion à l’Alliance bolivarienne, approbation du soutien de la Russie à Bachar El Assad en Syrie). Il a donc posté quelques dessins critiques sur les réseaux sociaux … Mal lui en a pris, les militants FI ont commencé à le harceler sur les réseaux sociaux « J’ai vu débarquer sur Facebook, Instagram et Twitter des centaines de pseudos dont je n’avais jamais entendu parler et qui venaient me « désintoxiquer ». J. Sfar explique ensuite la méthode des Insoumis : la création de centaines  de faux comptes twitter et de l’utilisation de la plateforme Discord pour planifier les attaques de ‘désintoxication’.

Ces réactions résultent aussi des ‘bulles de filtres’ (filter bubble) qui fonctionnent sur les réseaux sociaux. Ces algorithmes vous montrent surtout les pages des personnes avec qui on a le plus d’interaction. On reste dans sa bulle et on ne connaît pas les positions des autres groupes (ex : conservateurs contre libéraux). D’où les réactions en chaîne quand un autre sonde cloche résonne dans la bulle … C’est cet aspect psychologique qui a été exploité par la firme Cambrige Analytica, une société de communication stratégique utilisant l’analyse de données et le ‘sentiment analysis’ qui a influencé aussi bien le referendum britannique que l’élection de Trump aux États-Unis comme l’explique Carole Cadwalladr dans son article du Observer.

L’analyse Big data pour remplacer les sondages ?

Les sondages ont été incapables de prédire deux scrutins très importants en 2016. Jusqu’au dernier moment, les instituts de sondage soutenaient la victoire du « Remain » au référendum britannique sur le maintien dans l’Union européenne de même que Hillary Clinton était donnée victorieuse à l’élection présidentielle américaine.

Pour remédier à cette carence des outils traditionnels, un groupe d’étudiants du master spécialisé Big data de Télécom Paris Tech ont lancé le projet « Predict the President » qui avait pour objectif de « prédire le résultat du premier tour en mixant de nombreuses données (sondages, occurrences sur twitter et Google, cartes électorales, etc.) ». Le 18 avril, Le Point publiait leur prédiction (valable au 15 avril) : un duel Fillon-Le Pen ! Dix jours plus tard, les étudiants reviennent dans le Point sur leur prédiction. Même s’ils ont pu produire une deuxième estimation plus pertinente le 21 avril, ils tiennent à tirer les leçons de cette première estimation. Leur principale erreur a été de constituer des ‘blocs’ politiques. En intégrant « des données sociodémographiques sur plusieurs années … afin d’estimer les réservoirs de voix des grandes familles politiques ». Ils ont ensuite « ajusté les scores des données issues d’internet et les intentions de vote des instituts de sondage. […] Les données du web incluaient les recherches sur Google et le sentiment exprimé dans les tweets. ». Les étudiants reconnaissent que « l’estimation des grands blocs politiques souffrent du fait que les couleurs politiques des candidats sont difficiles à classer ». Emmanuel Macron classé au centre gauche (sans prendre en compte les voix captées au PS et à LR ?) et le score de Marine Le Pen reposant presque uniquement sur l’historique de cette « dynastie » de candidats …

Le projet a aussi souffert d’un biais avec la ‘sentiment analysis’ sur Twitter. Les tweets anti-Fillon étaient très nombreux et ont, en réaction généré beaucoup de tweets positifs, ce qui a surévalué les points positifs pour le candidat … La prise en compte du contexte semble très importante dans l’analyse très délicate de l’opinion sur les réseaux sociaux. Comme le souligne Eric Scherer (France Télévision), interrogé dans Télérama ces nouvelles méthodes d’estimation d’opinion n’ont pas vocation à remplacer les sondages, mais à agir en complément. « Le big data n’a pas su répondre à ces questions lors de l’élection, mais il ne faut pas l’enterrer pour autant car il est l’avenir des sondages. »… blogimage_KnightFoundCivicTech

Désintermédiation versus médias traditionnels

En dehors de cette initiative, cette campagne électorale a connu peu d’innovations technologiques. C’est ce que confirme Xavier de La Porte (France Culture), dans le même article de Télérama,  «Les deux grandes tendances de cette campagne sur Internet étaient déjà apparentes, il s’agit de l’intensification du fact-checking (vérification méthodiques des faits et des affirmations) et l’usage massif des réseaux sociaux quasiment en direct. ». Cela confirme la tendance à la désintermédiation, les mouvements politiques produisant eux-mêmes leurs propres produits d’information comme les chaînes YouTube de la France Insoumise au détriment des médias de même que les débats télévisés se doublent de discussions en direct sur les réseaux sociaux.

Si les civic-techs n’ont pas tenus les promesses que l’on espérait, « le numérique chamboule tous les espaces confrontés de près ou de loin à la question démocratique : les villes bien sûr, mais aussi les entreprises et organisations sous toutes leurs formes » comme le souligne Dominique Cardon. De plus, cette élection présidentielle comportait un facteur souvent oublié des analyses électorale, les émotions. Comme le souligne Martial Foucault du Cevipof, dans un article du Monde « La raison ne peut suffire. L’électeur, en tant que citoyen sentimental, est traversé par un ensemble d’émotions, allant des expériences, des souvenirs positifs ou négatifs aux réactions plus immédiates face à un événement. ». Malgré des avancées indéniables, le numérique n’est pas encore en mesure de prendre pleinement en compte ce facteur. 20inscritsCivicTheque-300x251

Flichy, Patrice. - Internet et le débat démocratique. – Réseaux vol.150:n°4, 2008/04 – via Cairn-info

Flichy, Patrice ; Bougnoux, Daniel ; Cardon, Dominique. - Internet, nouvel espace démocratique ? – Table-ronde animée par Caroline Broué. – La vie des Idées – Réinventer la démocratie – Granoble, 09/05/09

Cardon, Dominique ; Williamson, Audrey. – Internet, nouvel espace démocratique ? Entretien. – La vie des idées, 07/07/09

Cardon, Dominique. – La démocratie Internet : promesses et limites. – La République des idées, 2010

The Emergence of Civic Tech: Investments in a growing field. – Knight Foundation, December 2013

Projet de loi pour une République numérique : 21330 citoyens ont co-écrit le projet de loi/Axelle
Lemaire (ed.). – Ministère de l’économie, de l’industrie et du numérique ; Secrétariat d’Etat au numérique, 2016. (pdf).

Gombert, François. – C’est quoi la Civic Tech ? – Civictechno, 16/01/16

La Fabrique de la loi : les parlementaires font-ils la loi ?

La Primaire.org

Mavoix : nous sommes celles et ceux que nous attendions

Voxe.org : vous allez adorer les élections

Volontat, Adrien de. – La civic-tech invente la démocratie 2.0.- La Croix, 26/06/16

Cardon, Dominique ; Taboy, Thierry. – Démocratie et Internet. – Forum Nouvelles démocraties – Digital Society Orange, 15/11/16

Joann Sfar :  « Les méthodes des partisans de Mélenchon sont dégueulasses ». – Le Monde, 20/04/17

Schott, François. – Les « civic tech » ou le b-a ba de la démocratie 2.0.Le Monde, 26/04/17

Jeanticou, Romain. – Présidentielle et médias : La grande baudruche de l’innovation. – Télérama, 28/04/17

« Predict the President » : retour sur une prédiction. – Le Point, 29/04/17

Tual, Morgane ; Untersinger, Martin. - Macron et l’évasion fiscale : itinéraire d’une rumeur de 4Chan aux plateaux télé. – Le Monde, 04/05/17

Foucault, Martial ; Marcus, George E. ; Valentino, Nicholas ; Vasilopoulos, Pavlos. – Election présidentielle : « Nos émotions façonnent nos réaction à l’environnement ». – Le Monde, 06/05/17

Delmas, Aurélie. – « Macronleaks » : tentative de déstabilisation de dernière minute. – Libération, 06/05/17

Cadwalladr, Carol. – The great British Brexit robbery: how our democracy was hijacked. – The Guardian, 07/05/17

Fake news, désinformation, post-vérité : quel rôle pour les professionnels de l’information ?

truth-lies-wallpaper__yvt2-550x412La victoire de Donald Trump à l’élection présidentielle aux Etats-Unis a fait émerger une nouvelle notion dans l’univers des actualités et de l’information : l’idée de ‘vérité alternative’. Dès son installation à la Maison Blanche, une polémique s’est développée autour du nombre de participants à la cérémonie d’investiture du Président : comme le rappelle l’article du Guardian, Kellyanne Conway conseillère à la Maison Blanche a défendu la version du porte-parole du Président Sean Spicer , « la plus importante cérémonie d’investiture en terme d’audience » en déclarant que celle-ci se basait sur des ‘faits alternatifs’ (alternative facts). Depuis, la ‘post-vérité’ triomphe aux Etats-Unis dans une atmosphère quasi-orwellienne où la « majorité des journalistes sont malhonnêtes » …

La fabrique des fake news et la contre-offensive des médias

L’utilisation des réseaux sociaux et de certains médias pour répandre ces faits alternatifs (« Le Pape François soutient D. Trump ») a été particulièrement importante lors de cette campagne électorale comme lors de la campagne pour le ‘Brexit’. On leur a surtout reproché l’usage de robots logiciels et d’intelligence artificielle (‘bots’) pour manipuler les électeurs. Mais comme le souligne le sociologue Antonio Casilli dans sa conférence sur Infobésité et fake News et algorithmes politiques (Numa, Paris) : aujourd’hui, les entreprises de désinformation sur le net sont loin d’utiliser uniquement des algorithmes et autres ‘chatbots’ pour influencer les internautes. Si Facebook a effectivement utilisé un effet de ‘bulle de filtre’ en faisant circuler un même type d’information à l’intérieur d’un cercle d’amis, (si quelqu’un est de droite, il ne va voir que des informations venant de la droite), la plupart des ‘Likes’ et retweets ont été effectués par des humains dans des ‘usines à click’ de pays émergents (Philippines, Mexique,etc.). Ce ‘digital labor’, comme le Mechanical Turk d’Amazone, est payé quelques centimes le click, un peu plus pour les femmes au foyer de l’Amérique profonde … !

A la veille de l’élection présidentielle en France, un certain nombre de médias et géants du Net se posent la question de vérification des informations. Plusieurs initiatives ont vu le jour depuis quelques semaines pour décrypter ces attaques, notamment le Décodex, outil mis au point par le Monde, mais aussi une alliance de plusieurs médias français avec Facebook et Google. Vreuz0Z4aYsXhAor0wG05Tl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9

Que valent ces outils et peut-on véritablement dénicher les fausses informations qui se multiplient sur la Toile ? Déjà un certain nombre de critiques sont portées à l’égard du Décodex. En cherchant à labelliser la crédibilité des médias en fonction de points de vue subjectifs (Valeurs actuelles a pignon sur rue, tandis que Fakir est une feuille militante), cet outil effectue un biais comme le souligne Vincent Glad dans son article dans Libération : « le Monde se donne le rôle de censeur et de vérificateur du web, de CSA de l’information en ligne ». C’est aussi le point de vue de SavoirCom1, cité par Blog Univesrdoc, blog de veille des chefs de projets à l’INTD-CNAM  « Le collectif SavoirComun1 (1) – un groupement de bibliothécaires engagé pour les libertés à l’ère numérique et la libre dissémination des savoirs – ne dénigre pas l’utilité de Décodex dans le contexte actuel, mais partage son inquiétude sur ce type d’application d’évaluation, qui gérée par des plate-formes privées, voire par l’Etat pourrait amener à des formes de censure. ». Le Monde par la voix de Samuel Laurent (Les Décodeurs) s’est engagé pour sa part à faire évoluer son outil, notamment en distinguant les informations factuelles des commentaires. Mais si certaines mesures ont été prises concernant les sites d’opinion (Les crises, Valeurs actuelles), apparemment cela n’a pas empêché la requalification d’un site comme Doctissimo auparavant classé en orange (site imprécis, ne citant pas ses sources), et passé en vert le 21 février … Serait-ce parce que le groupe Le Monde et Doctissimo lançaient ce jour-là le magazine Sens et Santé (voir Les Echos) comme le souligne Olivier Berruyer dans Les Crises ?

La désinformation dans l’histoire

L’IFLA, de son côté, nous rappelle que ce travail de vérification et de filtrage de l’information est le propre de professionnels de l’information avec son infographie, en collaboration avec Wikipedia, « How to spot fake news »  posté sur Facebook et twitter et explique sur son blog comment les bibliothèques peuvent aider leurs utilisateurs à trouver des faits qui ne sont pas alternatifs … L’exemple de Wikipedia avec ses millions d’utilisateurs qui vérifient les articles peut être une garantie de bonnes pratiques informationnelles tout comme les ‘peer reviews’ des revues scientifiques. Le rôle historique des bibliothécaires dans l’’information literacy’ (formation à l’information) est aussi rappelé dans l’article de Donald Barclay de Conversation « The Challenge facing libraries in the era of fake news ». La désinformation n’a pas commencé avec les réseaux sociaux. Barclay cite le cas de la campagne menée par l’industrie du tabac dans les années 1960 qui s’appuyant aussi bien sur la presse populaire que sur des pseudo-revues scientifiques, sans parler du soutien de Barry Goldwater qui assimilait la dénonciation des effets du tabac sur la santé à un complot communiste !

media_image3Antonio Casilli a aussi rappelé que la manipulation de l’information ne date pas d’hier : la propagande, largement utilisée au 20e siècle, a été créée par l’Eglise catholique au 15e siècle (De propaganda fidei : sur la propagation de la foi) ! Le reste des fausses nouvelles passaient par la littérature de colportage et les complots, souvent en lien avec des puissances surnaturelles, se retrouvaient dans les écrits apocryphes et les mystères ….

Depuis les années 1970, la complexification des sources et des supports de l’information (bases de données, microfilms, informatisation), a rendu crucial le rôle des bibliothécaires universitaires pour former l’esprit critique des étudiants. Cette formation ne se limite plus à localiser des ouvrages ou des documents sur des étagères, mais à » identifier, organiser et citer des informations ». Aujourd’hui avec le foisonnement de l’internet, il ne suffit plus aux étudiants de savoir distinguer une revue scientifique comme Nature d’un magazine grand public, ils doivent différencier les articles de périodiques véritablement scientifiques de ceux de revues ‘prédatrices’ ou pseudo-scientifiques … Sans parler des données et des résultats faussés par les chercheurs eux-mêmes !

Un défi pour les professionnels de l’information

Devant l’incertitude qui entoure la fiabilité des données et dans un environnement universitaire de plus en plus changeant, où les étudiants sont plus souvent créateurs de nouveaux savoirs que consommateurs d’information, l’ACRL (Association américaine de bibliothèques de recherche) a lancé son « Framework for Information Literacy in Higher Education », cette charte pour la formation à l’information dans l’enseignement supérieur reconnaît que l’évaluation de l’information n’est pas une chasse au trésor ou les ressources identifiées seraient ‘bonnes’ ou ‘mauvaises’. L’autorité est construite et contextuelle et fait appel aux enseignants et aux bibliothécaires pour une approche de l’autorité et de la crédibilité à partir du contexte de l’information et non pas dans l’absolu. Pour D. Barclay cette position est beaucoup plus stimulante pour les étudiants que d’accepter l’autorité d’une source sans discussion ou de réfuter toute autorité comme anachronique au nom de la post-vérité !

C’est une approche semblable qu’a pris le Collectif SavoirCom1 en considérant la question de l’information sous l’angle des ‘Communs de la connaissance’ : en prenant l’exemple de Wikipédia, il montre qu’»un espace de publication constitué comme un commun résiste mieux aux fausses informations ». Le collectif veut favoriser l’émergence d’une communauté de ‘vigilance informationnelle autour du Décodex » : elle permettrait que les outils de vérification soient eux-même vérifiables, que les règles de contribution et de régulation soient clairement énoncées, que les sites évalués puissent faire appel de leur évaluant en démontrant leur mode d’élaboration et de transmission de l’information et enfin que les acteurs de l’information (organes de presse ou prestataires de services informationnels) s’impliquent dans la formation aux médias et à l’information des citoyens. On retrouve ici l’importance de la co-construction de l’information et du contexte prôné par l’ACRL dans son Framework.

 

Framework for Information Literacy for Higher Education/Association  of College & Research Libraries. - Ala.org, 11/01/16

Swaine, Jon. – Donald Trump’s team defends ‘alternative facts’ after widespread protests. – The Guardian, 22/01/17

L’annuaire des sources du Décodex : mode d’emploi/Les Décodeurs.Le Monde, 23/01/17

Dorf, Michael C. ; Tarrow, Sidney. – Stings and scams: ‘Fake news’, the First Amendment and the New Activist Journalism. – Cornell Legal Studies Research Paper n°17602, 26/01/17

Alternative Facts and Fake News : Verifiability in the Information Society. - Library Policy and Advocacy Blog [IFLA Blog], 27/01/17

How to spot fake news ? IFLA in the post-truth society. – Ifla.org, 01/02/17

Delcambre, Alexis ; Leloup, Damien. - La traque ardue des « fake news ». – Le Monde, 02/02/17

Yeh, Alexandra.- Les citoyens n’ont jamais été aussi méfiants envers les médias.Méta-média, 03/02/17

Glad, Vincent. – Qui décodera les décodeurs ? De la difficulté de labelliser l’information de qualité. – Libération, 03/02/17

Barclay, Donald A. – The Challenge facing libraries in an era of fake news. – The Conversation, 05/02/17

Bounegru, Liliana. - Three ways in which digital researchers can shed light on the information politics of the post-truth era. – Impact of Social Sciences, 06/02/17

Ertzscheid, Olivier. – La vie en biais. – Affordance.info, 07/02/17

Controverses autour du Décodex, un outil contre la désinformation ?Docs pour Docs, 07/02/17

Seabright, Paul. – Les « fake news », « quelques gouttes d’eau dans une cascade de propagande ». – Le Monde, 08/02/17

Decodex : on s’engage dans une guerre contre les ‘fake news’. S. Laurent (Le Monde), F. Ruffin (Fakir), L. Merzeau (SavoirCom1) débattent. – Arrêt sur image, 10/02/17

Lacour, Sophie. - Image, ma belle image, montres-tu la vérité ? – Usbek & Rica, 10/02/17

Manach, Jean-Marc. - Il est trop tard pour s’alarmer d’une cyber-guerre électorale. - Slate, 14/02/17

« Fake news » : les profs américains ajoutent l’éducation à l’information dans leurs cours. – VousNousIls, 15/02/17

Décodex, la controverse. – Blog UniversDoc, 20/02/17

[Tellement prévisible] Décodex victime d’un conflit d’intérêts patents …Les-crises.fr, 21/02/17

 

 

 

Staypressed theme by Themocracy