Category: Société de l’information

Intelligence artificielle : quels impacts sur l’économie et la société ?

IALes progrès de la recherche en intelligence artificielle en ont fait un sujet incontournable des tendances de la décennie actuelle. Annoncées depuis les années 1960, les avancées dans cette discipline complexe se sont confirmées depuis les années 2000, grâce, notamment, au ‘machine learning’ (apprentissage automatique : les machines ‘apprennent’ à partir des jeux de données qui leur sont proposés) et à son dernier développement le ‘deep learning’ qui s’appuie sur les ‘réseaux de neurones’ : des algorithmes de machine learning sont utilisés pour entraîner les couches profondes de réseaux de neurones. Plutôt que de modéliser de vastes quantités d’information (ex : calculer tous les coups possibles dans une partie d’échec), les réseaux de neurones apprennent tout seuls en digérant des millions de données (Maddyness). Combinés avec des mégadonnées (big data), ces intelligences artificielles réalisent des opérations et des actions qui dépassent en rapidité et en pertinence les actions humaines. Cela explique le succès de ces technologies cognitives au Web Summit de Lisbonne en novembre dernier où robots et véhicules autonomes ont joué les vedettes.

Les exemples des récents succès de l’automatisation et de l’IA se multiplient : les taxis autonomes, comme Lyft à Boston ; la prévention des suicides grâce à leur détection sur les messages Facebook, la prédiction (réussie) de la personne de l’année au magazine Time, la découverte de nouvelles exoplanètes dans un partenariat Google-NASA, etc. Comme le souligne Olivier Ezratty dans son post, l’intelligence artificielle n’est pas un produit. Il n’y a pas de logiciels d’intelligence artificielle mais des solutions d’intelligence artificielle très variées qui s’appuient sur plusieurs dizaines de briques logicielles différentes qui vont de la captation des sens, notamment audio et visuels, à l’interprétation des informations, au traitement du langage et à l’exploitation de grandes bases de données et de connaissances structurées ou non structurées.

Combinée avec une voix de synthèse, Chaï, une application d’intelligence artificielle permet d’écouter sur son téléphone mobile la suite d’un livre papier à l’endroit exact où l’on s’est arrêté. Cette application convient plus à un documentaire qu’à un ouvrage de fiction. Idéal pour réviser ses cours dans les transports en commun ! Les fichiers audios comportent des dictionnaires qui enrichissent le texte, en transformant par exemple les sigles et acronymes en termes développés. Et comme le confirme Alexis Botaya, qui présentait ce produit au salon HumainxMachines, aucun problème de droit d’auteur en raison d’un accord avec les éditeurs : le traitement s’effectuant à partir du fichier de l’ouvrage avant son impression et le client doit avoir acheté le livre papier.

Au Japon, l’entreprise Tasei se propose de lutter contre le surmenage de ses employés en leur envoyant des drones bourdonner autour d’eux et leur jouer « Auld Lang Syne », la chanson écossaise qui signale au Japon la fermeture des magasins … Comme l’explique Nelly Lesage dans Numérama, les Japonais peuvent effectuer plus de 80h d’heures supplémentaires par mois ! Le modèle T-Frend est doté d’une caméra qui surveille le comportement des employés et se déclenche quand ils dépassent les horaires. Pour une fois, la surveillance est utilisée pour le bien-être des travailleurs !

En Chine, la reconnaissance faciale est généralisée dans la vie quotidienne et le piéton qui traverse au feu rouge est vite repéré et sa photo affichée au carrefour ! Comme l’explique Leng Biao, professeur de vision informatique à Pékin, cité dans l’article du Monde, « L’important ce sont les algorithmes. Quand il s’agit de reconnaitre une personne dont on a la photo, la reconnaissance faciale est très fiable, on trouve même des logiciels gratuits sur internet ». Et comme en Chine les gens sont moins préoccupés des questions de vie privée, cette méthode est bien acceptée…   1486620188464

Ces performances se sont multipliées depuis une quinzaine d’années et ne manquent pas de soulever controverses et inquiétudes aussi bien parmi les scientifiques et géants du net (Stephen Hawking, Elon Musk et Bill Gates) que dans le grand public. Laurent Alexandre, le chirurgien et homme d’affaire, voudrait au contraire, « casser la gueule à l’Europe pour avancer ». Comme le souligne Pierre Cheminade dans la Tribune, pour le créateur de Doctissimo l’Europe a déjà perdu la bataille du numérique et « que pour ne pas perdre la guerre et sortir d’une situation de « colonie numérique sans souveraineté », la France doit renforcer la recherche en intelligence artificielle et supprimer la protection des données personnelles. ».

Ces préoccupations autant éthiques que réglementaires ont amené le gouvernement français à confier au mathématicien et député Cédric Villani, une mission sur ce sujet, accompagnée d’une consultation publique. Au niveau européen, Margarethe Vestager, commissaire européenne à la concurrence, est intervenue au Web Summit pour affirmer que le marché unique européen n’a pas vocation à être régi par « la loi de la jungle, mais par la démocratie à l’œuvre, pour le respect de la concurrence au service de l’innovation » .

 

Les principaux secteurs impactés   Un-groupe-de-recherche-créé-pour-encadrer-lintelligence-artificielle-des-robots

De nombreux secteurs et services sont déjà ou seront bientôt touchés par ces innovations technologiques, et ce à différents niveaux.

  • Les transports avec les véhicules autonomes
  • La santé avec des programmes de détection de maladies (cancers)
  • La relation client avec l’utilisation d’agents conversationnels et de traitement automatique de courrier électronique
  • La sécurité avec la reconnaissance faciale et les technologies de vision artificielle
  • L’urbanisme avec la ville connectée (smart city)

L’enseignement, la psychothérapie, le journalisme, la politique et même la littérature pourraient être touchés par cette vague d’automatisation. Mais pour le moment toutes les professions ‘créatives’ sont relativement épargnées.

Des informations contradictoires sur les conséquences socio-économiques et l’emploi de l’automatisation de l’industrie et des services se multiplient sans s’annuler pour autant … Nelly Lesage dans son article de Numerama évoque « un rapport du cabinet McKinsey & Cie qui estime que 800 millions de travailleurs perdront leur emploi d’ici 2030, en raison de l’automatisation ». Cette « invasion des robots » touchera surtout les pays les plus avancés, comme l’Allemagne et les Etats-Unis. Les métiers impliquant une interaction humaine, comme les médecins, les avocats, les enseignants et les barmen, devraient, quant à eux être préservés. La vidéo publiée dans le Monde « Serons-nous un jour remplacés par des intelligences artificielles » cite une étude du cabinet Roland Berger de 2014 qui prévoit que 3 millions d’emplois pourraient disparaître d’ici 2025 à cause des intelligences artificielles ! Et les métiers engendrés en retour par le secteur robotique ne compenseront pas ces disparitions. Plus préoccupant encore, ces mesures ne se limitent pas aux métiers simples et répétitifs … Dans son article de l’Usine digitale, Christophe Bys, en revanche, cite une étude internationale de Cap Gemini selon laquelle « les entreprises qui ont recours à l’intelligence artificielle n’ont majoritairement pas détruit d’emplois. Elles en ont même créé. ». Toutefois cette étude qui relativise l’impact de l’IA porte sur un périmètre restreint d’entreprises (dont le chiffre d’affaire est supérieur à 500 millions de dollars). Les pays européens (France, Espagne, Pays-Bas) ont déployé moins d’initiatives IA que l’Inde ou l’Australie …

C’est aussi le point de vue de Bertrand Diard, président de Tech in France, dans son interview dans la Croix « La robotisation dans l’industrie n’a pas réduit le volume d’emplois. Ce qui l’a fait, ce sont les délocalisations vers la Chine. L’Allemagne, qui est très robotisée, a créé de la richesse et de l’emploi industriel, alors que la France, dans le même temps, en a perdu. » De nouveaux métiers devraient émerger autour de ces nouvelles technologies et il faut développer la formation des travailleurs qui pourraient ainsi s’adonner à des tâches plus intéressantes. Alain Guillemolles a interviewé dans le même article Romain Guers, délégué syndical au Crédit Mutuel. Cette banque a adopté Watson, l’agent intelligent d’IBM (ce chatbot est aussi en fonction chez Orange et Bouygue Telecom) pour l’assister dans le traitement des données de la relation clients : « il n’est pas question de remplacer les conseillers bancaires par des robots. […] l’outil ‘intelligent’ aide les chargés de clientèle à trier le courrier en fonction des priorités exprimées par les clients. De plus, ils ont accès à un « assistant » qui peut répondre à certaines demandes d’information en épargne et assurance. Mais le conseiller commercial reste le pivot de la relation avec le client. ». Là aussi, la mise en place de l’outil IA n’a pas eu d’impact sur l’emploi. Pour le moment, car les outils intelligents apprennent très vite …

On retrouve ici les deux conceptions de l’IA : d’une part, l’IA comme assistant de l’humain qui permet de réaliser l’’homme augmenté’, doté de sortes de prothèses technologiques ; d’autre part, l’IA autonome qui arriverait à une sorte de ‘conscience’ !

cover-MIT-600x399Dans la recherche médicale, en revanche, l’outil intelligent n’est pas encore vraiment fiable. Watson devait permettre aux soignants « de passer moins de temps sur la littérature et plus de temps pour prendre soin des patients ». Comme le souligne Jean-Yves Paillé dans la Tribune, « L’IA destinée à trouver des solutions afin de personnaliser les traitements en cancérologie est pour le moment décevante, en particulier dans les diagnostics ». Le système souffre d’un certain nombre de biais : d’abord dans les publications scientifiques : sur 700 000 articles publiés par an en médecine, de nombreuses publications n’ont pas de valeur. « La machine n’est pas capable aujourd’hui de faire la différence entre ce qui ne vaut rien et un article intéressant » comme l’analyse Guy Vallencien dans

« La médecine sans médecin » cité dans l’article. De plus près de 2% des scientifiques admettent « avoir fabriqué, falsifié ou modifié des données ou des résultats au moins une fois. » « jusqu’à 33,7% ont avoué d’autres pratiques de recherche douteuses » d’après l’étude de Plos One.  Mais aussi l’intelligence artificielle s’appuie sur des données médicales spécifiques aux protocoles de soins des Etats-Unis et aurait du mal à s’adapter aux méthodes de différents pays où les protocoles peuvent différer … « L’IA ne peut pas être plus neutre et performantes que les données dont elle dispose ».

Ethique et réglementation

L’éthique fait partie des principaux axes définis par la mission Villani et concerne de nombreux aspects du déploiement de ces technologies. Aux États-Unis, les géants du numérique, Google, Apple, Facebook, Amazon, Microsoft, IBM ainsi que de nombreux chercheurs s’engagent pour développer une intelligence artificielle responsable et éthique. Le Partnership on AI to benefit people and society (Partenariat sur l’IA au service des citoyens et de la société), organisation à but non lucratif, a pour objectif la compréhension du public sur l’IA et la définition de meilleures pratiques dans ce domaine.

Au Québec, le préambule de la Déclaration de Montréal a été dévoilé en clôture du Forum sur le développement socialement responsable de l’intelligence artificielle le 3 novembre. Portant sur les thèmes de la cybersécurité, la responsabilité légale, la psychologie morale, le marché du travail, le système de santé et la ville intelligente, le Forum a comme ambition la ‘coconstruction’ entre le public, les experts et les pouvoirs publics. Comme l’a déclaré Guy Breton, recteur de l’UdM « Les avancées de l’intelligence artificielle toucheront progressivement tous les secteurs de la société et nous devons poser, dès maintenant, les balises qui encadreront son développement afin qu’il soit conforme à nos valeurs et porteur d’un véritable progrès social.» Les-rendez-vous-du-numérique-et-du-développement-commercial

En France, la CNIL dans son rapport des enjeux éthiques des algorithmes et de l’intelligence artificielle, présenté le 15 décembre, réaffirme deux principes fondateurs et préconise six recommandations opérationnelles pour permette à l’Homme de garder la main. Tout d’abord, le principe de loyauté : l’intérêt de l’utilisateur doit primer ; un principe de vigilance/réflexivité ensuite en organisant « un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants ». Ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique.

Parmi les recommandations : former à l’éthique tous les acteurs-maillons de la ‘chaîne algorithmique’ ; rendre les systèmes algorithmiques compréhensibles ; encourager la recherche sur l’IA éthique ; renforcer la fonction éthique au sein des entreprises. Comme le dit Isabelle Falque-Pierrotin, Présidente de la CNIL « L’objectif de ce débat est de garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle ».

Alexandra Yeh évoque dans son compte-rendu de la Conférence Nouvelles pratiques du journalisme de l’Ecole de Journalisme de Sciences Po, la proposition de Dominique Cardon pour une ‘éducation des algorithmes’. Comme on s’en est rendu compte dans les années 1980, les tentatives de programmer les machines à raisonner comme des humains avec des règles et des systèmes de décisions logiques sont vouées à l’échec. L’humain n’est pas un être pleinement rationnel et ses décisions dépendent souvent de facteurs imprévisibles (contextes, affects, sensibilité). Il faut donc « apprendre aux machines à analyser nos comportements plutôt que nos représentations ». Pour Dominique Cardon « nous devons réfléchir à la façon dont voulons éduquer les algorithmes ». Car nous sommes responsables des biais de l’IA (cf le cas des IA racistes).

Avec l’automatisation, les dilemmes moraux vont se multiplier : en plus de gérer les actions accidentelles ou intentionnelles de leurs inventions, les chercheurs en AI devront faire face à de tels dilemmes. Par exemple, face à une situation de danger, l’IA de la voiture autonome devra décider qui épargner en cas d’accident : une femme enceinte ou un homme âgé ; renverser un enfant ou deux adultes ? En fait, décider lesquels d’entre nous devront vivre ou mourir …  Jean-François Bonnefons, professeur à la Toulouse School of Economics, explore ces dilemmes avec le projet Moral Machine qui « confronte les internautes à ce genre de situations pour leur demander de trancher, a déjà recueilli 40 millions de décisions ». Ce programme permet d’identifier les critères pesant dans la décision, les variations selon le type de personne (genre, âge, CSP, nationalité) et les différences culturelles et géographiques. Si les choix moraux sont relativement homogènes (sauver les humains plutôt que les animaux ), les résultats montrent qu’il n’existe pas de règle d’éthique totalement universelle, même si des convergences locales existent dans le monde …

A l’instar des avancées de l’intelligence artificielle, les préoccupations éthiques et politiques à ce sujet sont un « work in progress ». Nous aurons l’occasion d’y revenir à l’avenir.

data-672x372Bonnes fêtes et meilleurs vœux pour 2018

Pour aller plus loin

L’intelligence artificielle, quelles conséquences pour l’emploi. – Les Numériques – Dossier, 17/12/17

Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. – CNIL, 15 décembre, 2017

Cheminade, Pierre. – Laurent Alexandre : « La France a perdu sa souveraineté numérique ». – La Tribune, 13/12/17

Georges, Benoît. – Ce que les Français attendent de l’intelligence artificielle. Les Échos, 12/12/17

Paillé, Jean-Yves. – Dans la santé, Watson, l’IA d’IBM, doit encore faire ses preuves.La Tribune, 08/12/17

Simonite, Tom. – Artificial Intelligence seeks an Ethical Conscience. – Wired, 12/07/17

Lausson, Julien. – Intelligence artificielle : la Mission Villani vous demande votre avis. – Numérama, 07/12/17

Tisseron, Serge. - IA, robots qui parlent et robots sous influence.InaGlobal, 06/12/17

Yeh, Alexandra. – IA et journalisme : quelle éthique ?Meta-media, 05/12/17

#NPDJ Les nouvelles pratiques du journalisme 2017. – École de journalisme de Sciences Po, 04/12/17

Lesage, Nelly. – Un rapport estime que les robots vont prendre 800 millions d’emplois d’ici 2030. – Numérama, 30/11/12

2067, des robots dans la ville/Usbek & Rica. – Inriality, 28/11/17

Kiefer, Bertrand ; Navaris, Sophie. – « La médecine, le dernier lieu où l’on peut exprimer sa sensibilité » Entretien. – Tribune de Genève, 25/11/17

Maignan, Iris. – #Étude : les Français, pas (du tout) prêts pour l’intelligence artificielle. – Maddyness, 25/11/17

Web Summit 2017 à Lisbonne : que retenir du Davos de la Tech ? - FrenchWeb, 16/11/17

Guillemoles, Alain. - Watson mène la révolution de l’intelligence artificielle. – La Croix, 13/11/17

Deluzarche, Céline. – #IA : Deep learning, le grand trou de l’intelligence artificielle. – Maddyness, 13/11/17

Quel sera l’impact de l’intelligence artificielle sur l’emploi. – La Croix, 13/11/17

Piquard, Alexandre. – L’intelligence artificielle, star inquiétante du Web Summit à Lisbonne. – Le Monde, 10/11/17

Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. – Université de Montréal, 03/11/17

Gavois, Sébastien. – Intelligence artificielle : enjeux économiques et cadres légaux s’invitent au Sénat. – NextInpact, 26/10/17

Ezratty, Olivier. – Les usages de l’intelligence artificielle. – Opinions libres, 19/10/17. – E-book téléchargeable.

Intelligence artificielle, une nouvelle mission confiée à France Stratégie. – France Stratégie – Premier Ministre,16/10/17

Yann Le Cun ; « Aujourd’hui, Facebook est entièrement construit autour de l’intelligence artificielle » Entretien. – Le Monde, 03/10/17 – vidéo.

Quel avenir pour l’enseignement à distance ?

F1Émergeant il y a cinq ans, les MOOCs avaient soulevé un grand enthousiasme en matière d’enseignement en ligne : voir ces cours prestigieux d’universités d’élite mis à la disposition gratuitement du plus grand nombre représentait une ‘disruption’ dans l’univers sélectif de l’enseignement supérieur, en particulier aux États-Unis où l’accès à l’Université est difficile et les droits de scolarité élevés.

L’éclatement de la bulle Mooc

Les Moocs ont-ils fait ‘pcshitt’, comme le prétend Marine Miller dans son article du Monde ?

Un certain nombre de critiques s’élèvent contre l’évolution de cette innovation pédagogique. Tout d’abord, sa technologie qui n’a rien de vraiment révolutionnaire : des vidéos de cours magistraux accompagnés de quelques quizz … C’est loin d’être la disruption annoncée … De plus, la gratuité des cours, qui faisait l’attrait de ce dispositif, notamment dans les pays anglo-saxons, a été partiellement réduite, en particulier en ce qui concerne la certification ou les crédits dont les étudiants peuvent bénéficier. Sans parler de ceux qui déplorent la dématérialisation des cours et l’absence physique du professeur (et des étudiants !).

Malgré les 25 millions de participants et avec un marché estimé de 2500 millions de dollars (chiffres de 2015à vérifier), les MOOCs ne semblent pas avoir trouvé leur rythme de croisière. D’après une étude de Coursera, citée par Managexam, seuls 4% des étudiants avouent poursuivre leur formation jusqu’au bout … ! Et tous les étudiants n’ont pas la capacité d’apprendre de façon autonome … Mais tous les participants ne cherchent pas forcément à décrocher le diplôme ou la certification à mettre sur leur CV … Et près de 50% en ont suivi au moins la moitié … !images_civ

Mais plus sérieusement, c’est la philosophie même de ces cours en ligne qui est remise en cause. Outre les abandons massifs et le changement de modèle économique des plateformes, Karen Head dénonce le « colonialisme académique » que représentent les MOOCs dans son livre Disrupt This !, cité dans la recension de livres de Impact of Social Science. Professeur associée de littérature au Georgia Institute of Technology (Georgia Tech), elle a expérimenté elle-même ce dispositif en proposant son cours d’écriture de 1ere année sur un MOOC, bénéficiant d’un financement de la Gates Foundation qui voulait disposer au moins d’un cours non-traditionnel dans son offre. Ce ‘point de vue de l’intérieur’ lui a permis de nuancer son impression. Pour elle, cette disruption évolue dans le contexte du modèle éducatif de l’enseignement supérieur américain, la plupart des plateformes sont basées aux USA et nouent des partenariats avec les universités américaines les plus renommées. C’est difficile d’évoquer une ‘démocratisation’ de l’enseignement supérieur dans ce contexte. Les plateformes européennes (FUN, FutureLearn[GB]) ont plus ou moins imité le modèle américain. La seule proposition ‘vendable’ des Moocs, c’est la promesse d’un changement positif pour tout un chacun, que les ‘mal desservis du monde entier’ vont pouvoir profiter d’un accès libre aux enseignements des meilleures universités’. En fait, on assiste à l’adoption de contenu payant produit par ces grandes universités par les petites et moyennes universités, le développement et la maintenance d’un MOOC reste encore très opaque. 05894964-photo-illustration-objets-connectes

L’évolution du modèle économique : des MOOCs aux SPOCs

Ce que montrait aussi l’étude de Coursera, c’est la tendance à préférer les cours qui ont un aspect de formation professionnelle : 52% des interrogés suivent un cours pour améliorer leurs compétences dans le cadre de leur travail ou pour trouver un emploi. C’est cette ‘employabilité’ que critiquait d’ailleurs Karen Head, son cours de ‘composition de première année’ ne remplissait évidemment pas ce critère et ne pouvait pas être évalué de la même façon … Dans ce contexte professionnel, on retrouve l’influence des entreprises et l’importance du classement et des statuts des étudiants. C’est aussi cette variable qui a conduit des plateformes comme Coursera et Udacity à faire payer les certifications. D’ailleurs sur certains MOOCS, certaines parties du cours ne sont pas accessibles gratuitement, comme le souligne le post de Couserajunkie « Free MOOCs ? Forget about it ». Jusqu’au bouton LinkedIn qui disparaît si on n’a pris l’option de certification payante …

C’est à ce moment-là que l’on a vu fleurir les SPOCs (Small Private Online Course : cours en ligne privé en petit groupe). Ces formations, en général plus courtes, sont de plus proposées en entreprise comme alternative aux cours en présentiel. Les professeurs qui conçoivent ces cours s’appuient sur des contributions d’entreprises pour créer du contenu tourné vers les secteurs à forte demande (commerce, analyse des données, technologies numériques). Coorpacademy , en revanche, parie sur un nouveau paradigme, au lieu de proposer des séquences de formations continue de 3 jours, 2 semaines ou six mois, cette start-up propose « des apprentissages au fil de l’eau, quand un peu de temps se libère, dans les transports en commun ou en attendant un rendez-vous » comme le souligne Christophe Bys dans son article d’Usine digitale. C’est la méthode Apple avec iTunes : « Il change les règles du jeu en pariant non pas sur la gratuité, mais sur la fragmentation de l’usage ». De plus, un ‘protocole pédagogique inversé’ (le cours commence par un quizz, l’étudiant vérifie ensuite les réponses), permet de prendre en compte l’hétérogénéité des personnes qui suivent la formation. Chacun suit en fonction de ses besoins, de ces lacunes et peut rejoindre ensuite une communauté de groupe où la compétition peut se transformer en coopération, les apprenants d’hier pouvant se transformer en coach pour aider les nouveaux venus …

Les Mooceurs peuvent aussi avoir une démarche collective, comme le remarque Matthieu Cisel dans son post « L’avenir des MOOC passe-t-il par l’entreprise ?». Dans une structure, association, entreprise, un groupe de personnes peut se saisir d’un MOOC pour créer des dynamiques collectives, souvent dans une démarche ‘bottom-up’. Le MOOC peut être l’occasion de travailler un point ensemble : la gestion de projet, le prise de parole en public, la statistique, etc. Pour Matthieu Cisel, « l’avenir des MOOCs se trouve dans leur intégration, formelle ou non, dans les cursus de formation initiale ou continue ».

5202542_7_3ee3_plusieurs-tests-existent-pour-mesurer_4a49d65e5a7648af61b4aded15f8ecb3Des avancées pédagogiques et technologiques

  • Un cours de droit sur Facebook Live

Bruno Dandero, professeur de droit des affaires à Paris 1 Panthéon-Sorbonne diffuse ses cours magistraux en direct sur Facebook Live. Au lieu d’utiliser une plate-forme pédagogique privée ou publique (Coursera, edX ou FUN), cet enseignant élargit son audience des 300 étudiants de son cours à des milliers d’internautes du réseau social ‘massif’, sans inscription spécifique ni identifiants autres que ceux de Facebook. Comme le souligne Paul Conge dans l’Etudiant, ces interactions et contributions (remarques, liens hypertextes et questions juridiques) finissent par constituer un « document pédagogique enrichi ». Comme le dit le Pr Dandero, commentant les 25 000 vues de sa première vidéo « Ce qui me plait c’est de donner accès aux cours à des personnes qui ne sont pas inscrites à l’université ». Son audience est internationale et francophone (Vietnam, Madagascar, Afrique noire). Mais, malgré tout, un cours de droit de 3e année, ça demande des prérequis » …

  • L’intelligence artificielle s’invite sur les MOOCs : les ‘chatbots’ assistants pédagogiques

De nombreux enseignants américains utilisent de plus en plus des fonctionnalités d’intelligence artificielle (Siri d’Apple, Alexa d’Amazon, Watson d’IBM) pour les assister dans leurs cours en ligne. Ces chatbots, répondent aux questions, rappellent à l’ordre les étudiants pour certaines tâches ou échéances et peuvent animer des débats en ligne … Évidemment, cela risque de faire disparaître les ‘teaching assistants’, ces étudiants que Karen Head se plaignait de ne pouvoir rémunérer correctement dans son MOOC … Mais comme l’explique Donald sur le post de Wildfire Learning, cela permet aux assistants humains de se focaliser sur les questions intéressantes et créatives quand les ‘bots’ se chargent des questions récurrentes (à Georgia Tech, 10 000 par semestre pour 350 étudiants).

paysage-application-realite-virtuelle

  • L’émergence de la réalité virtuelle dans la classe

L’importance prise par la formation professionnelle dans l’enseignement à distance implique l’acquisition de compétences plus pratiques que les seules notions théoriques émises par les vidéos des cours en ligne. Malgré le jeu d’acteur des enseignants et leurs exploits graphiques sur les tableaux, noirs ou blancs, il faut souvent beaucoup d’imagination pour se représenter les choses enseignées … C’est là qu’intervient la réalité virtuelle immersive. De la l’école primaire à la formation des chirurgiens en Irlande en passant la construction de maisons durables en Chine, sans oublier évidemment, la simulation du pilotage d’un avion, les casques de réalité virtuelle emmènent les apprenant sur le ‘terrain’. Pour les enfants, Facebook et Google se partagent le marché. Avec Time Machine de Facebook social VR, les élèves se retrouvent dans la préhistoire près des dinosaures avec une application de type ‘Jurassic Park’. Dans Expeditions, du kit Google, le professeur se transforme en guide au sommet de l’Everest ou sur Mars … La Rady School of Management, de l’Université de San Diego en Californie a déjà son programme virtuel sur VirBela, la plateforme de réalité sociale virtuelle. En s’y connectant, les étudiants sont plongés dans des situations de cas concrets et doivent interagir comme dans un jeu vidéo …

Les MOOCs n’ont pas révolutionné l’enseignement supérieur : le ‘mammouth’ est difficile à renverser … Ce dispositif a néanmoins bousculé un certain nombre de rigidités pédagogiques et fait bouger les lignes dans les formations initiales et continue. L’enseignement initial se retrouve même impacté par cette innovation à travers la pratique de la ‘classe inversée’, de plus en plus adoptée dans certains cours. Cette pédagogie qui encourage les apprenants à se familiariser avec un certain nombre de notions sur internet avant d’assister aux cours et d’en débattre ensuite avec leurs enseignants, a inspiré la plateforme FUN qui propose aujourd’hui aux lycéens de terminale des MOOCs de préparation à l’enseignement supérieur sur des matières sensibles (Maths, droit, SHS, sport). Cela leur permettra d’être prêts au niveau des prérequis ou ‘attendus’ pour certaines filières comme le prévoit la prochaine réforme de l’admission à l’université.

MOOC

Siemens, George ; Gasevic, Dragan ; Dawson, Shane. – Preparing Digital University :a review of the history and current state of distant, blended, and online learning. – Athabasca University, University of Edinburgh, University of Texas Arlington, University of South Australia. – Bill & Melinda Gates Foundation, February 2015. (pdf).

Cisel, Matthieu. – MOOC : pour la Révolution, on repassera. – Educpros : La révolution MOOC, 22/04/15

Cisel, Matthieu. – L’avenir des MOOC passe-t-il par l’entreprise ?Educpros : La révolution MOOC, 23/06/15

Free MOOCs ? Forget about it. – Courserajunkie, 26/05/15

Trujillo, Elsa. – La formation professionnelle, l’avenir des MOOC. -Microsoft RSLN, 26/08/15

Bys, Christophe. – Coorpacademy veut appliquer la méthode Apple à la formation professionnelle.Usine digitale, 01/09/15

Brasher, Joan. - What makes students stick with a MOOC?Research News Vanderbilt, 26/02/16

Conge, Paul. – Un prof de droit donne des cours en direct sur Facebook. – L’Etudiant, 23/09/16

Merry, Peter. - Immersive Virtual Reality: Online Education for the Next Generation. – Converge, 28/09/16

Les universités britanniques lancent les premiers MOOCs certifiants. – Le Monde, 18/10/16

MOOCs : les chiffres qui comptent. – Managexam, 01/11/16

Bot teacher that impressed and fooled everyone. – Wildfire Learning, 02/08/17

Duthion, Brice – MOOC, SPOC, COOC et autres tutos, ou les aventures en ligne d’un formateurs voulant se former … -Etourisme.info, 03/10/17

Frank, Cyrille. – Mooc, elearning, gamification, serious-game … innovations réelles ou mirages ?Médiaculture, 14/10/17

Boeva, Yana. – Book review: Disrupt This! MOOCs and the Promise of Technology by Karen Head. – Impact of Social Sciences, 22/10/17

Antaya, Felipe. – Ouvrir les murs de la classe avec le numérique. – École branchée, 23/10/17

Miller Marine. – Les MOOC font pschitt. – Le Monde, 23/10/17

Présidentielle 2017 : quel bilan pour les civic-tech ?

1249b0949cb30954e2effc2017a51af1_originalCette élection présidentielle se présentait comme l’occasion d’expérimenter des technologies qui permettraient d’avoir une approche plus participative et plus pertinente que les campagnes précédentes. Les sondages traditionnels, qui ont montré leurs limites lors des derniers scrutins au Royaume Uni et aux Etats-Unis, seraient remplacés par l’analyses des mégadonnées et l’intelligence artificielle permettant de prédire les résultats au plus près du vécu de l’électeur. Et surtout, par l’utilisation massive de diverses plateformes de participation citoyenne et des réseaux sociaux.

Que ce soit avec  la plateforme citoyenne de la Primaire.org (qui permet aux citoyens de choisir leurs candidat(e)s et de co-construire les projets politiques), les comparateurs en ligne de programmes électoraux, les chatbots pour discuter sur les messageries instantanées ou les applications de réalité virtuelle, la campagne électorale a expérimenté un certain nombre de ces nouveaux outils ou services, les civic-tech.

Définition(s)

La newsletter Civictechno propose plusieurs définitions de ces dispositifs « à la croisée de l’innovation, d’un gouvernement ouvert et de l’engagement du citoyen » (Rapport de la Knight Foundation, 2013). On y retrouve le désir « de rapprocher les citoyens des collectivités et des Etats », de « rendre les gouvernements plus accessibles et plus efficaces » et de permettre « à des individus ou à des groupes d’influer sur la scène publique ».

Comme le rappelle Dominique Cardon dans son intervention  « Démocratie et internet » (Nouvelles citoyennetés), « Peu d’innovations technologiques ont autant été investies de promesses politiques que ne l’a été internet. ». La contre-culture qui a entouré les pionniers de l’internet a influencé cette articulation entre technologie et politique. L’infrastructure réticulaire et la décentralisation (le réseau distribué, idiot au centre, intelligent à la périphérie) remettent en cause la démocratie représentative. L’utopie libertaire des pionniers inspire les premières communautés virtuelles : l’’empowerment’ et les communautés électives devraient permettre de « changer la société sans prendre le pouvoir ».

Néanmoins, la démocratie représentative s’est aussi emparée de ces outils, notamment lors des campagnes électorales, comme par exemple lors de la campagne d’Obama en 2008 avec des réseaux de mobilisation de bénévoles et des financements de la campagne par micro-dons (badges de fierté).

La participation citoyenne civic-tech

Ségolène Royale avait initié cette idée en 2007 avec son site « Désirs d’avenir », devenue depuis desirs-davenir.eu, laboratoire d’idées, citoyen et participatif, qui fonctionne avec la page Facebook de la Ministre de l’environnement. L’objectif était de recueillir des idées, des expertises et des témoignages venant de la base pour élaborer un programme sans passer par le parti. Le résultat fut mitigé malgré la considérable production militante, comme le souligne Patrice Flichy  Internet et le débat démocratique, (2008).

On retroette participation militante dans l’élaboration de la Loi numérique, où 21 330 citoyens ont co-écrit le projet de loi, comme l’indique le document du Ministère de l’économie présenté par Axelle Lemaire.

Outre l’expérience de la Primaire.org qui a réussi à désigner une candidate à la présidentielle (Charlotte Marchandise n’a finalement obtenu que 135 parrainages sur les 500 nécessaires pour se présenter à l’élection), de nombreuses initiatives se sont multipliées pour inventer de nouvelles formes d’engagement citoyen.  D’autres mouvements ont mis en œuvre des plateformes participatives à commencer par des candidats (Benoît Hamon, Jean-Luc Mélenchon). On les retrouve dans l’article du Monde : « Les civic-tech ou le B-A BA de la démocratie ».

MaVoix, vise les législatives et a pour objectif de « hacker l’Assemblée Nationale en faisant élire des citoyens volontaires, formés et tirés au sort qui voteront pendant 5 ans sur toutes les lois comme leurs électeurs le décideront. ». Quant à la ‘boite à outils’ citoyenne voxe.org, elle ne se contente pas de comparer simplement les programmes des candidats ; cette application permet aussi de s’informer sur la campagne, d’interpeler les candidats et aussi de se rencontrer IRL (dans la vraie vie) pour débattre d’un sujet, par exemple sur la valeur travail dans un café de Strasbourg. La Fabrique de la Loi (Medialab + CEE Sciences Po) permet d’explorer l’évolution des textes de loi au fil de la procédure.

index

Les plateformes des candidats

Le mouvement de Jean-Luc Mélenchon la France Insoumise est celui qui se présente comme le plus équipé au niveau numérique. Il dispose de deux outils pour interagir avec ses militants : la plateforme La France insoumise (plus de 500 000 participants) et la messagerie instantanée très sécurisée Discord Les Insoumis qui permet des conférences en ligne dans différents ‘salons’ pour discuter du programme. Enfin le portail Insoumis.online rassemble tous les outils et les réseaux sociaux où interviennent JLM et les insoumis : les sites internet proches de la FI ; les chaînes YouTube de JLM et d’autres militants et médias ; les comptes twitter des diverses militants et communautés FI ; les comptes Facebook, complétés par des jeux vidéo engagés et d’autres ressources (bande dessinée, banque d’images, outils de simulation et … concours de photos de chats et de chiens sur twitter !). Et évidemment l’’hologramme’ (en fait une projection vidéo) de Mélenchon qui lui a permis de tenir jusqu’à 6 meetings simultanément … !

Le candidat Benoît Hamon propose aussi des outils de participation : le Conseil citoyen où on peut participer au programme sur 10 thèmes (éducation, travail, santé, environnement, discriminations) et la plateforme Expression « ouverte à toutes les initiatives de la société civile, elle est alimentée par des textes, des vidéos, des photos, des films d’animation et des infographies pour éclairer les expérimentations et projets qui construisent aujourd’hui le monde de demain. ».

La plateforme Marine2017 est beaucoup plus classique : à part un compte à rebours pour le jour de l’élection, elle ne propose que des soutiens pour la candidate, sur la plateforme et sur les réseaux sociaux twitter et Facebook, accompagné par un lien vers le site : actualités, programme, blog de Marine Le Pen, vidéos, photos, boutique et formulaire de procuration en ligne ! Mais la plupart des militants proches du FN se retrouvent sur des fils de forums comme la ‘Taverne des patriotes’ ou  4chan liés à l’’altright’ américain sans oublier, bien sûr les médias russes.

Sur le site d’En Marche !, seul un fil d’actualités avec un moteur de recherche présente une revue de presse sur la campagne et les dernières déclaration d’Emmanuel Macron. En fait l’équipe informatique du candidat, dirigée par Mounir Mahjoubi, ex-directeur du Conseil national du numérique, est surtout occupée de contenir les piratages de ses serveurs et de faire la chasse aux ’fake news’ comme on l’a vu à la fin de la campagne avec l’affaire du compte aux Bahamas et les MacronLeaks où une somme de documents du mouvement En Marche ! a été publiée sur le forum  4Chan puis relayée sur les réseaux sociaux …

digital surveillanceL’effet bulle

Mais il existe aussi un côté obscur de ces instruments … Le dessinateur Joann Sfar en a fait récemment la cruelle expérience. S’apprêtant à voter Mélenchon, l’auteur du « Chat du rabbin » a été choqué par les prises de position du leader de la France Insoumise en matière de relations internationales (adhésion à l’Alliance bolivarienne, approbation du soutien de la Russie à Bachar El Assad en Syrie). Il a donc posté quelques dessins critiques sur les réseaux sociaux … Mal lui en a pris, les militants FI ont commencé à le harceler sur les réseaux sociaux « J’ai vu débarquer sur Facebook, Instagram et Twitter des centaines de pseudos dont je n’avais jamais entendu parler et qui venaient me « désintoxiquer ». J. Sfar explique ensuite la méthode des Insoumis : la création de centaines  de faux comptes twitter et de l’utilisation de la plateforme Discord pour planifier les attaques de ‘désintoxication’.

Ces réactions résultent aussi des ‘bulles de filtres’ (filter bubble) qui fonctionnent sur les réseaux sociaux. Ces algorithmes vous montrent surtout les pages des personnes avec qui on a le plus d’interaction. On reste dans sa bulle et on ne connaît pas les positions des autres groupes (ex : conservateurs contre libéraux). D’où les réactions en chaîne quand un autre sonde cloche résonne dans la bulle … C’est cet aspect psychologique qui a été exploité par la firme Cambrige Analytica, une société de communication stratégique utilisant l’analyse de données et le ‘sentiment analysis’ qui a influencé aussi bien le referendum britannique que l’élection de Trump aux États-Unis comme l’explique Carole Cadwalladr dans son article du Observer.

L’analyse Big data pour remplacer les sondages ?

Les sondages ont été incapables de prédire deux scrutins très importants en 2016. Jusqu’au dernier moment, les instituts de sondage soutenaient la victoire du « Remain » au référendum britannique sur le maintien dans l’Union européenne de même que Hillary Clinton était donnée victorieuse à l’élection présidentielle américaine.

Pour remédier à cette carence des outils traditionnels, un groupe d’étudiants du master spécialisé Big data de Télécom Paris Tech ont lancé le projet « Predict the President » qui avait pour objectif de « prédire le résultat du premier tour en mixant de nombreuses données (sondages, occurrences sur twitter et Google, cartes électorales, etc.) ». Le 18 avril, Le Point publiait leur prédiction (valable au 15 avril) : un duel Fillon-Le Pen ! Dix jours plus tard, les étudiants reviennent dans le Point sur leur prédiction. Même s’ils ont pu produire une deuxième estimation plus pertinente le 21 avril, ils tiennent à tirer les leçons de cette première estimation. Leur principale erreur a été de constituer des ‘blocs’ politiques. En intégrant « des données sociodémographiques sur plusieurs années … afin d’estimer les réservoirs de voix des grandes familles politiques ». Ils ont ensuite « ajusté les scores des données issues d’internet et les intentions de vote des instituts de sondage. […] Les données du web incluaient les recherches sur Google et le sentiment exprimé dans les tweets. ». Les étudiants reconnaissent que « l’estimation des grands blocs politiques souffrent du fait que les couleurs politiques des candidats sont difficiles à classer ». Emmanuel Macron classé au centre gauche (sans prendre en compte les voix captées au PS et à LR ?) et le score de Marine Le Pen reposant presque uniquement sur l’historique de cette « dynastie » de candidats …

Le projet a aussi souffert d’un biais avec la ‘sentiment analysis’ sur Twitter. Les tweets anti-Fillon étaient très nombreux et ont, en réaction généré beaucoup de tweets positifs, ce qui a surévalué les points positifs pour le candidat … La prise en compte du contexte semble très importante dans l’analyse très délicate de l’opinion sur les réseaux sociaux. Comme le souligne Eric Scherer (France Télévision), interrogé dans Télérama ces nouvelles méthodes d’estimation d’opinion n’ont pas vocation à remplacer les sondages, mais à agir en complément. « Le big data n’a pas su répondre à ces questions lors de l’élection, mais il ne faut pas l’enterrer pour autant car il est l’avenir des sondages. »… blogimage_KnightFoundCivicTech

Désintermédiation versus médias traditionnels

En dehors de cette initiative, cette campagne électorale a connu peu d’innovations technologiques. C’est ce que confirme Xavier de La Porte (France Culture), dans le même article de Télérama,  «Les deux grandes tendances de cette campagne sur Internet étaient déjà apparentes, il s’agit de l’intensification du fact-checking (vérification méthodiques des faits et des affirmations) et l’usage massif des réseaux sociaux quasiment en direct. ». Cela confirme la tendance à la désintermédiation, les mouvements politiques produisant eux-mêmes leurs propres produits d’information comme les chaînes YouTube de la France Insoumise au détriment des médias de même que les débats télévisés se doublent de discussions en direct sur les réseaux sociaux.

Si les civic-techs n’ont pas tenus les promesses que l’on espérait, « le numérique chamboule tous les espaces confrontés de près ou de loin à la question démocratique : les villes bien sûr, mais aussi les entreprises et organisations sous toutes leurs formes » comme le souligne Dominique Cardon. De plus, cette élection présidentielle comportait un facteur souvent oublié des analyses électorale, les émotions. Comme le souligne Martial Foucault du Cevipof, dans un article du Monde « La raison ne peut suffire. L’électeur, en tant que citoyen sentimental, est traversé par un ensemble d’émotions, allant des expériences, des souvenirs positifs ou négatifs aux réactions plus immédiates face à un événement. ». Malgré des avancées indéniables, le numérique n’est pas encore en mesure de prendre pleinement en compte ce facteur. 20inscritsCivicTheque-300x251

Flichy, Patrice. - Internet et le débat démocratique. – Réseaux vol.150:n°4, 2008/04 – via Cairn-info

Flichy, Patrice ; Bougnoux, Daniel ; Cardon, Dominique. - Internet, nouvel espace démocratique ? – Table-ronde animée par Caroline Broué. – La vie des Idées – Réinventer la démocratie – Granoble, 09/05/09

Cardon, Dominique ; Williamson, Audrey. – Internet, nouvel espace démocratique ? Entretien. – La vie des idées, 07/07/09

Cardon, Dominique. – La démocratie Internet : promesses et limites. – La République des idées, 2010

The Emergence of Civic Tech: Investments in a growing field. – Knight Foundation, December 2013

Projet de loi pour une République numérique : 21330 citoyens ont co-écrit le projet de loi/Axelle
Lemaire (ed.). – Ministère de l’économie, de l’industrie et du numérique ; Secrétariat d’Etat au numérique, 2016. (pdf).

Gombert, François. – C’est quoi la Civic Tech ? – Civictechno, 16/01/16

La Fabrique de la loi : les parlementaires font-ils la loi ?

La Primaire.org

Mavoix : nous sommes celles et ceux que nous attendions

Voxe.org : vous allez adorer les élections

Volontat, Adrien de. – La civic-tech invente la démocratie 2.0.- La Croix, 26/06/16

Cardon, Dominique ; Taboy, Thierry. – Démocratie et Internet. – Forum Nouvelles démocraties – Digital Society Orange, 15/11/16

Joann Sfar :  « Les méthodes des partisans de Mélenchon sont dégueulasses ». – Le Monde, 20/04/17

Schott, François. – Les « civic tech » ou le b-a ba de la démocratie 2.0.Le Monde, 26/04/17

Jeanticou, Romain. – Présidentielle et médias : La grande baudruche de l’innovation. – Télérama, 28/04/17

« Predict the President » : retour sur une prédiction. – Le Point, 29/04/17

Tual, Morgane ; Untersinger, Martin. - Macron et l’évasion fiscale : itinéraire d’une rumeur de 4Chan aux plateaux télé. – Le Monde, 04/05/17

Foucault, Martial ; Marcus, George E. ; Valentino, Nicholas ; Vasilopoulos, Pavlos. – Election présidentielle : « Nos émotions façonnent nos réaction à l’environnement ». – Le Monde, 06/05/17

Delmas, Aurélie. – « Macronleaks » : tentative de déstabilisation de dernière minute. – Libération, 06/05/17

Cadwalladr, Carol. – The great British Brexit robbery: how our democracy was hijacked. – The Guardian, 07/05/17

Surveillance : le tour de vis occidental

fingerprint with bar codeOn assiste, depuis quelques semaines, au renforcement de la surveillance de masse en Europe et dans les pays occidentaux. La vague d’attentats et le repli sécuritaire qui touche les démocraties pourraient expliquer ce phénomène.

En France, après le vote de la loi Renseignement en juillet 2015, nous avons eu début novembre l’annonce de la création du fichier TES qui devrait rassembler dans une seule base de données « les informations personnelles et biométriques de la quasi-totalité de la population » (Numérama).  Au Royaume Uni, le nouveau projet de loi sur le renseignement Investigatory Powers Act « qui marque un durcissement de la surveillance et légalise des pratiques déjà exercées en dehors de tout cadre juridique par les services de renseignement » (Le Monde). Avec cette loi, un certain nombre d’institutions et d’organismes britanniques – finances publiques, Agence de l’alimentation, Commission des paris, services de santé – en plus des services de police et de renseignement de tout le Royaume, pourra avoir accès à toutes les connections et enregistrements internet des citoyens et résidents en Grande-Bretagne (Independent).

Outre-Atlantique, la situation est aussi inquiétante : aux Etats-Unis, le FBI a passé un accord avec la société Dataminr pour accéder en temps réel aux 500 millions de publications quotidiennes de Twitter. Comme on le lit dans Les Echos, « Ce spécialiste du croisement des données (data mining) permet à ses clients (médias, banques, fonds d’investissements) d’obtenir des informations liées aux menaces terroristes, aux troubles sociaux et politiques etc.. ».  Après la victoire de Trump, la messagerie sécurisée Signal, a con a connu une augmentation de 400% de téléchargement comme le souligne Buzz Feed News. Le site Intercept a aussi interrogé les multinationales de l’internet pour savoir si elles étaient prêtes à collaborer pour mettre en place le « fichier des musulmans » préconisé par Trump : seul Twitter a refusé cette collaboration …

Et le Monde vient de révéler, suite aux derniers documents publiés par Snowden, que les smartphones des passagers d’Air France étaient espionnés en plein vol au profit de la NSA ou du GCHQ (services secrets britanniques) …

Au Québec, les services de police de la Ville de Montréal mettent sur écoute des journalistes comme Patrick Lagacé de la Presse, informe le blog Veille pour un(e) bibliothécaire engagé(e)Security camera

Néanmoins, un certain nombre d’institutions et d’organismes réagissent à ce tour de vis.

En France, le Conseil national du Numérique et la Cnil se montrent réservés vis-à-vis du Fichier TES. Le CNNum a carrément demandé la suspension de ce fichage généralisé de la totalité des Français …

Au niveau de l’Union européenne, une eurodéputée néerlandaise a attaqué devant le Conseil d’Etat la loi sur la surveillance internationale des communications électroniques, qui complète la loi sur le renseignement. « Sophie In’t Veld du groupe libéral ADLE a décidé de déposer 2 recours devant le Conseil d’Etat pour contester l’une de ces lois » écrit Julien Lausson dans Numérama.

Comment en est-on arrivé là ?

Nous avions évoqué les systèmes de surveillance massive dans des posts précédents, notamment l’intrusion de la NSA dans les communications électroniques, mais depuis la vague d’attentats en France et la mise en place de l’état d’urgence, un certain nombre de mesures de sécurité ont été renforcées.

La Loi Renseignement, votée en 2015, avait été partiellement retoquée par le Conseil Constitutionnel, notamment en ce qui concerne le volet surveillance internationale des communications électroniques. Ce texte, destiné à encadrer le renseignement à l’étranger, écarte explicitement les personnes résidant en France. Or deux députés socialistes, Patricia Adam et Philippe Nauche, ont déposé, à la demande du gouvernement en septembre 2015, une proposition de loi visant à combler « le seul trou laissé par le Conseil constitutionnel » comme  l’exprime Guillaume Champeau de Numérama. En facilitant l’interception massive des communications sur internet et les conversations téléphoniques, ce texte vise à « tranquilliser les agents de la DGSE qui agissent actuellement dans la plus grande illégalité, faute de loi encadrant leur surveillance ».  Le texte « aménage un régime spécial pour les services de renseignement qui souhaitent collecter et analyser massivement des communications électroniques depuis l’étranger ». Mais il concerne aussi les écoutes de communications émises « depuis l’étranger » ou si les personnes sont déjà « identifiées comme  présentant une menace au regard des intérêts fondamentaux de la Nation ». Donc, si des personnes résidant en France communiquent avec des personnes situées hors du territoire français, c’est le régime de cette proposition de loi qui s’appliquerait, comme le souligne Guillaume Champeau . Pour Sophie In’t Veld, cette loi malmènerait les droits dont bénéficie n’importe quel citoyen européen. Ses propres communications vers et depuis l’étranger – elle se rend souvent au Parlement européen à Strasbourg en tant qu’eurodéputée – « sont susceptibles d’avoir été interceptées ». En questionnant la légalité de ces mesures de surveillances, ces recours visent à obtenir la suppression des données personnelles collectées entre 2008 et 2015 (avant la loi sur la surveillance internationale) et ensuite démontrer qu’il existe une sorte de discrimination entre les Français et les autres citoyens de l’UE, ce qui va à l’encontre de la Charte des droits fondamentaux. postcard-surveillance-webversion1

Contenu et métadonnées : que surveille-t-on au juste ?

On a beaucoup évoqué le chiffrement des données pour échapper au piratage ou à la surveillance des communications électroniques. Mais le chiffrement porte généralement sur le contenu des communications et plus rarement sur les métadonnées, ces données techniques qui permettent le bon acheminement des communications (origine, destinataire, date, position géographique, etc.). Le Conseil national du numérique s’est penché sur le problème du chiffrement dans un article d’approfondissement, et plus précisément sur le chiffrement des métadonnées. S’il existe de manière de masquer certaines métadonnées, avec des réseaux de type Tor, la plupart des applications grand public, « assurent la confidentialité des contenus, mais ne peuvent pas garantir l’anonymat des utilisateurs ou des terminaux utilisés ».

Alors que traditionnellement les services de renseignement s’intéressaient au contenu des communications, on privilégie aujourd’hui de plus en plus le traitement automatisé des métadonnées. Ce passage du contenu au contenant, s’explique par plusieurs raisons. D’abord, l’analyse des métadonnées se prête mieux à une surveillance généralisée et automatisée : les métadonnées sont plus difficilement sécurisables et l’analyse des contenus implique un traitement individuel, donc plus coûteux. En plus, les contenus surveillés ne sont généralement pas explicites : les terroristes ne vont jamais dire « Rendez-vous à tel endroit pour placer la bombe » comme l’explique Rémi Récio délégué général à la Commission générale de contrôle des interceptions de sécurité (CNCIS), cité par le CNNum. « en revanche, il est plus important de reconstituer un réseau, donc des données techniques sont plus importantes que ce que vont dire les gens ».

Mais que faire avec ces quantités énormes de données ? Va-t-on analyser tous les renseignements collectés ? En fait, en prenant exemple sur la veille stratégique et l’intelligence économique, le système vise  « à débusquer les signaux faibles d’une activité criminelle ou terroriste par une surveillance généralisée des réseaux. Surveiller pour prévenir, mais aussi pour prédire ».

Une fois traitées par de puissants algorithmes, les données collectées en masse vont servir à l’établissement de ‘graphes sociaux’ (cartographie de réseaux de connexions et de relations entre individus en lien avec leur activité sur internet). Combinés à des outils statistiques, ces graphes sociaux vont aider à la constitution de patterns ou modèles de comportements, afin d’anticiper les risques d’une attaque terroriste. C’est ce que prévoit la Loi Renseignement de Juillet 2015, avec l’utilisation des fameuses ‘boites noires’ pour détecter les comportements ‘signants’.

arton15480-47b03Cette attitude est très dangereuse, car tout algorithme a une marge d’erreur et va donc identifier des personnes sans intention terroriste (des ‘faux positifs’). Si la marge d’erreur est de 1% (considérée comme faible), cela pourrait faire 600 000 personnes sur une population de 60 millions ! Alors que si le nombre de vrais terroristes est de 60, ils ne représentent que 0,01% …

Cela peut amener à des dérives, comme le fait de condamner à deux ans de prison ferme une personne ayant consulté de façon répétée des sites faisant l’apologie du terrorisme [quelle que soit la radicalisation effective du suspect, qui s’est révélée être assez importante]. Comme le souligne Olivier Ertzschied dans son post « De la confidentialité de l’acte de lecture », l’année où Mein Kampf entre dans le domaine public, « serait-il possible de condamner à deux ans de prison ferme un homme pour lecture régulière et répétée de Mein Kampf ? » Qu’y a-il de différent entre « la lecture répétée de brochure papier faisant l’apologie du terrorisme distribuées (et lues) en divers endroits de la planète et la lecture répétée de sites faisant l’apologie du terrorisme ? ». Pour le chercheur, « la confidentialité de l’acte de lecture est l’un des fondements essentiels de toute démocratie ». Encore une fois, c’est privilégier une idée de la sécurité au détriment des libertés fondamentales. « Pénaliser la lecture […] c’est condamner une intentionnalité supposée, c’est un ‘effet cigogne'[corrélation plutôt que causalité]». surveillance-electronique

Malheureusement, cette condamnation d’une intentionnalité de la lecture est en train de se concrétiser aux États-Unis, comme on le découvre dans le post de Thomas Fourmeux dans Biblio Numéricus « Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard) ». Cette transcription d’un article de l’EFF (Electronic Frontier Foundation) appelle les bibliothécaires à protéger leurs usagers les plus fragiles (adolescents, sans-abris, chômeurs, migrants) contre les agents du gouvernement qui viendraient enquêter sur les livres empruntés ou consultés et les mots-clés recherchés en ligne. Comme après la mise en place du « Patriot Act », les bibliothécaires américains s’inquiètent de la future administration Trump. « Les bibliothèques pourraient recevoir de la part du gouvernement des demandes de renseignements sans précédent sur les usagers »…

digital surveillance

 

Loi 2015-912 du 24 juillet 2015 relative au renseignement. – Légifrance, 27/07/15

Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance/Zigmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild et al. – Cultures et conflits, 2015/2 via Cairn.info

Rees, Marc. - Renseignement : l’exécutif annonce une proposition de loi sur la surveillance internationale. – NextInpact, 02/09/16

Champeau, Guillaume. – Surveillance internationale : ce que prévoit la proposition de loi. – Numérama, 10/09/15

Chantrel, Flavien. – Tristan Nitot « Une société sous surveillance n’est plus une société libre ». – Blog du modérateur, 05/07/16

De la confidentialité de l’acte de lecture : les algorithmes en prison. – Affordance.info, 14/08/16

Nitot, Tristan. – Surveillance : // Les libertés au défi du numérique : comprendre et agir. – Paris : C&F éditions, Blogcollection, 2016

Rees, Marc. – Loi Renseignement : un an après, où en est la centralisation des données . – NextInpact, 10/10/16

Conseil National du Numérique. – Communiqué de presse : Fichier TES : le CNNum appelle le gouvernement à suspendre sa mise en oeuvre et s’autorise à examiner des alternatives techniques plus modernes et respctueuse des lois et des libertés. – Paris, 07/11/16

Rees, Marc. – Le CNNum demande la suspension du fichage 60 millions de Français. – NextInpact, 07/11/16

Lausson, Julien. - Le CNNum demande la suspension du fichage biométrique des Français. – Numérama, 07/11/16

Il faut renoncer à l’extension de la collecte des données biométriques /Un collectif. – Libération, 20/11/16

Grondin, Anaelle. - Plus aucun tweet n’échappera au FBI. – Les Echos, 17/11/16

Surveillance : ce que contient la nouvelle loi sur le renseignement britannique. – Le Monde, 21/11/16

Griffin, Andrew. – Everyone can now see your entire internet history. – The Independent,  24/11/16

Investigatory Powers Act - Parliament UK, 29/11/16 :

Untersinger, Martin ; Follerou, Jacques. – Espionnage des avions, d’Israël et de l’Autorité palestinienne : nouvelles révélations de Snowden. – Le Monde, 07/12/16

Fourmeux, Thomas. - Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard). – Biblio Numericus, 08/12/16

 

 

Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

Lire, écrire … Voir ! Les technologies au service des déficients visuels

deficient-visuelSMS, mails, objets connectés, notre monde numérique multiplie les écrans où lecture et écriture sont un passage obligé à la communication. Seul le téléphone et la radio font encore exception …

Ces usages semblent exclure un grand nombre de non-voyants et de malvoyants de l’accès à la société de l’information et de la connaissance. Or, ce sont précisément ces nouvelles technologies qui vont apporter, en partie, des réponses adéquates à ce handicap.

Le Congrès « Vision innovation » qui s’est tenu à l’UNESCO le 10 février 2015 en partenariat avec l’Institut de la vision, avait pour objectif de répondre à ces défis. Comme l’affirme le Pr Sahel, Directeur de l’Institut de la vision « Nous sommes aujourd’hui dans un moment particulier où l’innovation pourrait venir au-devant des patients que ce soit pour limiter l’aggravation de la maladie ou pour vivre mieux avec un handicap visuel.

Ces innovations sont très importantes et beaucoup de technologies proviennent d’autres domaines que la médecine. Si la dimension « accessibilité » est intégrée dans la réflexion, le design et l’ergonomie d’un produit ou d’un service, il n’en sera que plus riche et universel. ».

L’accessibilité en bibliothèque et en ligne

L’accessibilité a été un des principaux objectifs des bibliothèques pour compenser le handicap. A la Bibliothèque de Sciences Po, comme dans d’autres établissements, des aménagements ont été réalisés pour les déficients visuels : salle insonorisée et équipements adaptés, clavier et imprimante braille, synthèse vocale, zoom texte, etc. La bibliothèque de l’IEP de Toulouse s’est dotée d’un téléagrandisseur  « Clearview Speech Couleur ». Équipé d’un logiciel de synthèse vocale et d’un logiciel d’agrandissement d’écran, il facilite la lecture, la création de fichiers informatiques, la numérisation des documents ainsi que la consultation sur internet. Toujours à Toulouse, mais à la médiathèque José Cabanis, une application spécifique permet l’identification par synthèse vocale de tous les documents via leur étiquette RFID. Positionné sur un document le petit lecteur DAISY (Digital Accessible Information System) énonce les principales informations : auteur, titre, résumé … En équipant ainsi tous les documents et pas seulement les collections adaptées, la Médiathèque permet une mixité entre voyants et malvoyants, lorsque ces derniers s’y rendent en famille … b_touch

Et évidemment, la bibliothèque de l’Association Valentin Haüy a créé une bibliothèque numérique de livres audio, Eole et met gratuitement à disposition de personnes handicapées plus de 6000 ouvrages sur un site internet dédié. Les ouvrages en braille numérique ou audio sont au format DAISY qui permet une navigation plus aisée. La bibliothèque bénéficie dans ce cas de l’exception « handicap » du droit d’auteur et des droits voisins qui permet la reproduction et la représentation des œuvres au profit des personnes en situation de handicap. Sur ce thème, l’ARALD (Agence Rhône-Alpes pour le livre et la documentation) organise avec la Médiathèque Valentin Haüy une Journée d’information « Bibliothèque, accessibilité et numérique » le 5 mars 2015 à Lyon.

Le copyright et l’accessibilité dans l’édition : le Traité de Marrakech (juin 2013)

Si en France et en Europe, le droit d’auteur comporte une exception de « handicap », ce n’était pas le cas dans le reste du monde et particulièrement aux Etats-Unis, où les lois sur le copyright ne permettaient pas de transformer les ouvrages numériques par la synthèse vocale ou le braille. Les associations de malvoyants ont dû mener une bataille au niveau international pour obtenir ces facilités pour les déficients visuels avec l’institution par l’Organisation mondiale de la propriété intellectuelle (OMPI) du Traité de Marrakech (27 juin 2013). Le traité reconnaît l’importance pour les personnes handicapées de disposer d’un « exemplaire en format accessible » afin « d’accéder à l’œuvre et d’y avoir accès aussi aisément et librement qu’une personne sans déficience visuelle ou autre difficulté de lecture des textes imprimés. ».

Les NBIC au service des aveugles et des déficients visuels

La journée « Vision – Innovation » a présenté toutes les solutions que les technologies actuelles permettent pour rendre la vue ou améliorer la vie aux personnes en situation de handicap.

Avec les NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives), chercheurs, ophtalmologistes, orthoptistes, laboratoires médicaux, opticiens, starts up et associations de patients tentent de répondre aux besoins des 4, 3 milliards de personnes qui ont une mauvaise vision dans le monde dont 2,5 milliards ne sont pas corrigés … Quant à la cécité, elle touche environ 5% de la population mondiale, à peu près le nombre d’habitants de l’Espagne …

Pour les plus touchés, les non-voyants, victimes de rétinopathies ou de DMLA (dégénérescence maculaire liée à l’âge), des avancées formidables sont perceptibles et font espérer une solution assez proche, comme le système de restauration de la vision IRIS, développé par la ‘jeune pousse’ Pixium Vision. Cet implant rétinien remplace les fonctions physiologiques des cellules photo-réceptricesA de l’œil en stimulant électriquement les cellules nerveuses de la rétine interne qui transmettent ensuite l’information au cerveau via le nerf optique. Ce système fonctionne avec une caméra asynchrone et un petit ordinateur de poche : il devrait permettre au patient de se déplacer de façon autonome.prothese-optique

D’autres solutions ont été présentées comme les lunettes « intelligentes » à réalité augmentée de Light Vision pour les personnes atteintes de DMLA. En détectant les parties encore fonctionnelles de la rétine, le système affiche les bonnes images au bon endroit ! La société pense distribuer une centaine lunettes en 2016. GenSight Biologics préconise, en revanche une thérapie génique pour des rétinites, la DMLA et la dégénérescence des cellules du nerf optique. L’objectif est de développer des vecteurs issus des « Adeno-Associated Virus » (AAV) pour le traitement génique de certaines dystrophies rétiniennes.

Mais il n’y a pas que ces grandes pathologies, dans les pays développés, la presbytie atteint un grand nombre de personnes. L’application « Back in Focus » permet de lire sur écran sans ses lunettes. Ce support numérique permet de tirer parti des appareils mobiles pour avoir l’image corrigée pour la vision de chacun. C’est l’écran qui s’adapte aux yeux des personnes (âgées souvent) plutôt que les lunettes correctrices … ! Ca simplifie beaucoup la vie pour lire un SMS ou regarder un plan sur son smartphone !

Dassault Systemes a développé une simulation de réalité virtuelle en 3D pour la recherche médicale pour faire ressentir aux utilisateurs et aux soignants ce que vit une personne malvoyante ou en fauteuil roulant … Des simulations semblables sont aussi disponibles sur la vision des animaux : chat, chien ou oiseau. On peut voir ce que perçoivent nos compagnons à poil ou à plumes, au ras du sol ou dans les airs… !

Mais ce qu’ont surtout développé les services ophtalmologistes, les laboratoires et les opticiens, ce sont des parcours de soins et d’accompagnement des malades ; l’aspect humain et organisationnel primant ainsi sur les aspects thérapeutiques et technologiques.

L’autre grande innovation, c’est l’émergence des réseaux sociaux spécialisés à partir d’association de patients comme Retina ou Carenity. Les patients ne sentent plus seuls avec leur handicap et peuvent compter sur des communautés comprenant des médecins, bénévoles, soignants et personnes connaissant les mêmes affections.

 

Sciences Po accessible

Vision innovation 2015
UNESCO, 10 février 2015

Taillandier, Florent. - A quand des ebooks vraiment adaptés aux déficients visuels ? – CNET France, 28/05/13

European Commission. – Marrakech Treaty : Equal Access to Books for Visually Impaired and Print Disabled. – Disabled World, 28/06/13

Organisation mondiale de la propriété intellectuelle (OMPI). – Traité de Marrakech visant à faciliter l’accès des aveugles, des déficients visuels et des personnes ayant d’autres difficultés de lecture des textes imprimés aux oeuvres publiées. – OMPI, 27/06/13

Kudzia, Kudzia. - Table ronde « Lire autrement : vers de nouveaux usages et de nouveaux services en bibliothèque. – Accessible ABF, 11/05/14

 

Travail et numérique : un nouveau paradigme ? 1 – Les avancées robotiques

NaoDes messages contradictoires parviennent pour définir l’évolution  du travail à l’ère numérique. D’une part, le numérique est considéré comme le secteur d’avenir, avec à la clé des dizaines de milliers d’emplois, comme le prévoit le Plan Big Data ; d’autre part, l’automatisation croissante de nombreux secteurs risque de détruire des millions d’emplois si l’on en croit l’étude de Roland Berger, citée par RSLN.

Mais, plus profondément, c’est la structure même du travail et de l’emploi qui est remise en question avec l’introduction des technologies de l’information dans l’entreprise. Certains s’interrogent déjà sur la survie de l’entreprise, notamment en raison de la disparition des coûts de transaction : c’est ce qui ressort dans la synthèse réalisée par l’Atelier de l’emploi du Livre blanc de l’Aspen Institute   « The future of work 2 : comment la technologie transforme le travail ».  La structure verticale, fondée sur la hiérarchie des entreprises traditionnelles va être de plus en plus remplacée par l’horizontalisation et la décentralisation des organisations.

Aujourd’hui, nous examinerons uniquement l’impact des avancées du numérique et de la robotique sur le marché du travail.

Les progrès en intelligence artificielle et en robotique

Malgré quelques annonces fracassantes depuis une trentaine d’années, l’intelligence artificielle (IA) n’avait pas vraiment effectué d’avancées significatives et la robotique était cantonnée à certains secteurs industriels et restait encore très coûteuse ….

Mais il semblerait que ces deux activités de pointe, très liées par ailleurs, aient réalisé récemment un bond qualitatif permettant désormais de les prendre en compte dans l’avenir du marché du travail !

Alors, menaces ou opportunités ? C’est ce qu’analyse le PewResearch Internet Project dans une enquête auprès de 1896 experts. A la question « Quel va être l’impact des avancées de la robotique et de l’IA à l’horizon 2025 ? », une petite moitié (48%) a une réponse pessimiste : les robots et les agents intelligents vont peu à peu remplacer un grand nombre de travailleurs, aussi bien des ouvriers et des employés que des cadres, provoquant de grandes inégalités et du désordre social. Les autres experts (52%) prévoit en revanche que ces technologies ne vont pas remplacer plus d’emplois que ceux qu’ils vont créer d’ici 2025 ! Ils font confiance à l’inventivité humaine pour créer de nouveaux emplois, de nouveaux secteurs d’activité, de nouvelles façons de gagner sa vie, comme cela s’était passé à l’aube de la Révolution industrielle …. !

Mais tous les prospectivistes ne sont pas aussi optimistes ! Dans son étude, Roland Berger prévoit que 20% des tâches seront automatisées d’ici à 2025, les robots mettant au chômage 3 Millions de personnes ! Céline Deluzarche recense dans Le Journal du Net les 25 métiers bientôt remplacés par des robots … Et là encore, cela ne concerne pas uniquement les tâches répétitives des métiers manuels, mais des professions comme pilote d’avion, gardien de prison, pompier, agriculteur ou psychologue !! C’est pourquoi Bill Gates préconise dans une interview à l ‘American Institute Entreprise de taxer plutôt le capital et la consommation que le travail salarié ….

Le numérique, pourvoyeur d’emplois ?Fotolia_6549225_S-350X220

Quant au numérique, ce secteur ne produirait pas autant d’emplois qu’il en détruit … ;-( L’étude de Roland Berger compare par exemple, le nombre de postes créés par Instagram au moment de son rachat par Facebook (13) au nombre de salariés chez Kodak à son apogée (140 000) … !  Dans leur étude (U. d’Oxford, 2013) sur l’avenir de l’emploi et l’automatisation, Carl Frey et Michael Osborne estiment que 47% des emplois américains sont menacés ! Mais ils font aussi remarquer que ce dilemme s’est déjà posé dans l’histoire du marché du travail au siècle passé et que de nouvelles activités sont venues remplacer les emplois détruits par les différentes innovations : industries après  agriculture, services plutôt qu’industries, etc.

C’est dans cette perspective, avec l’idée que la plupart des métiers de demain n’ont pas encore été inventés, que le « Plan Big Data », un des 34 plans de reconquête industrielle lancé par le gouvernement en octobre 2013, vise à positionner la France parmi les leaders mondiaux dans ce nouveau secteur. Il prévoit un marché de 9 milliards d’euros à l’horizon 2020 et 130 000 emplois dont 80 000 créations ! La Commission européenne, prévoit, au niveau de l’UE,  900 000 postes à pourvoir en 2015. Mais cela implique des formations en masse de ‘data scientists’, sans parler des juristes et autres spécialistes de manipulations et trafics de données à prévoir avec la CNIL pour protéger les données personnelles.

Ces prévisions sont cependant toujours projetées dans un marché du travail et un écosystème économique semblables à ceux que nous connaissons. Or, de nombreuses tendances indiquent qu’ils sont en pleine mutation et que les organisations du travail actuelles (entreprises verticales, salariat) sont en voie de disparition …

Dans un prochain post, nous examinerons les alternatives à ce modèle économique et aux nouvelles façons de travailler (et de vivre !) que nous prépare l’avenir ! robots-option-binaire

The Future of Work II : comment la technologie transforme le travail ? par l’Atelier de l’Emploi. – ManPower Group, 10/05/11

Frey, Carl Benedict ; Osborne, Michael A. – The Future of Employment :How jobs are susceptible of computerisation ? - Oxford University, Sept. 2013

Guillaud, Hubert. - Comment travaillerons-nous ? - InternetActu, 18/02/14

Bill Gates says robots and automation will take jobs. – Next Big Future, 28/05/14

Comment travaillerons-nous demain ?Regards sur le Numérique, 03/06/14

Biseul, Xavier. – Le Plan BigData vise à créer 80 000 emplois d’ici à 2020. – 01Net, 03/07/14

Fumard, Camille. – Les métiers du numérique meilleur vivier pour lutter contre le chômage. – Regards sur le Numérique, 29/07/14

Robotisation du travail : jusqu’où l’Homme est-il prêt à « s’augmenter » sans perdre son emploi ? – Regards sur le Numérique, 30/07/14

Smith, Aaron ; Anderson, Janna. – AI, Robotics and the Future of Jobs. – PewResearch Internet Project, 06/08/14

Les classes moyennes face à la transformation digitale. - Roland Berger, 27/10/14

Trujillo, Elsa. – Les robots pourraient détruire 3 Millions d’emplois en France d’ici 2025. – Regards sur le Numérique, 28/10/14

Barbaux, Aurélie. – Les algorithmes vont-ils remplacer les fonctionnaires ? – Usine digitale, 06/11/14

 

Lire, écrire … A l’ère numérique – 1 – La lecture aujourd’hui

270x300 lireL’environnement numérique est depuis quelque temps accusé de tous les maux, et surtout d’avoir « tué » la lecture, notamment chez les jeunes. En perturbant l’attention des lecteurs avec des liens hypertextes et des notifications diverses (mails, réseaux sociaux, SMS et même coups de fils) sur les ordinateurs et terminaux mobiles, la lecture numérique perd l’intensité de l’’attention profonde’ qui permet de s’investir pleinement dans un texte et de comprendre un document. Cette dernière se transforme alors en ‘hyperattention’ et se disperse en suivant plusieurs fils d’information. C’est ce que démontre Katherine Hayles, professeur à l’Université de Duke, citée dans le séminaire de l’IRI « Ecologie de l’attention » organisé par Bernard Stiegler et Igor Galligo en 2013-2014 au Centre Pompidou. J’avais évoqué cette controverse dans le post « Livres/écrans : quelle hybridation pour la bibliothèque du 21e siècle » : il apparaissait que le problème ne résidait pas dans l’opposition ‘papier/numérique’, puisque les liseuses à encre électronique (e-ink) permettent l’attention profonde, mais dans la dualité entre culture des écrans et culture du livre selon le psychanalyste Serge Tisseron. Dans la culture du livre le rapport au savoir est vertical (auteur/lecteur), tandis que devant les écrans, les lecteurs se trouvent devant un accès plus diversifié et horizontal.

D’autre part, comme le démontre le neuropsychologue Stanislas Dehaene dans la vidéo cerveau_lecture« cerveau et lecture » à l’Académie Royale de Belgique, la mise en place de la lecture est apparue assez tard dans l’histoire de l’humanité : au cours de l’évolution, la plasticité du cerveau a permis de ‘recycler’ une aire neuronale pour la consacrer à l’activité du décodage de signes abstraits (mots). L’imagerie cérébrale a permis d’identifier cette zone et notamment le rôle du cortex temporal gauche, la « boite à lettre » du cerveau, dans cette activité. Les neurones de cette région ne répondent pas lorsque la personne est illettrée. Si notre système cognitif a pu s’adapter à un moment de notre histoire pour produire l’activité de lecture (et d’écriture comme mémoire externe), il devrait être capable de  s’adapter aussi à l’environnement numérique.

C’est ce qu’explique Christian Jarrett dans le post de Wired  «The Internet isn’t ruining your teenager’s brain ». Malgré les prophètes de mauvais augure qui nous présentent une génération d’adolescents perturbés et distraits, internet et les usages numériques pourraient avoir une action positive sur l’esprit des jeunes en les rendant plus sociaux. Et même si une très faible minorité subit une addiction, par exemple aux jeux vidéo, la plasticité du cerveau devrait permettre d’inverser ce processus à l’âge adulte …

internet-rend-il-bete,M24827

D’ailleurs la lecture numérique a d’autres avantages recensés dans le post La lecture sur l’internet rend-elle idiot? Pas si sûr! : survoler un article pour en extraire les informations pertinentes, etc. Comme le dit l’écrivain espagnol Lorenzo Silva, cité dans un article d’Actualitté, Internet est « le grand texte du peuple qui ne lit pas ». Si les gens ne lisent plus comme avant, internet n’est rien d’autre que du texte (de moins en moins …) et il faut s’assurer de la qualité de ce grand texte !

Il existe aussi un certain nombre d’outils qui permettent de retrouver sur les écrans la tranquillité de la page imprimée. Evernote ou Readability suppriment tous les parasites (publicités, annonces diverses, renvois, etc.) qui polluent les sites web pour donner accès à une lecture ‘zen’ ou décalée ;-) Mais, sauf si on déconnecte le terminal, on n’échappera pas aux ‘distractions’ en ligne : hypertexte, notifications …

Il est vrai que la place de la lecture a beaucoup régressé dans les activités culturelles des Français, au profit bien sûr des médias audiovisuels et interactifs : télévision, vidéos, jeux vidéo, musique, etc. La lecture de vingt livres ou plus par an est passée, d’après les enquêtes sur les pratiques culturelles des Français,  de 28 personnes sur 100 en 1973 à 16 en 2008, et surtout de 41 à 16 pour les 18-24 ans ! Un enquête plus récente d’IPSOS citée dans Actualitté comparaît les données de 2014 sur le comportement des lecteurs avec celles de 2011 : si la proportion des lecteurs au format papier a légèrement diminué passant de 70% à 69%, les lecteurs au format numérique sont passé de 8 à 11% en trois ans ! La pratique de la lecture n’a donc pas disparu, mais se transforme …

Au niveau mondial, l’édition numérique serait en hausse et devrait progresser de près de 20% sur la période 2013-2018 d’après le « Global e-book market ».

La fréquentation des bibliothèques reflète d’ailleurs cette tendance : l’inscription en bibliothèque a progressé entre 1973 et 2008 : on est passé de 13 Français de 15 ans et plus sur 100 en 1973 à 18 inscrits en 2008 et surtout de 18 à 31 pour les 18 – 24 ans ! Il est intéressant de corréler ces données avec les pratiques de lecture de livres : il semblerait que les jeunes ne fréquentent pas les bibliothèques uniquement pour lire des livres ! En revanche, en ce qui concerne les bibliothèques universitaires, l’étude réalisée par l’Université de Toulouse en 2012 montre que la relation entre l’utilisation de la documentation des BU et la réussite aux examens des étudiants est bien réelle. «… le lien entre emprunts et réussite est très fort : la probabilité de valider son semestre est beaucoup plus élevée pour les étudiants empruntant beaucoup d’ouvrages que pour ceux en empruntant peu …». enhanced-ebooks

Mais revenons à la lecture numérique. Si les neurosciences cognitives n’ont pas encore tranché sur les différences entre la lecture « papier » et la lecture « écran », cette dernière n’a pas que des inconvénients : elle permet aussi un partage « social » des commentaires et annotations, mais surtout la ‘fouille de données’, en anglais le TDM (text and data mining). C’est ce que souligne Christophe Perales dans son post « Infini de la lecture : de Cassiodore au text et data mining » en comparant l’arrivée du numérique avec la mutation qu’a connu le livre au début du IIIe siècle en passant du volumen au codex. Cette mutation a complètement changé les rapports des lecteurs à l’écrit bien plus que l’invention de l’imprimerie ! « le codex va ouvrir la possibilité de constituer des tables des matières, des index, de confronter bien plus commodément, et quasi simultanément, des passages différents, à l’intérieur d’un même livre ou entre plusieurs ouvrages. […] Une innovation matérielle peut donc avoir des conséquences intellectuelles importantes. »

Le web nous a fait retrouver la possibilité de plusieurs lecteurs d’intervenir sur un même texte pour le commenter à travers des annotations qui existaient déjà au Moyen-Age ! Mais c’est la fouille de contenu qui représente la pratique la plus disruptive apportée par le numérique à la lecture. L’utilisation de ces ‘mégadonnées’ à partir des textes et des corpus grâce aux outils des humanités numérique va changer complètement le rapport au savoir pour les chercheurs. Évidemment, un problème juridique existe encore pour l’accès complètement libre à ces textes. Mais ce qui change complètement la donne dans cette innovation ce n’est plus l’ »interface neuronal » entre l’œil et le système cognitif qui décrypte ces signaux, mais un dispositif automatique, un robot qui « lit » et traite ces volumes très importants d’information. Même si en fin de compte, ce sont des humains qui donnent un sens à cette opération … ! 2013-12-01 002

Pour aller plus loin

Ferrando, Sylvie. - Compte rendu de l’ouvrage  de Stanislas Dehaene Les  neurones de la lecture, introd. de J.P Changeux. Ed. Odile Jacob, 2007. – Relais d’Information sur les sciences de la cognition (RISC)-CNRS, 2007 (pdf).

Ministère de la culture et de la communication. - Enquête sur les pratiques culturelles des Français : évolution 1973-2008. – Département des enquêtes, de la prospective et des statistiques.

Emprunt en bibliothèques universitaires et réussite aux examens de licence. – Étude lecture V 21 – Université de Toulouse, décembre 2012

Keim, Brandon. – Why the smart reading device of the future may be … Paper. – Wired, 05/01/14

Helmlinger, Julien. – Comportement et évolution de la lecture chez les Français. – Actualitté, 13/03/14

L’attention et la dynamique des écrans et images virtuelles in Ecologie de l’Attention – IRI – Centre Pompidou, 02/04/14 – Vidéo Lignes de temps

Jahjah, Marc. – Qu’est-ce que la lecture sociale ? - INAGlobal, 23/07/14

Lire à l’écran : (re)tournons à la page. – Site de François Jourde, 06/08/14

Est-ce que le livre numérique tue vraiment la lecture? – Slate, 14/08/14

Delarbre, Clémence. – La bibliothèque du futur sera-t-elle sans livres ? – Rue 89, 14/08/14

Des livres, des lecteurs, des lectures. – Le dernier blog, 26/08/14

Perales, Christophe. - Infini de la lecture : de Cassiodore au text et data mining. -BibliOpen – Blog Educpros, 04/09/14

Bonnes vacances !

break-feets-field-574-736x550

Quelques références issues de Philosophie Magazine sur le temps et l(a)es vacance(s) à méditer si vous trouvez le temps …

Eltchaninoff, Michel. – L’été en suspend. – PhiloMag. n°21, 03/07/08

Stiegler, Bernard ; Eltchaninoff, Michel. - « Dans la vacance, on cherche à retrouver la consistance dans l’existence » Entretien. – PhiloMag. n°21, 03/07/08

Rosa, Hartmut. – « Les vacances participent de l’accélération généralisé » Entretien. – PhiloMag. n°51, 30/06/11

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Staypressed theme by Themocracy