Category: Numérique

Intelligence artificielle : quels impacts sur l’économie et la société ?

IALes progrès de la recherche en intelligence artificielle en ont fait un sujet incontournable des tendances de la décennie actuelle. Annoncées depuis les années 1960, les avancées dans cette discipline complexe se sont confirmées depuis les années 2000, grâce, notamment, au ‘machine learning’ (apprentissage automatique : les machines ‘apprennent’ à partir des jeux de données qui leur sont proposés) et à son dernier développement le ‘deep learning’ qui s’appuie sur les ‘réseaux de neurones’ : des algorithmes de machine learning sont utilisés pour entraîner les couches profondes de réseaux de neurones. Plutôt que de modéliser de vastes quantités d’information (ex : calculer tous les coups possibles dans une partie d’échec), les réseaux de neurones apprennent tout seuls en digérant des millions de données (Maddyness). Combinés avec des mégadonnées (big data), ces intelligences artificielles réalisent des opérations et des actions qui dépassent en rapidité et en pertinence les actions humaines. Cela explique le succès de ces technologies cognitives au Web Summit de Lisbonne en novembre dernier où robots et véhicules autonomes ont joué les vedettes.

Les exemples des récents succès de l’automatisation et de l’IA se multiplient : les taxis autonomes, comme Lyft à Boston ; la prévention des suicides grâce à leur détection sur les messages Facebook, la prédiction (réussie) de la personne de l’année au magazine Time, la découverte de nouvelles exoplanètes dans un partenariat Google-NASA, etc. Comme le souligne Olivier Ezratty dans son post, l’intelligence artificielle n’est pas un produit. Il n’y a pas de logiciels d’intelligence artificielle mais des solutions d’intelligence artificielle très variées qui s’appuient sur plusieurs dizaines de briques logicielles différentes qui vont de la captation des sens, notamment audio et visuels, à l’interprétation des informations, au traitement du langage et à l’exploitation de grandes bases de données et de connaissances structurées ou non structurées.

Combinée avec une voix de synthèse, Chaï, une application d’intelligence artificielle permet d’écouter sur son téléphone mobile la suite d’un livre papier à l’endroit exact où l’on s’est arrêté. Cette application convient plus à un documentaire qu’à un ouvrage de fiction. Idéal pour réviser ses cours dans les transports en commun ! Les fichiers audios comportent des dictionnaires qui enrichissent le texte, en transformant par exemple les sigles et acronymes en termes développés. Et comme le confirme Alexis Botaya, qui présentait ce produit au salon HumainxMachines, aucun problème de droit d’auteur en raison d’un accord avec les éditeurs : le traitement s’effectuant à partir du fichier de l’ouvrage avant son impression et le client doit avoir acheté le livre papier.

Au Japon, l’entreprise Tasei se propose de lutter contre le surmenage de ses employés en leur envoyant des drones bourdonner autour d’eux et leur jouer « Auld Lang Syne », la chanson écossaise qui signale au Japon la fermeture des magasins … Comme l’explique Nelly Lesage dans Numérama, les Japonais peuvent effectuer plus de 80h d’heures supplémentaires par mois ! Le modèle T-Frend est doté d’une caméra qui surveille le comportement des employés et se déclenche quand ils dépassent les horaires. Pour une fois, la surveillance est utilisée pour le bien-être des travailleurs !

En Chine, la reconnaissance faciale est généralisée dans la vie quotidienne et le piéton qui traverse au feu rouge est vite repéré et sa photo affichée au carrefour ! Comme l’explique Leng Biao, professeur de vision informatique à Pékin, cité dans l’article du Monde, « L’important ce sont les algorithmes. Quand il s’agit de reconnaitre une personne dont on a la photo, la reconnaissance faciale est très fiable, on trouve même des logiciels gratuits sur internet ». Et comme en Chine les gens sont moins préoccupés des questions de vie privée, cette méthode est bien acceptée…   1486620188464

Ces performances se sont multipliées depuis une quinzaine d’années et ne manquent pas de soulever controverses et inquiétudes aussi bien parmi les scientifiques et géants du net (Stephen Hawking, Elon Musk et Bill Gates) que dans le grand public. Laurent Alexandre, le chirurgien et homme d’affaire, voudrait au contraire, « casser la gueule à l’Europe pour avancer ». Comme le souligne Pierre Cheminade dans la Tribune, pour le créateur de Doctissimo l’Europe a déjà perdu la bataille du numérique et « que pour ne pas perdre la guerre et sortir d’une situation de « colonie numérique sans souveraineté », la France doit renforcer la recherche en intelligence artificielle et supprimer la protection des données personnelles. ».

Ces préoccupations autant éthiques que réglementaires ont amené le gouvernement français à confier au mathématicien et député Cédric Villani, une mission sur ce sujet, accompagnée d’une consultation publique. Au niveau européen, Margarethe Vestager, commissaire européenne à la concurrence, est intervenue au Web Summit pour affirmer que le marché unique européen n’a pas vocation à être régi par « la loi de la jungle, mais par la démocratie à l’œuvre, pour le respect de la concurrence au service de l’innovation » .

 

Les principaux secteurs impactés   Un-groupe-de-recherche-créé-pour-encadrer-lintelligence-artificielle-des-robots

De nombreux secteurs et services sont déjà ou seront bientôt touchés par ces innovations technologiques, et ce à différents niveaux.

  • Les transports avec les véhicules autonomes
  • La santé avec des programmes de détection de maladies (cancers)
  • La relation client avec l’utilisation d’agents conversationnels et de traitement automatique de courrier électronique
  • La sécurité avec la reconnaissance faciale et les technologies de vision artificielle
  • L’urbanisme avec la ville connectée (smart city)

L’enseignement, la psychothérapie, le journalisme, la politique et même la littérature pourraient être touchés par cette vague d’automatisation. Mais pour le moment toutes les professions ‘créatives’ sont relativement épargnées.

Des informations contradictoires sur les conséquences socio-économiques et l’emploi de l’automatisation de l’industrie et des services se multiplient sans s’annuler pour autant … Nelly Lesage dans son article de Numerama évoque « un rapport du cabinet McKinsey & Cie qui estime que 800 millions de travailleurs perdront leur emploi d’ici 2030, en raison de l’automatisation ». Cette « invasion des robots » touchera surtout les pays les plus avancés, comme l’Allemagne et les Etats-Unis. Les métiers impliquant une interaction humaine, comme les médecins, les avocats, les enseignants et les barmen, devraient, quant à eux être préservés. La vidéo publiée dans le Monde « Serons-nous un jour remplacés par des intelligences artificielles » cite une étude du cabinet Roland Berger de 2014 qui prévoit que 3 millions d’emplois pourraient disparaître d’ici 2025 à cause des intelligences artificielles ! Et les métiers engendrés en retour par le secteur robotique ne compenseront pas ces disparitions. Plus préoccupant encore, ces mesures ne se limitent pas aux métiers simples et répétitifs … Dans son article de l’Usine digitale, Christophe Bys, en revanche, cite une étude internationale de Cap Gemini selon laquelle « les entreprises qui ont recours à l’intelligence artificielle n’ont majoritairement pas détruit d’emplois. Elles en ont même créé. ». Toutefois cette étude qui relativise l’impact de l’IA porte sur un périmètre restreint d’entreprises (dont le chiffre d’affaire est supérieur à 500 millions de dollars). Les pays européens (France, Espagne, Pays-Bas) ont déployé moins d’initiatives IA que l’Inde ou l’Australie …

C’est aussi le point de vue de Bertrand Diard, président de Tech in France, dans son interview dans la Croix « La robotisation dans l’industrie n’a pas réduit le volume d’emplois. Ce qui l’a fait, ce sont les délocalisations vers la Chine. L’Allemagne, qui est très robotisée, a créé de la richesse et de l’emploi industriel, alors que la France, dans le même temps, en a perdu. » De nouveaux métiers devraient émerger autour de ces nouvelles technologies et il faut développer la formation des travailleurs qui pourraient ainsi s’adonner à des tâches plus intéressantes. Alain Guillemolles a interviewé dans le même article Romain Guers, délégué syndical au Crédit Mutuel. Cette banque a adopté Watson, l’agent intelligent d’IBM (ce chatbot est aussi en fonction chez Orange et Bouygue Telecom) pour l’assister dans le traitement des données de la relation clients : « il n’est pas question de remplacer les conseillers bancaires par des robots. […] l’outil ‘intelligent’ aide les chargés de clientèle à trier le courrier en fonction des priorités exprimées par les clients. De plus, ils ont accès à un « assistant » qui peut répondre à certaines demandes d’information en épargne et assurance. Mais le conseiller commercial reste le pivot de la relation avec le client. ». Là aussi, la mise en place de l’outil IA n’a pas eu d’impact sur l’emploi. Pour le moment, car les outils intelligents apprennent très vite …

On retrouve ici les deux conceptions de l’IA : d’une part, l’IA comme assistant de l’humain qui permet de réaliser l’’homme augmenté’, doté de sortes de prothèses technologiques ; d’autre part, l’IA autonome qui arriverait à une sorte de ‘conscience’ !

cover-MIT-600x399Dans la recherche médicale, en revanche, l’outil intelligent n’est pas encore vraiment fiable. Watson devait permettre aux soignants « de passer moins de temps sur la littérature et plus de temps pour prendre soin des patients ». Comme le souligne Jean-Yves Paillé dans la Tribune, « L’IA destinée à trouver des solutions afin de personnaliser les traitements en cancérologie est pour le moment décevante, en particulier dans les diagnostics ». Le système souffre d’un certain nombre de biais : d’abord dans les publications scientifiques : sur 700 000 articles publiés par an en médecine, de nombreuses publications n’ont pas de valeur. « La machine n’est pas capable aujourd’hui de faire la différence entre ce qui ne vaut rien et un article intéressant » comme l’analyse Guy Vallencien dans

« La médecine sans médecin » cité dans l’article. De plus près de 2% des scientifiques admettent « avoir fabriqué, falsifié ou modifié des données ou des résultats au moins une fois. » « jusqu’à 33,7% ont avoué d’autres pratiques de recherche douteuses » d’après l’étude de Plos One.  Mais aussi l’intelligence artificielle s’appuie sur des données médicales spécifiques aux protocoles de soins des Etats-Unis et aurait du mal à s’adapter aux méthodes de différents pays où les protocoles peuvent différer … « L’IA ne peut pas être plus neutre et performantes que les données dont elle dispose ».

Ethique et réglementation

L’éthique fait partie des principaux axes définis par la mission Villani et concerne de nombreux aspects du déploiement de ces technologies. Aux États-Unis, les géants du numérique, Google, Apple, Facebook, Amazon, Microsoft, IBM ainsi que de nombreux chercheurs s’engagent pour développer une intelligence artificielle responsable et éthique. Le Partnership on AI to benefit people and society (Partenariat sur l’IA au service des citoyens et de la société), organisation à but non lucratif, a pour objectif la compréhension du public sur l’IA et la définition de meilleures pratiques dans ce domaine.

Au Québec, le préambule de la Déclaration de Montréal a été dévoilé en clôture du Forum sur le développement socialement responsable de l’intelligence artificielle le 3 novembre. Portant sur les thèmes de la cybersécurité, la responsabilité légale, la psychologie morale, le marché du travail, le système de santé et la ville intelligente, le Forum a comme ambition la ‘coconstruction’ entre le public, les experts et les pouvoirs publics. Comme l’a déclaré Guy Breton, recteur de l’UdM « Les avancées de l’intelligence artificielle toucheront progressivement tous les secteurs de la société et nous devons poser, dès maintenant, les balises qui encadreront son développement afin qu’il soit conforme à nos valeurs et porteur d’un véritable progrès social.» Les-rendez-vous-du-numérique-et-du-développement-commercial

En France, la CNIL dans son rapport des enjeux éthiques des algorithmes et de l’intelligence artificielle, présenté le 15 décembre, réaffirme deux principes fondateurs et préconise six recommandations opérationnelles pour permette à l’Homme de garder la main. Tout d’abord, le principe de loyauté : l’intérêt de l’utilisateur doit primer ; un principe de vigilance/réflexivité ensuite en organisant « un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants ». Ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique.

Parmi les recommandations : former à l’éthique tous les acteurs-maillons de la ‘chaîne algorithmique’ ; rendre les systèmes algorithmiques compréhensibles ; encourager la recherche sur l’IA éthique ; renforcer la fonction éthique au sein des entreprises. Comme le dit Isabelle Falque-Pierrotin, Présidente de la CNIL « L’objectif de ce débat est de garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle ».

Alexandra Yeh évoque dans son compte-rendu de la Conférence Nouvelles pratiques du journalisme de l’Ecole de Journalisme de Sciences Po, la proposition de Dominique Cardon pour une ‘éducation des algorithmes’. Comme on s’en est rendu compte dans les années 1980, les tentatives de programmer les machines à raisonner comme des humains avec des règles et des systèmes de décisions logiques sont vouées à l’échec. L’humain n’est pas un être pleinement rationnel et ses décisions dépendent souvent de facteurs imprévisibles (contextes, affects, sensibilité). Il faut donc « apprendre aux machines à analyser nos comportements plutôt que nos représentations ». Pour Dominique Cardon « nous devons réfléchir à la façon dont voulons éduquer les algorithmes ». Car nous sommes responsables des biais de l’IA (cf le cas des IA racistes).

Avec l’automatisation, les dilemmes moraux vont se multiplier : en plus de gérer les actions accidentelles ou intentionnelles de leurs inventions, les chercheurs en AI devront faire face à de tels dilemmes. Par exemple, face à une situation de danger, l’IA de la voiture autonome devra décider qui épargner en cas d’accident : une femme enceinte ou un homme âgé ; renverser un enfant ou deux adultes ? En fait, décider lesquels d’entre nous devront vivre ou mourir …  Jean-François Bonnefons, professeur à la Toulouse School of Economics, explore ces dilemmes avec le projet Moral Machine qui « confronte les internautes à ce genre de situations pour leur demander de trancher, a déjà recueilli 40 millions de décisions ». Ce programme permet d’identifier les critères pesant dans la décision, les variations selon le type de personne (genre, âge, CSP, nationalité) et les différences culturelles et géographiques. Si les choix moraux sont relativement homogènes (sauver les humains plutôt que les animaux ), les résultats montrent qu’il n’existe pas de règle d’éthique totalement universelle, même si des convergences locales existent dans le monde …

A l’instar des avancées de l’intelligence artificielle, les préoccupations éthiques et politiques à ce sujet sont un « work in progress ». Nous aurons l’occasion d’y revenir à l’avenir.

data-672x372Bonnes fêtes et meilleurs vœux pour 2018

Pour aller plus loin

L’intelligence artificielle, quelles conséquences pour l’emploi. – Les Numériques – Dossier, 17/12/17

Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. – CNIL, 15 décembre, 2017

Cheminade, Pierre. – Laurent Alexandre : « La France a perdu sa souveraineté numérique ». – La Tribune, 13/12/17

Georges, Benoît. – Ce que les Français attendent de l’intelligence artificielle. Les Échos, 12/12/17

Paillé, Jean-Yves. – Dans la santé, Watson, l’IA d’IBM, doit encore faire ses preuves.La Tribune, 08/12/17

Simonite, Tom. – Artificial Intelligence seeks an Ethical Conscience. – Wired, 12/07/17

Lausson, Julien. – Intelligence artificielle : la Mission Villani vous demande votre avis. – Numérama, 07/12/17

Tisseron, Serge. - IA, robots qui parlent et robots sous influence.InaGlobal, 06/12/17

Yeh, Alexandra. – IA et journalisme : quelle éthique ?Meta-media, 05/12/17

#NPDJ Les nouvelles pratiques du journalisme 2017. – École de journalisme de Sciences Po, 04/12/17

Lesage, Nelly. – Un rapport estime que les robots vont prendre 800 millions d’emplois d’ici 2030. – Numérama, 30/11/12

2067, des robots dans la ville/Usbek & Rica. – Inriality, 28/11/17

Kiefer, Bertrand ; Navaris, Sophie. – « La médecine, le dernier lieu où l’on peut exprimer sa sensibilité » Entretien. – Tribune de Genève, 25/11/17

Maignan, Iris. – #Étude : les Français, pas (du tout) prêts pour l’intelligence artificielle. – Maddyness, 25/11/17

Web Summit 2017 à Lisbonne : que retenir du Davos de la Tech ? - FrenchWeb, 16/11/17

Guillemoles, Alain. - Watson mène la révolution de l’intelligence artificielle. – La Croix, 13/11/17

Deluzarche, Céline. – #IA : Deep learning, le grand trou de l’intelligence artificielle. – Maddyness, 13/11/17

Quel sera l’impact de l’intelligence artificielle sur l’emploi. – La Croix, 13/11/17

Piquard, Alexandre. – L’intelligence artificielle, star inquiétante du Web Summit à Lisbonne. – Le Monde, 10/11/17

Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. – Université de Montréal, 03/11/17

Gavois, Sébastien. – Intelligence artificielle : enjeux économiques et cadres légaux s’invitent au Sénat. – NextInpact, 26/10/17

Ezratty, Olivier. – Les usages de l’intelligence artificielle. – Opinions libres, 19/10/17. – E-book téléchargeable.

Intelligence artificielle, une nouvelle mission confiée à France Stratégie. – France Stratégie – Premier Ministre,16/10/17

Yann Le Cun ; « Aujourd’hui, Facebook est entièrement construit autour de l’intelligence artificielle » Entretien. – Le Monde, 03/10/17 – vidéo.

Evolution des bibliothèques : où en est-on ?

4175783446_7e32581cf5_bLa fin des bibliothèques, souvent annoncée (presque autant que la fin du travail !), ne semble pas  encore réalisée. Au contraire, la dernière Enquête sur les publics et les usages des bibliothèques municipales du Ministère de la culture indique une augmentation de la fréquentation des bibliothèques publiques (40% des Français de plus de 15 ans contre 35% en 2005). Si toutes les bibliothèques ne sont pas devenues des ‘learning centres’ ou des ‘leisure centres’ comme dans d’autres pays, un certain nombre de mutations sont à l’œuvre, aussi bien dans les bibliothèques universitaires et de recherche que dans les BM et les médiathèques grand public.

Ces évolutions concernent autant l’offre d’activités des bibliothèques que les transformations plus profondes des métiers et des pratiques de l’information-documentation.

L’innovation est le maître-mot, comme le rappelle Clémence Jost dans Archimag en évoquant le thème central du Congrès de l’ABF en 2016 « L’innovation en bibliothèques ». Pour repenser la bibliothèque, Christine Tharel-Douspis, cite dans le BBF la « Bibliothèque en [r]évolution », thème de la Journée Régionale de la Commission lecture publique de Mobilis organisée en partenariat avec l’ENSSIB. Au programme, réseaux sociaux, usages différents et mouvants, BiblioRemix, co-construction, design thinking, expérience utilisateur, etc.

Diversification et offre de pratiques innovantes

Un certain nombre de bibliothèques ont introduit de nouveaux outils ou de nouvelles pratiques à destination des publics. Outre les incontournables ‘fablabs’, on trouve aussi :

  • Un kiosque qui distribue de courtes nouvelles rédigées par les étudiants à la Penn State University Library
  • Des « feuilletoirs» numériques (écrans tactiles insérés dans les rayonnages donnant accès aux 132 000 documents des collections en magasins) à la Bibliothèque Alexis de Toqueville à Caen
  • Des animations de réalité virtuelle avec casques à la Médiathèque Federico Fellini de Montpellier et à la bibliothèque de la Manufacture de Nancy FabLab
  • « Les Yeux docs », plateforme de vidéos documentaires à la BPI
  • Labo2 : laboratoire des usages numériques à la BM de Nantes : écriture, jeux vidéo, créations numériques, outils cartographiques
  • Une « grainothèque» à la BM Aimé Césaire de Villeneuve-La-Garenne : chacun peut apporter son sachet de graines dans un espace dédié où d’autres « semeurs » peuvent se servir gratuitement.
  • Un concours de « Bibtubeurs» à la BM de Bègles où de jeunes lecteurs réalisent des « Booktubes » : petite vidéo résumant un livre que l’on veut partager avec d’autres lecteurs. Donner en 5 minutes envie de lire le livre et apprendre à maîtriser les bases techniques de la réalisation vidéo.
  • La plateforme de photos Instagram d’étudiants sur des livres ou des activités de la bibliothèque. Comme La New York Public Library des d’autres BU américaines, la bibliothèque de la « London School of Economics” lance sa plateforme Instagram pour sa « Review of Books ».

Comme le souligne l’enquête sur les bibliothèques municipales « l’usage des équipements [de lecture publique] évolue également : autrefois axé sur l’emprunt et le livre, il s’est fortement diversifié, en lien avec la richesse des services proposés par les bibliothécaires, sur place, en ligne et hors les murs ».

Les transformations en profondeur des métiers de l’information et de la 6232096-9311528documentation

L’impact du numérique et de la communication n’est pas récent dans ces métiers et remonte bien à plus d’une trentaine d’années, mais les mutations se font surtout sentir depuis une dizaine d’années. Elles se traduisent par un certain nombre de transformations dans la vie professionnelle du domaine.

  • Mise à jour de la terminologie en sciences et techniques de l’information (Archives 21)
  • Le rôle des bib-docs dans la lutte contre la désinformation et les Fake news. L’importance de la formation à l’’information literacy’ dans la construction des savoirs.
  • La contribution à l’encyclopédie Wikipédia, aussi bien en tant que professionnel avec l’évènement 1Bib1Ref (Un bibliothécaire, une référence), qu’en tant que médiateur pour faire connaître cette entreprise « Creative common » aux lecteurs. Comme le souligne Sylvain Machefert, auteur de ce chapitre, « Wikipédia peut aussi être le point de départ à une sensibilisation du public aux questions en lien avec le droit d’auteur », en raison de sa licence libre.
  • Le rôle croissant de la communication interne au sein de l’institution, notamment à travers les outils collaboratifs et les réseaux sociaux d’entreprises, comme Slack ou Teams.
  • Le rôle des bibliothèques de recherche dans le développement des Humanités numériques. Le rapport des Research Libraries UK souligne le rôle que pourraient avoir ces bibliothèques dans la création, l’archivage, la curation et la préservation d’outils pour la recherche en Humanités numériques. Le RLUK veut comprendre le rôle joué par ces bibliothèques dans la représentation numérique pour identifier les zones spécifiques à valoriser et aussi pour faciliter le partage des bonnes pratiques. 497671-rea-197588-011-580x310
  • Les nouvelles appellations des métiers de la documentation. Comme le relève E. Barthe dans son blog, cité par H. Girard dans la Gazette des Communes, le mot documentaliste, tel que le définit le code du Répertoire opérationnel des métiers et des emplois (ROME), ne correspond plus à la réalité du métier. Depuis le début des années 2000, on a vu émerger des knowledge managers, des gestionnaires de bases de données et de ressources numériques, des community managers et autres webmasters … Ces nouveaux métiers qui portent aussi sur la gestion des documents et de l’information n’apparaissent pas dans le code ROME 1601. Or, on trouve de nombreux emplois et postes pour ces dénominations … Cette évolution des métiers a été cartographiée par l’ADBS en 2013. Mais comme le remarque Archimag dans son 2e Baromètre sur l’emploi et le compétences (2016), d’autres compétences complémentaires sont nécessaires, comme le numérique ou la communication.
  • L’importance de la présence des bibliothèques sur les réseaux sociaux. Les bibliothèques se sont majoritairement investies dans les deux principaux réseaux sociaux Facebook et Twitter où se retrouvent la plupart des utilisateurs. Mais comme on l’a vu plus haut, certaines bibliothèques choisissent de participer à des activités plus ciblées sur certains réseaux, comme Instagram ou YouTube pour développer l’aspect prescripteur des lecteurs. Sur les réseaux sociaux dédiés aux livres qui remontent aux années 1990, on est passé des pionniers (Zazieweb), aux start-ups et à la professionnalisation (Babélio) pour atteindre une certaine concentration avec la pérennisation de certains sites (Sens critique) et une polarisation de la prescription avec la quasi disparition de la ‘longue traîne’. Comme le souligne Louis Wiart, dont l’étude est citée par Christine Tharel-Douspis dans son article du BBF, les réseaux sociaux ont un effet de caisse de résonnance : les best-sellers et les livres les plus cités concentrent le plus de visibilité, tandis que les catégories intermédiaires sont moins représentées … « Les réseaux sociaux ne bouleversent pas les champs des pratiques, mais fortifient le lien entre professionnels et usagers ».
  • Le « BiblioRemix » et le « nouveau paradigme de la participation ». Cette démarche veut accompagner l’évolution des bibliothèques vers le ‘3e lieu’ et rompre avec l’image stéréotypée de ces établissements. Elle implique la participation du public dans une démarche de décision et de gouvernance plus citoyenne. Il s’agit de repenser la bibliothèque avec les usagers, de co-concevoir les politiques publiques. Avec BiblioRemix, on passe du service public aux services aux publics. De nombreux exemples de projets sont cités dans l’article du BBF, dont les 4C aux Champs libres à Rennes (Création, collaboration, connaissance et citoyenneté).

Ces différentes tendances dessinent une nouvelle configuration des bibliothèques, où professionnels et usagers se retrouvent dans des pratiques où l’information passe par différents canaux comme la communication interne et extérieure, la formation, la participation, ou des outils comme les humanités numériques, la curation et l’échange aussi bien « in real life » que sur les réseaux sociaux.

communs

Mollett, Amy ; Mc Donnell, Anthony. – Five ways libraries are using Instagram to share collections and draw public interest. – Impact of Social Sciences, 16/04/14

Enquête sur les publics et les usages des bibliothèques municipales en 2016. – Ministère de la Culture et de la Communication – Livre et lecture, 16/06/16

Barclay, Donald A. – The challenge facing libraries in an era of fake news. – The Conversation, 05/01/17

Jost, Clémence. - Innovation : les bibliothèques, laboratoires de réinvention. – Archimag, 02/05/17

Machefert, Sylvain. – “Wikipédia et bibliothèques : agir en commun” dans Communs du savoir et bibliothèques/Lionel Dujol. – Paris, Cercle de la Librarie, 2017. Via Hal-archives ouvertes, 31/05/17

Tharel-Douspis, Christine. « Bibliothèque en (r)évolution ». – Bulletin des bibliothèques de France  n° 11. – 23/06/17

Kamposiori, Christina. – The role of Research Libraries in the creation, archiving, curation, and preservation of tools for the Digital Humanities. RLUK Report. – Research Library UK, cop. July 2017. Pdf.

La communication interne en bibliothèque : expérimentation de Teams, le Slack de Microsoft. – Hortensi-us, 15/07/17

Girard, Hélène. – Documentaliste : le poids du mot face aux mutations des fonctions.La Gazette des communes, 03/08/17

Enis, Matt/ – Penn State Libraries launch short stories dispensers. – Library Journal, 04/08/17

Ducharme, Daniel. – Un projet de mise à jour de la terminologie de base en sciences de l’information. – Archives 21, 15/08/17

L’inventivité en bibliothèque : les bibtubeurs, le concours de Booktube. – Actualitté, 29/08/17

Dillaerts, Hans.- Créer, gérer et animer un dispositif de Fab Lab au sein d’une bibliothèque publique : entretien avec Julien Amghar, créateur de l’espace Kénéré le Lab. – DLIS.Hypothèses.org, 06/09/17

 

 

Présidentielle 2017 : quel bilan pour les civic-tech ?

1249b0949cb30954e2effc2017a51af1_originalCette élection présidentielle se présentait comme l’occasion d’expérimenter des technologies qui permettraient d’avoir une approche plus participative et plus pertinente que les campagnes précédentes. Les sondages traditionnels, qui ont montré leurs limites lors des derniers scrutins au Royaume Uni et aux Etats-Unis, seraient remplacés par l’analyses des mégadonnées et l’intelligence artificielle permettant de prédire les résultats au plus près du vécu de l’électeur. Et surtout, par l’utilisation massive de diverses plateformes de participation citoyenne et des réseaux sociaux.

Que ce soit avec  la plateforme citoyenne de la Primaire.org (qui permet aux citoyens de choisir leurs candidat(e)s et de co-construire les projets politiques), les comparateurs en ligne de programmes électoraux, les chatbots pour discuter sur les messageries instantanées ou les applications de réalité virtuelle, la campagne électorale a expérimenté un certain nombre de ces nouveaux outils ou services, les civic-tech.

Définition(s)

La newsletter Civictechno propose plusieurs définitions de ces dispositifs « à la croisée de l’innovation, d’un gouvernement ouvert et de l’engagement du citoyen » (Rapport de la Knight Foundation, 2013). On y retrouve le désir « de rapprocher les citoyens des collectivités et des Etats », de « rendre les gouvernements plus accessibles et plus efficaces » et de permettre « à des individus ou à des groupes d’influer sur la scène publique ».

Comme le rappelle Dominique Cardon dans son intervention  « Démocratie et internet » (Nouvelles citoyennetés), « Peu d’innovations technologiques ont autant été investies de promesses politiques que ne l’a été internet. ». La contre-culture qui a entouré les pionniers de l’internet a influencé cette articulation entre technologie et politique. L’infrastructure réticulaire et la décentralisation (le réseau distribué, idiot au centre, intelligent à la périphérie) remettent en cause la démocratie représentative. L’utopie libertaire des pionniers inspire les premières communautés virtuelles : l’’empowerment’ et les communautés électives devraient permettre de « changer la société sans prendre le pouvoir ».

Néanmoins, la démocratie représentative s’est aussi emparée de ces outils, notamment lors des campagnes électorales, comme par exemple lors de la campagne d’Obama en 2008 avec des réseaux de mobilisation de bénévoles et des financements de la campagne par micro-dons (badges de fierté).

La participation citoyenne civic-tech

Ségolène Royale avait initié cette idée en 2007 avec son site « Désirs d’avenir », devenue depuis desirs-davenir.eu, laboratoire d’idées, citoyen et participatif, qui fonctionne avec la page Facebook de la Ministre de l’environnement. L’objectif était de recueillir des idées, des expertises et des témoignages venant de la base pour élaborer un programme sans passer par le parti. Le résultat fut mitigé malgré la considérable production militante, comme le souligne Patrice Flichy  Internet et le débat démocratique, (2008).

On retroette participation militante dans l’élaboration de la Loi numérique, où 21 330 citoyens ont co-écrit le projet de loi, comme l’indique le document du Ministère de l’économie présenté par Axelle Lemaire.

Outre l’expérience de la Primaire.org qui a réussi à désigner une candidate à la présidentielle (Charlotte Marchandise n’a finalement obtenu que 135 parrainages sur les 500 nécessaires pour se présenter à l’élection), de nombreuses initiatives se sont multipliées pour inventer de nouvelles formes d’engagement citoyen.  D’autres mouvements ont mis en œuvre des plateformes participatives à commencer par des candidats (Benoît Hamon, Jean-Luc Mélenchon). On les retrouve dans l’article du Monde : « Les civic-tech ou le B-A BA de la démocratie ».

MaVoix, vise les législatives et a pour objectif de « hacker l’Assemblée Nationale en faisant élire des citoyens volontaires, formés et tirés au sort qui voteront pendant 5 ans sur toutes les lois comme leurs électeurs le décideront. ». Quant à la ‘boite à outils’ citoyenne voxe.org, elle ne se contente pas de comparer simplement les programmes des candidats ; cette application permet aussi de s’informer sur la campagne, d’interpeler les candidats et aussi de se rencontrer IRL (dans la vraie vie) pour débattre d’un sujet, par exemple sur la valeur travail dans un café de Strasbourg. La Fabrique de la Loi (Medialab + CEE Sciences Po) permet d’explorer l’évolution des textes de loi au fil de la procédure.

index

Les plateformes des candidats

Le mouvement de Jean-Luc Mélenchon la France Insoumise est celui qui se présente comme le plus équipé au niveau numérique. Il dispose de deux outils pour interagir avec ses militants : la plateforme La France insoumise (plus de 500 000 participants) et la messagerie instantanée très sécurisée Discord Les Insoumis qui permet des conférences en ligne dans différents ‘salons’ pour discuter du programme. Enfin le portail Insoumis.online rassemble tous les outils et les réseaux sociaux où interviennent JLM et les insoumis : les sites internet proches de la FI ; les chaînes YouTube de JLM et d’autres militants et médias ; les comptes twitter des diverses militants et communautés FI ; les comptes Facebook, complétés par des jeux vidéo engagés et d’autres ressources (bande dessinée, banque d’images, outils de simulation et … concours de photos de chats et de chiens sur twitter !). Et évidemment l’’hologramme’ (en fait une projection vidéo) de Mélenchon qui lui a permis de tenir jusqu’à 6 meetings simultanément … !

Le candidat Benoît Hamon propose aussi des outils de participation : le Conseil citoyen où on peut participer au programme sur 10 thèmes (éducation, travail, santé, environnement, discriminations) et la plateforme Expression « ouverte à toutes les initiatives de la société civile, elle est alimentée par des textes, des vidéos, des photos, des films d’animation et des infographies pour éclairer les expérimentations et projets qui construisent aujourd’hui le monde de demain. ».

La plateforme Marine2017 est beaucoup plus classique : à part un compte à rebours pour le jour de l’élection, elle ne propose que des soutiens pour la candidate, sur la plateforme et sur les réseaux sociaux twitter et Facebook, accompagné par un lien vers le site : actualités, programme, blog de Marine Le Pen, vidéos, photos, boutique et formulaire de procuration en ligne ! Mais la plupart des militants proches du FN se retrouvent sur des fils de forums comme la ‘Taverne des patriotes’ ou  4chan liés à l’’altright’ américain sans oublier, bien sûr les médias russes.

Sur le site d’En Marche !, seul un fil d’actualités avec un moteur de recherche présente une revue de presse sur la campagne et les dernières déclaration d’Emmanuel Macron. En fait l’équipe informatique du candidat, dirigée par Mounir Mahjoubi, ex-directeur du Conseil national du numérique, est surtout occupée de contenir les piratages de ses serveurs et de faire la chasse aux ’fake news’ comme on l’a vu à la fin de la campagne avec l’affaire du compte aux Bahamas et les MacronLeaks où une somme de documents du mouvement En Marche ! a été publiée sur le forum  4Chan puis relayée sur les réseaux sociaux …

digital surveillanceL’effet bulle

Mais il existe aussi un côté obscur de ces instruments … Le dessinateur Joann Sfar en a fait récemment la cruelle expérience. S’apprêtant à voter Mélenchon, l’auteur du « Chat du rabbin » a été choqué par les prises de position du leader de la France Insoumise en matière de relations internationales (adhésion à l’Alliance bolivarienne, approbation du soutien de la Russie à Bachar El Assad en Syrie). Il a donc posté quelques dessins critiques sur les réseaux sociaux … Mal lui en a pris, les militants FI ont commencé à le harceler sur les réseaux sociaux « J’ai vu débarquer sur Facebook, Instagram et Twitter des centaines de pseudos dont je n’avais jamais entendu parler et qui venaient me « désintoxiquer ». J. Sfar explique ensuite la méthode des Insoumis : la création de centaines  de faux comptes twitter et de l’utilisation de la plateforme Discord pour planifier les attaques de ‘désintoxication’.

Ces réactions résultent aussi des ‘bulles de filtres’ (filter bubble) qui fonctionnent sur les réseaux sociaux. Ces algorithmes vous montrent surtout les pages des personnes avec qui on a le plus d’interaction. On reste dans sa bulle et on ne connaît pas les positions des autres groupes (ex : conservateurs contre libéraux). D’où les réactions en chaîne quand un autre sonde cloche résonne dans la bulle … C’est cet aspect psychologique qui a été exploité par la firme Cambrige Analytica, une société de communication stratégique utilisant l’analyse de données et le ‘sentiment analysis’ qui a influencé aussi bien le referendum britannique que l’élection de Trump aux États-Unis comme l’explique Carole Cadwalladr dans son article du Observer.

L’analyse Big data pour remplacer les sondages ?

Les sondages ont été incapables de prédire deux scrutins très importants en 2016. Jusqu’au dernier moment, les instituts de sondage soutenaient la victoire du « Remain » au référendum britannique sur le maintien dans l’Union européenne de même que Hillary Clinton était donnée victorieuse à l’élection présidentielle américaine.

Pour remédier à cette carence des outils traditionnels, un groupe d’étudiants du master spécialisé Big data de Télécom Paris Tech ont lancé le projet « Predict the President » qui avait pour objectif de « prédire le résultat du premier tour en mixant de nombreuses données (sondages, occurrences sur twitter et Google, cartes électorales, etc.) ». Le 18 avril, Le Point publiait leur prédiction (valable au 15 avril) : un duel Fillon-Le Pen ! Dix jours plus tard, les étudiants reviennent dans le Point sur leur prédiction. Même s’ils ont pu produire une deuxième estimation plus pertinente le 21 avril, ils tiennent à tirer les leçons de cette première estimation. Leur principale erreur a été de constituer des ‘blocs’ politiques. En intégrant « des données sociodémographiques sur plusieurs années … afin d’estimer les réservoirs de voix des grandes familles politiques ». Ils ont ensuite « ajusté les scores des données issues d’internet et les intentions de vote des instituts de sondage. […] Les données du web incluaient les recherches sur Google et le sentiment exprimé dans les tweets. ». Les étudiants reconnaissent que « l’estimation des grands blocs politiques souffrent du fait que les couleurs politiques des candidats sont difficiles à classer ». Emmanuel Macron classé au centre gauche (sans prendre en compte les voix captées au PS et à LR ?) et le score de Marine Le Pen reposant presque uniquement sur l’historique de cette « dynastie » de candidats …

Le projet a aussi souffert d’un biais avec la ‘sentiment analysis’ sur Twitter. Les tweets anti-Fillon étaient très nombreux et ont, en réaction généré beaucoup de tweets positifs, ce qui a surévalué les points positifs pour le candidat … La prise en compte du contexte semble très importante dans l’analyse très délicate de l’opinion sur les réseaux sociaux. Comme le souligne Eric Scherer (France Télévision), interrogé dans Télérama ces nouvelles méthodes d’estimation d’opinion n’ont pas vocation à remplacer les sondages, mais à agir en complément. « Le big data n’a pas su répondre à ces questions lors de l’élection, mais il ne faut pas l’enterrer pour autant car il est l’avenir des sondages. »… blogimage_KnightFoundCivicTech

Désintermédiation versus médias traditionnels

En dehors de cette initiative, cette campagne électorale a connu peu d’innovations technologiques. C’est ce que confirme Xavier de La Porte (France Culture), dans le même article de Télérama,  «Les deux grandes tendances de cette campagne sur Internet étaient déjà apparentes, il s’agit de l’intensification du fact-checking (vérification méthodiques des faits et des affirmations) et l’usage massif des réseaux sociaux quasiment en direct. ». Cela confirme la tendance à la désintermédiation, les mouvements politiques produisant eux-mêmes leurs propres produits d’information comme les chaînes YouTube de la France Insoumise au détriment des médias de même que les débats télévisés se doublent de discussions en direct sur les réseaux sociaux.

Si les civic-techs n’ont pas tenus les promesses que l’on espérait, « le numérique chamboule tous les espaces confrontés de près ou de loin à la question démocratique : les villes bien sûr, mais aussi les entreprises et organisations sous toutes leurs formes » comme le souligne Dominique Cardon. De plus, cette élection présidentielle comportait un facteur souvent oublié des analyses électorale, les émotions. Comme le souligne Martial Foucault du Cevipof, dans un article du Monde « La raison ne peut suffire. L’électeur, en tant que citoyen sentimental, est traversé par un ensemble d’émotions, allant des expériences, des souvenirs positifs ou négatifs aux réactions plus immédiates face à un événement. ». Malgré des avancées indéniables, le numérique n’est pas encore en mesure de prendre pleinement en compte ce facteur. 20inscritsCivicTheque-300x251

Flichy, Patrice. - Internet et le débat démocratique. – Réseaux vol.150:n°4, 2008/04 – via Cairn-info

Flichy, Patrice ; Bougnoux, Daniel ; Cardon, Dominique. - Internet, nouvel espace démocratique ? – Table-ronde animée par Caroline Broué. – La vie des Idées – Réinventer la démocratie – Granoble, 09/05/09

Cardon, Dominique ; Williamson, Audrey. – Internet, nouvel espace démocratique ? Entretien. – La vie des idées, 07/07/09

Cardon, Dominique. – La démocratie Internet : promesses et limites. – La République des idées, 2010

The Emergence of Civic Tech: Investments in a growing field. – Knight Foundation, December 2013

Projet de loi pour une République numérique : 21330 citoyens ont co-écrit le projet de loi/Axelle
Lemaire (ed.). – Ministère de l’économie, de l’industrie et du numérique ; Secrétariat d’Etat au numérique, 2016. (pdf).

Gombert, François. – C’est quoi la Civic Tech ? – Civictechno, 16/01/16

La Fabrique de la loi : les parlementaires font-ils la loi ?

La Primaire.org

Mavoix : nous sommes celles et ceux que nous attendions

Voxe.org : vous allez adorer les élections

Volontat, Adrien de. – La civic-tech invente la démocratie 2.0.- La Croix, 26/06/16

Cardon, Dominique ; Taboy, Thierry. – Démocratie et Internet. – Forum Nouvelles démocraties – Digital Society Orange, 15/11/16

Joann Sfar :  « Les méthodes des partisans de Mélenchon sont dégueulasses ». – Le Monde, 20/04/17

Schott, François. – Les « civic tech » ou le b-a ba de la démocratie 2.0.Le Monde, 26/04/17

Jeanticou, Romain. – Présidentielle et médias : La grande baudruche de l’innovation. – Télérama, 28/04/17

« Predict the President » : retour sur une prédiction. – Le Point, 29/04/17

Tual, Morgane ; Untersinger, Martin. - Macron et l’évasion fiscale : itinéraire d’une rumeur de 4Chan aux plateaux télé. – Le Monde, 04/05/17

Foucault, Martial ; Marcus, George E. ; Valentino, Nicholas ; Vasilopoulos, Pavlos. – Election présidentielle : « Nos émotions façonnent nos réaction à l’environnement ». – Le Monde, 06/05/17

Delmas, Aurélie. – « Macronleaks » : tentative de déstabilisation de dernière minute. – Libération, 06/05/17

Cadwalladr, Carol. – The great British Brexit robbery: how our democracy was hijacked. – The Guardian, 07/05/17

Fake news, désinformation, post-vérité : quel rôle pour les professionnels de l’information ?

truth-lies-wallpaper__yvt2-550x412La victoire de Donald Trump à l’élection présidentielle aux Etats-Unis a fait émerger une nouvelle notion dans l’univers des actualités et de l’information : l’idée de ‘vérité alternative’. Dès son installation à la Maison Blanche, une polémique s’est développée autour du nombre de participants à la cérémonie d’investiture du Président : comme le rappelle l’article du Guardian, Kellyanne Conway conseillère à la Maison Blanche a défendu la version du porte-parole du Président Sean Spicer , « la plus importante cérémonie d’investiture en terme d’audience » en déclarant que celle-ci se basait sur des ‘faits alternatifs’ (alternative facts). Depuis, la ‘post-vérité’ triomphe aux Etats-Unis dans une atmosphère quasi-orwellienne où la « majorité des journalistes sont malhonnêtes » …

La fabrique des fake news et la contre-offensive des médias

L’utilisation des réseaux sociaux et de certains médias pour répandre ces faits alternatifs (« Le Pape François soutient D. Trump ») a été particulièrement importante lors de cette campagne électorale comme lors de la campagne pour le ‘Brexit’. On leur a surtout reproché l’usage de robots logiciels et d’intelligence artificielle (‘bots’) pour manipuler les électeurs. Mais comme le souligne le sociologue Antonio Casilli dans sa conférence sur Infobésité et fake News et algorithmes politiques (Numa, Paris) : aujourd’hui, les entreprises de désinformation sur le net sont loin d’utiliser uniquement des algorithmes et autres ‘chatbots’ pour influencer les internautes. Si Facebook a effectivement utilisé un effet de ‘bulle de filtre’ en faisant circuler un même type d’information à l’intérieur d’un cercle d’amis, (si quelqu’un est de droite, il ne va voir que des informations venant de la droite), la plupart des ‘Likes’ et retweets ont été effectués par des humains dans des ‘usines à click’ de pays émergents (Philippines, Mexique,etc.). Ce ‘digital labor’, comme le Mechanical Turk d’Amazone, est payé quelques centimes le click, un peu plus pour les femmes au foyer de l’Amérique profonde … !

A la veille de l’élection présidentielle en France, un certain nombre de médias et géants du Net se posent la question de vérification des informations. Plusieurs initiatives ont vu le jour depuis quelques semaines pour décrypter ces attaques, notamment le Décodex, outil mis au point par le Monde, mais aussi une alliance de plusieurs médias français avec Facebook et Google. Vreuz0Z4aYsXhAor0wG05Tl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9

Que valent ces outils et peut-on véritablement dénicher les fausses informations qui se multiplient sur la Toile ? Déjà un certain nombre de critiques sont portées à l’égard du Décodex. En cherchant à labelliser la crédibilité des médias en fonction de points de vue subjectifs (Valeurs actuelles a pignon sur rue, tandis que Fakir est une feuille militante), cet outil effectue un biais comme le souligne Vincent Glad dans son article dans Libération : « le Monde se donne le rôle de censeur et de vérificateur du web, de CSA de l’information en ligne ». C’est aussi le point de vue de SavoirCom1, cité par Blog Univesrdoc, blog de veille des chefs de projets à l’INTD-CNAM  « Le collectif SavoirComun1 (1) – un groupement de bibliothécaires engagé pour les libertés à l’ère numérique et la libre dissémination des savoirs – ne dénigre pas l’utilité de Décodex dans le contexte actuel, mais partage son inquiétude sur ce type d’application d’évaluation, qui gérée par des plate-formes privées, voire par l’Etat pourrait amener à des formes de censure. ». Le Monde par la voix de Samuel Laurent (Les Décodeurs) s’est engagé pour sa part à faire évoluer son outil, notamment en distinguant les informations factuelles des commentaires. Mais si certaines mesures ont été prises concernant les sites d’opinion (Les crises, Valeurs actuelles), apparemment cela n’a pas empêché la requalification d’un site comme Doctissimo auparavant classé en orange (site imprécis, ne citant pas ses sources), et passé en vert le 21 février … Serait-ce parce que le groupe Le Monde et Doctissimo lançaient ce jour-là le magazine Sens et Santé (voir Les Echos) comme le souligne Olivier Berruyer dans Les Crises ?

La désinformation dans l’histoire

L’IFLA, de son côté, nous rappelle que ce travail de vérification et de filtrage de l’information est le propre de professionnels de l’information avec son infographie, en collaboration avec Wikipedia, « How to spot fake news »  posté sur Facebook et twitter et explique sur son blog comment les bibliothèques peuvent aider leurs utilisateurs à trouver des faits qui ne sont pas alternatifs … L’exemple de Wikipedia avec ses millions d’utilisateurs qui vérifient les articles peut être une garantie de bonnes pratiques informationnelles tout comme les ‘peer reviews’ des revues scientifiques. Le rôle historique des bibliothécaires dans l’’information literacy’ (formation à l’information) est aussi rappelé dans l’article de Donald Barclay de Conversation « The Challenge facing libraries in the era of fake news ». La désinformation n’a pas commencé avec les réseaux sociaux. Barclay cite le cas de la campagne menée par l’industrie du tabac dans les années 1960 qui s’appuyant aussi bien sur la presse populaire que sur des pseudo-revues scientifiques, sans parler du soutien de Barry Goldwater qui assimilait la dénonciation des effets du tabac sur la santé à un complot communiste !

media_image3Antonio Casilli a aussi rappelé que la manipulation de l’information ne date pas d’hier : la propagande, largement utilisée au 20e siècle, a été créée par l’Eglise catholique au 15e siècle (De propaganda fidei : sur la propagation de la foi) ! Le reste des fausses nouvelles passaient par la littérature de colportage et les complots, souvent en lien avec des puissances surnaturelles, se retrouvaient dans les écrits apocryphes et les mystères ….

Depuis les années 1970, la complexification des sources et des supports de l’information (bases de données, microfilms, informatisation), a rendu crucial le rôle des bibliothécaires universitaires pour former l’esprit critique des étudiants. Cette formation ne se limite plus à localiser des ouvrages ou des documents sur des étagères, mais à » identifier, organiser et citer des informations ». Aujourd’hui avec le foisonnement de l’internet, il ne suffit plus aux étudiants de savoir distinguer une revue scientifique comme Nature d’un magazine grand public, ils doivent différencier les articles de périodiques véritablement scientifiques de ceux de revues ‘prédatrices’ ou pseudo-scientifiques … Sans parler des données et des résultats faussés par les chercheurs eux-mêmes !

Un défi pour les professionnels de l’information

Devant l’incertitude qui entoure la fiabilité des données et dans un environnement universitaire de plus en plus changeant, où les étudiants sont plus souvent créateurs de nouveaux savoirs que consommateurs d’information, l’ACRL (Association américaine de bibliothèques de recherche) a lancé son « Framework for Information Literacy in Higher Education », cette charte pour la formation à l’information dans l’enseignement supérieur reconnaît que l’évaluation de l’information n’est pas une chasse au trésor ou les ressources identifiées seraient ‘bonnes’ ou ‘mauvaises’. L’autorité est construite et contextuelle et fait appel aux enseignants et aux bibliothécaires pour une approche de l’autorité et de la crédibilité à partir du contexte de l’information et non pas dans l’absolu. Pour D. Barclay cette position est beaucoup plus stimulante pour les étudiants que d’accepter l’autorité d’une source sans discussion ou de réfuter toute autorité comme anachronique au nom de la post-vérité !

C’est une approche semblable qu’a pris le Collectif SavoirCom1 en considérant la question de l’information sous l’angle des ‘Communs de la connaissance’ : en prenant l’exemple de Wikipédia, il montre qu’»un espace de publication constitué comme un commun résiste mieux aux fausses informations ». Le collectif veut favoriser l’émergence d’une communauté de ‘vigilance informationnelle autour du Décodex » : elle permettrait que les outils de vérification soient eux-même vérifiables, que les règles de contribution et de régulation soient clairement énoncées, que les sites évalués puissent faire appel de leur évaluant en démontrant leur mode d’élaboration et de transmission de l’information et enfin que les acteurs de l’information (organes de presse ou prestataires de services informationnels) s’impliquent dans la formation aux médias et à l’information des citoyens. On retrouve ici l’importance de la co-construction de l’information et du contexte prôné par l’ACRL dans son Framework.

 

Framework for Information Literacy for Higher Education/Association  of College & Research Libraries. - Ala.org, 11/01/16

Swaine, Jon. – Donald Trump’s team defends ‘alternative facts’ after widespread protests. – The Guardian, 22/01/17

L’annuaire des sources du Décodex : mode d’emploi/Les Décodeurs.Le Monde, 23/01/17

Dorf, Michael C. ; Tarrow, Sidney. – Stings and scams: ‘Fake news’, the First Amendment and the New Activist Journalism. – Cornell Legal Studies Research Paper n°17602, 26/01/17

Alternative Facts and Fake News : Verifiability in the Information Society. - Library Policy and Advocacy Blog [IFLA Blog], 27/01/17

How to spot fake news ? IFLA in the post-truth society. – Ifla.org, 01/02/17

Delcambre, Alexis ; Leloup, Damien. - La traque ardue des « fake news ». – Le Monde, 02/02/17

Yeh, Alexandra.- Les citoyens n’ont jamais été aussi méfiants envers les médias.Méta-média, 03/02/17

Glad, Vincent. – Qui décodera les décodeurs ? De la difficulté de labelliser l’information de qualité. – Libération, 03/02/17

Barclay, Donald A. – The Challenge facing libraries in an era of fake news. – The Conversation, 05/02/17

Bounegru, Liliana. - Three ways in which digital researchers can shed light on the information politics of the post-truth era. – Impact of Social Sciences, 06/02/17

Ertzscheid, Olivier. – La vie en biais. – Affordance.info, 07/02/17

Controverses autour du Décodex, un outil contre la désinformation ?Docs pour Docs, 07/02/17

Seabright, Paul. – Les « fake news », « quelques gouttes d’eau dans une cascade de propagande ». – Le Monde, 08/02/17

Decodex : on s’engage dans une guerre contre les ‘fake news’. S. Laurent (Le Monde), F. Ruffin (Fakir), L. Merzeau (SavoirCom1) débattent. – Arrêt sur image, 10/02/17

Lacour, Sophie. - Image, ma belle image, montres-tu la vérité ? – Usbek & Rica, 10/02/17

Manach, Jean-Marc. - Il est trop tard pour s’alarmer d’une cyber-guerre électorale. - Slate, 14/02/17

« Fake news » : les profs américains ajoutent l’éducation à l’information dans leurs cours. – VousNousIls, 15/02/17

Décodex, la controverse. – Blog UniversDoc, 20/02/17

[Tellement prévisible] Décodex victime d’un conflit d’intérêts patents …Les-crises.fr, 21/02/17

 

 

 

Surveillance : le tour de vis occidental

fingerprint with bar codeOn assiste, depuis quelques semaines, au renforcement de la surveillance de masse en Europe et dans les pays occidentaux. La vague d’attentats et le repli sécuritaire qui touche les démocraties pourraient expliquer ce phénomène.

En France, après le vote de la loi Renseignement en juillet 2015, nous avons eu début novembre l’annonce de la création du fichier TES qui devrait rassembler dans une seule base de données « les informations personnelles et biométriques de la quasi-totalité de la population » (Numérama).  Au Royaume Uni, le nouveau projet de loi sur le renseignement Investigatory Powers Act « qui marque un durcissement de la surveillance et légalise des pratiques déjà exercées en dehors de tout cadre juridique par les services de renseignement » (Le Monde). Avec cette loi, un certain nombre d’institutions et d’organismes britanniques – finances publiques, Agence de l’alimentation, Commission des paris, services de santé – en plus des services de police et de renseignement de tout le Royaume, pourra avoir accès à toutes les connections et enregistrements internet des citoyens et résidents en Grande-Bretagne (Independent).

Outre-Atlantique, la situation est aussi inquiétante : aux Etats-Unis, le FBI a passé un accord avec la société Dataminr pour accéder en temps réel aux 500 millions de publications quotidiennes de Twitter. Comme on le lit dans Les Echos, « Ce spécialiste du croisement des données (data mining) permet à ses clients (médias, banques, fonds d’investissements) d’obtenir des informations liées aux menaces terroristes, aux troubles sociaux et politiques etc.. ».  Après la victoire de Trump, la messagerie sécurisée Signal, a con a connu une augmentation de 400% de téléchargement comme le souligne Buzz Feed News. Le site Intercept a aussi interrogé les multinationales de l’internet pour savoir si elles étaient prêtes à collaborer pour mettre en place le « fichier des musulmans » préconisé par Trump : seul Twitter a refusé cette collaboration …

Et le Monde vient de révéler, suite aux derniers documents publiés par Snowden, que les smartphones des passagers d’Air France étaient espionnés en plein vol au profit de la NSA ou du GCHQ (services secrets britanniques) …

Au Québec, les services de police de la Ville de Montréal mettent sur écoute des journalistes comme Patrick Lagacé de la Presse, informe le blog Veille pour un(e) bibliothécaire engagé(e)Security camera

Néanmoins, un certain nombre d’institutions et d’organismes réagissent à ce tour de vis.

En France, le Conseil national du Numérique et la Cnil se montrent réservés vis-à-vis du Fichier TES. Le CNNum a carrément demandé la suspension de ce fichage généralisé de la totalité des Français …

Au niveau de l’Union européenne, une eurodéputée néerlandaise a attaqué devant le Conseil d’Etat la loi sur la surveillance internationale des communications électroniques, qui complète la loi sur le renseignement. « Sophie In’t Veld du groupe libéral ADLE a décidé de déposer 2 recours devant le Conseil d’Etat pour contester l’une de ces lois » écrit Julien Lausson dans Numérama.

Comment en est-on arrivé là ?

Nous avions évoqué les systèmes de surveillance massive dans des posts précédents, notamment l’intrusion de la NSA dans les communications électroniques, mais depuis la vague d’attentats en France et la mise en place de l’état d’urgence, un certain nombre de mesures de sécurité ont été renforcées.

La Loi Renseignement, votée en 2015, avait été partiellement retoquée par le Conseil Constitutionnel, notamment en ce qui concerne le volet surveillance internationale des communications électroniques. Ce texte, destiné à encadrer le renseignement à l’étranger, écarte explicitement les personnes résidant en France. Or deux députés socialistes, Patricia Adam et Philippe Nauche, ont déposé, à la demande du gouvernement en septembre 2015, une proposition de loi visant à combler « le seul trou laissé par le Conseil constitutionnel » comme  l’exprime Guillaume Champeau de Numérama. En facilitant l’interception massive des communications sur internet et les conversations téléphoniques, ce texte vise à « tranquilliser les agents de la DGSE qui agissent actuellement dans la plus grande illégalité, faute de loi encadrant leur surveillance ».  Le texte « aménage un régime spécial pour les services de renseignement qui souhaitent collecter et analyser massivement des communications électroniques depuis l’étranger ». Mais il concerne aussi les écoutes de communications émises « depuis l’étranger » ou si les personnes sont déjà « identifiées comme  présentant une menace au regard des intérêts fondamentaux de la Nation ». Donc, si des personnes résidant en France communiquent avec des personnes situées hors du territoire français, c’est le régime de cette proposition de loi qui s’appliquerait, comme le souligne Guillaume Champeau . Pour Sophie In’t Veld, cette loi malmènerait les droits dont bénéficie n’importe quel citoyen européen. Ses propres communications vers et depuis l’étranger – elle se rend souvent au Parlement européen à Strasbourg en tant qu’eurodéputée – « sont susceptibles d’avoir été interceptées ». En questionnant la légalité de ces mesures de surveillances, ces recours visent à obtenir la suppression des données personnelles collectées entre 2008 et 2015 (avant la loi sur la surveillance internationale) et ensuite démontrer qu’il existe une sorte de discrimination entre les Français et les autres citoyens de l’UE, ce qui va à l’encontre de la Charte des droits fondamentaux. postcard-surveillance-webversion1

Contenu et métadonnées : que surveille-t-on au juste ?

On a beaucoup évoqué le chiffrement des données pour échapper au piratage ou à la surveillance des communications électroniques. Mais le chiffrement porte généralement sur le contenu des communications et plus rarement sur les métadonnées, ces données techniques qui permettent le bon acheminement des communications (origine, destinataire, date, position géographique, etc.). Le Conseil national du numérique s’est penché sur le problème du chiffrement dans un article d’approfondissement, et plus précisément sur le chiffrement des métadonnées. S’il existe de manière de masquer certaines métadonnées, avec des réseaux de type Tor, la plupart des applications grand public, « assurent la confidentialité des contenus, mais ne peuvent pas garantir l’anonymat des utilisateurs ou des terminaux utilisés ».

Alors que traditionnellement les services de renseignement s’intéressaient au contenu des communications, on privilégie aujourd’hui de plus en plus le traitement automatisé des métadonnées. Ce passage du contenu au contenant, s’explique par plusieurs raisons. D’abord, l’analyse des métadonnées se prête mieux à une surveillance généralisée et automatisée : les métadonnées sont plus difficilement sécurisables et l’analyse des contenus implique un traitement individuel, donc plus coûteux. En plus, les contenus surveillés ne sont généralement pas explicites : les terroristes ne vont jamais dire « Rendez-vous à tel endroit pour placer la bombe » comme l’explique Rémi Récio délégué général à la Commission générale de contrôle des interceptions de sécurité (CNCIS), cité par le CNNum. « en revanche, il est plus important de reconstituer un réseau, donc des données techniques sont plus importantes que ce que vont dire les gens ».

Mais que faire avec ces quantités énormes de données ? Va-t-on analyser tous les renseignements collectés ? En fait, en prenant exemple sur la veille stratégique et l’intelligence économique, le système vise  « à débusquer les signaux faibles d’une activité criminelle ou terroriste par une surveillance généralisée des réseaux. Surveiller pour prévenir, mais aussi pour prédire ».

Une fois traitées par de puissants algorithmes, les données collectées en masse vont servir à l’établissement de ‘graphes sociaux’ (cartographie de réseaux de connexions et de relations entre individus en lien avec leur activité sur internet). Combinés à des outils statistiques, ces graphes sociaux vont aider à la constitution de patterns ou modèles de comportements, afin d’anticiper les risques d’une attaque terroriste. C’est ce que prévoit la Loi Renseignement de Juillet 2015, avec l’utilisation des fameuses ‘boites noires’ pour détecter les comportements ‘signants’.

arton15480-47b03Cette attitude est très dangereuse, car tout algorithme a une marge d’erreur et va donc identifier des personnes sans intention terroriste (des ‘faux positifs’). Si la marge d’erreur est de 1% (considérée comme faible), cela pourrait faire 600 000 personnes sur une population de 60 millions ! Alors que si le nombre de vrais terroristes est de 60, ils ne représentent que 0,01% …

Cela peut amener à des dérives, comme le fait de condamner à deux ans de prison ferme une personne ayant consulté de façon répétée des sites faisant l’apologie du terrorisme [quelle que soit la radicalisation effective du suspect, qui s’est révélée être assez importante]. Comme le souligne Olivier Ertzschied dans son post « De la confidentialité de l’acte de lecture », l’année où Mein Kampf entre dans le domaine public, « serait-il possible de condamner à deux ans de prison ferme un homme pour lecture régulière et répétée de Mein Kampf ? » Qu’y a-il de différent entre « la lecture répétée de brochure papier faisant l’apologie du terrorisme distribuées (et lues) en divers endroits de la planète et la lecture répétée de sites faisant l’apologie du terrorisme ? ». Pour le chercheur, « la confidentialité de l’acte de lecture est l’un des fondements essentiels de toute démocratie ». Encore une fois, c’est privilégier une idée de la sécurité au détriment des libertés fondamentales. « Pénaliser la lecture […] c’est condamner une intentionnalité supposée, c’est un ‘effet cigogne'[corrélation plutôt que causalité]». surveillance-electronique

Malheureusement, cette condamnation d’une intentionnalité de la lecture est en train de se concrétiser aux États-Unis, comme on le découvre dans le post de Thomas Fourmeux dans Biblio Numéricus « Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard) ». Cette transcription d’un article de l’EFF (Electronic Frontier Foundation) appelle les bibliothécaires à protéger leurs usagers les plus fragiles (adolescents, sans-abris, chômeurs, migrants) contre les agents du gouvernement qui viendraient enquêter sur les livres empruntés ou consultés et les mots-clés recherchés en ligne. Comme après la mise en place du « Patriot Act », les bibliothécaires américains s’inquiètent de la future administration Trump. « Les bibliothèques pourraient recevoir de la part du gouvernement des demandes de renseignements sans précédent sur les usagers »…

digital surveillance

 

Loi 2015-912 du 24 juillet 2015 relative au renseignement. – Légifrance, 27/07/15

Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance/Zigmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild et al. – Cultures et conflits, 2015/2 via Cairn.info

Rees, Marc. - Renseignement : l’exécutif annonce une proposition de loi sur la surveillance internationale. – NextInpact, 02/09/16

Champeau, Guillaume. – Surveillance internationale : ce que prévoit la proposition de loi. – Numérama, 10/09/15

Chantrel, Flavien. – Tristan Nitot « Une société sous surveillance n’est plus une société libre ». – Blog du modérateur, 05/07/16

De la confidentialité de l’acte de lecture : les algorithmes en prison. – Affordance.info, 14/08/16

Nitot, Tristan. – Surveillance : // Les libertés au défi du numérique : comprendre et agir. – Paris : C&F éditions, Blogcollection, 2016

Rees, Marc. – Loi Renseignement : un an après, où en est la centralisation des données . – NextInpact, 10/10/16

Conseil National du Numérique. – Communiqué de presse : Fichier TES : le CNNum appelle le gouvernement à suspendre sa mise en oeuvre et s’autorise à examiner des alternatives techniques plus modernes et respctueuse des lois et des libertés. – Paris, 07/11/16

Rees, Marc. – Le CNNum demande la suspension du fichage 60 millions de Français. – NextInpact, 07/11/16

Lausson, Julien. - Le CNNum demande la suspension du fichage biométrique des Français. – Numérama, 07/11/16

Il faut renoncer à l’extension de la collecte des données biométriques /Un collectif. – Libération, 20/11/16

Grondin, Anaelle. - Plus aucun tweet n’échappera au FBI. – Les Echos, 17/11/16

Surveillance : ce que contient la nouvelle loi sur le renseignement britannique. – Le Monde, 21/11/16

Griffin, Andrew. – Everyone can now see your entire internet history. – The Independent,  24/11/16

Investigatory Powers Act - Parliament UK, 29/11/16 :

Untersinger, Martin ; Follerou, Jacques. – Espionnage des avions, d’Israël et de l’Autorité palestinienne : nouvelles révélations de Snowden. – Le Monde, 07/12/16

Fourmeux, Thomas. - Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard). – Biblio Numericus, 08/12/16

 

 

Economie des plateformes : entre partage des communs et post-salariat capitaliste

ozwilloLes plateformes occupent  une place de plus en plus prépondérante dans l’activité numérique actuelle. Que ce soit sur des applications mobiles ou à propos de nouveaux services publics ou associatifs, on retrouve cette même notion à la définition un peu floue.

Définition et réglementation

Sur Wikipédia, on est un peu déçu : entre plateforme pétrolière et géologique, la plateforme en informatique est décrite comme « une base de travail à partir de laquelle on peut écrire, lire, utiliser, développer un ensemble de logiciels ».

Dans l’avant-projet de la loi Lemaire, cité dans l’article de Marc Rees dans NextInpact : la régulation proposée vise des activités « consistant à classer ou référencer des contenus, biens ou services proposés ou mis en ligne par des tiers, ou de mettre en relation, par voie électronique, plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service, y compris à titre non rémunéré, ou de l’échange ou du partage d’un bien ou d’un service ».

Cela reprend en partie la définition du Conseil national du numérique dans son Rapport sur la neutralité des plateformes , citée par Aurélie Barbaux dans un article d’Usine Digitale « une plateforme est un service occupant une fonction d’intermédiaire dans l’accès aux informations, contenus, services ou biens, édités ou fournis par des tiers. Au-delà de sa seule interface technique, elle organise et hiérarchise les contenus en vue de leur présentation et leur mise en relation aux utilisateurs finaux. A cette caractéristique commune s’ajoute parfois une dimension écosystémique caractérisée par des relations entre services convergents ».

La plateforme prend donc la forme d’un service intermédiaire entre fournisseurs (d’informations, de biens, de services) et les utilisateurs finaux. Elle représente en fin de compte la médiation numérique par excellence. C’est cette fonction que vont alimenter les professionnels de tous secteurs pour mettre des contenus à disposition des usagers. La structuration de cette infrastructure incontournable de la société de l’information passe par la programmation de logiciels dédiés : les fameux algorithmes qui ajoutent une pincée d’intelligence artificielle à la gestion des transactions.

La Loi numérique s’est donné aussi pour objectif d’encadrer cette activité, notamment par la création d’indicateurs et la diffusion de « bonnes pratiques visant à renforcer leurs obligations de transparence et de loyauté ». Ces obligations concernent les plateformes dépassant un certain seuil de connexions. Le Ministère de l’économie et le Secrétariat au numérique se réserve par ailleurs la possibilité de faire des enquêtes et de publier la liste des plateformes qui ne respectent pas ces obligations … plateformes

Plateformes services publics ou associatifs

De nombreuses plateformes ont été conçues dans les services publics pour mettre à la disposition des usagers un certain nombre d’informations et de données ouvertes. La dernière mise à jour (octobre 2016) concerne l’enseignement supérieur et la recherche. Cette plateforme Open data propose 55 jeux de données ouvertes sur l’enseignement supérieur et la recherche. Son interface, plus lisible, facilite l’accès aux données. Elle est synchronisée avec la plateforme nationale data.gouv.fr, de la mission Etalab, qui propose toutes les données publiques ouvertes.

Toujours dans le contexte de l’éducation nationale, Mediaéducation, la plateforme d’accès à la presse à l’école. Fruit d’un partenariat entre le ministère de l’Education nationale et l’opérateur de publications numériques miLibris, la plateforme Lire l’Actu propose 13 titres de quotidiens et de magazines français et étrangers à découvrir sur les tablettes et les ordinateurs fixes des lycées et collèges. D’autres titres seront progressivement ajoutés, notamment en presse régionale.

L’Enssib devrait mettre aussi en ligne, en partenariat avec l’ABF, « une plateforme des projets destinée à valoriser les projets portés dans les bibliothèques de France. L’objectif de cette plateforme est de rendre visibles les projets en cours ou déjà réalisés et faciliter les échanges entre professionnels aux objectifs communs. » Elle proposera aussi une cartographie des activités des bibliothèques et des centres de documentation français.

D’autres plateformes existent dans le secteur des bibliothèques, comme e-shelf service, pour gérer
les collections de livres numériques. Sa particularité, comme le souligne Thomas Fourmeux dans Biblio numéricus, réside dans la prise en charge par l’entreprise des négociations avec les éditeurs. Cette plateforme a été développée « par un consortium de bibliothèques à but non lucratif qui se consacre au développement de services à destination des bibliothèques. Leur mission est de promouvoir le partage de ressources et l’émergence de services innovants à travers la collaboration. »

 

Les plateformes de services e-commerce ou de partagebusit-usages-wo

Mais si le terme générique « plateforme » recouvre des activités de toutes sortes, allant du covoiturage (Blablacar) ou de partage de canapé (couchsurfing) à des sociétés de taxis (Uber) ou de location de chambres ou d’appartement (AirBnB), ces services recouvrent deux réalités économiques différentes. Comme le souligne Philippe Portier dans son article du Monde, on trouve, d’un côté, ‘l’économie collaborative stricto sensu’ qui mutualise les biens, les espaces et les outils en favorisant l’usage par rapport à la possession et l’organisation en réseaux ou en communautés des citoyens ; de l’autre ‘l’économie ubérisée’ « qui traduit l’émergence de professionnels d’un nouveau genre, concurrençant les modèles traditionnels grâce à la combinaison d’outils technologiques, communs à l’économie collaborative (les plateformes, les outils numériques et les objets connectés) et de l’autoentrepreneuriat. ». Le premier modèle relève de l’économie non marchande qui participe de la philosophie des ‘communs’, basée sur la mutualisation des biens et des savoirs ; le second représente « un nouveau modèle d’entreprise horizontalisée, dématérialisée, idéalement sans salariés ni bureaux, capable de concurrencer les acteurs traditionnels, via la mobilisation (par les technologies numériques) un grand nombre de prestataires, sans en assurer la charge. ».

C’est ce que souligne aussi Michel Bauwens, théoricien de l’économie collaborative, dans son article du Monde : « Uber et Airbnb n’ont rien à voir avec l’économie du partage ». Pour ce chercheur, « l’économie ‘pair à pair’ où les individus s’auto-organisent pour créer un bien commun, a un potentiel émancipatoire important ». Avec des sociétés comme Uber, « il s’agit plutôt d’une mise sur le marché de ressources qui, jusque-là n’étaient pas utilisées. ».

Cela nous amène à la question soulevée par Ivan Best dans la Tribune « le numérique met-il fin au salariat ? ». Dans son compte-rendu des Rencontres d’Aix du Cercles des économistes, le journaliste souligne l’acuité de la crise actuelle. Si toutes les révolutions industrielles par le passé ont connu aussi des destructions d’emplois en masse, d’autres jobs sont toujours apparus pour les remplacer ; en revanche, selon Andrew McAfee, économiste du MIT « cette fois, c’est différent ». Le professeur souligne les éléments nouveaux qui font douter du fonctionnement de la théorie du déversement préconisée par Ricardo : le pouvoir d’achat stagne depuis 20 ans, la classe moyenne en voie d’érosion, la part des salaires dans la valeur ajoutée diminue … Avec l’accélération technologique qui permet non seulement de supprimer les tâches répétitives, mais prend de plus en plus en charge des travaux de conception, les services sont de moins en moins qualifiés. Avec le GPS, par exemple, les chauffeurs de taxis n’ont plus besoin de connaître les rues des villes. Le recours au contrat de travail est moins fréquent. A terme, le travail humain devient de moins en moins nécessaire …

On retrouve ce questionnement  dans l’article d’Olivier Ertzscheid sur InaGlogal « Du digital labor à l’ubérisation du travail ». Il souligne la « part croissante de l’automatisation et de l’algorithmie dans des missions jusqu’ici considérées comme régaliennes (transport, santé, éducation).»  Pour ce chercheur, il faudrait se préparer et prendre la pleine mesure de cette transformation de la société contemporaine. Uber représente le phénomène le plus abouti de cette évolution : « Über a permis, pour la première fois à cette échelle, de fractionner notre rapport au travail, à l’outil de travail, de la même manière qu’avant lui Airbnb avait permis de fractionner notre rapport à la propriété. ». Ce qui lui fait prédire que « la révolution sera ubérisée » avec des conflits sociaux d’un nouveau genre. Face à cela, le politique est impuissant et le recours à la loi, complexe et inabouti … Avec comme seule stratégie, l’interdiction d’une application…

robots-option-binaireD’où l’importance de réfléchir à de nouveaux modèles d’organisation du travail (qui est l’employeur, qui est l’employé et à quel(s) moment(s) ?) et de protection sociale. C’est aussi la question que se pose Hubert Guillaud dans son article  d’InternetActu « Qui des algorithmes ou des clients seront nos nouveaux patrons ? ». Partant de l’anecdote du Huffington Post où une société hongkongaise avait nommé un algorithme à son conseil d’administration, il arrive à cette constatation : c’est l’algorithme d’Uber qui est le vrai patron des chauffeurs ! Et les clients deviennent les cadres intermédiaires avec le système de notation … Difficile dans ces conditions d’être un auto-entrepreneur libre de ses décisions ….

C’est ce que dénonce aussi Eric Sadin dans son article de Libération « La «silicolonisation», c’est la conviction que ce modèle représente l’horizon indépassable de notre temps et qui, de surcroît, incarnerait une forme lumineuse du capitalisme ». Pour le philosophe, c’est un modèle de société fondé sur la ‘marchandisation intégrale de la vie et l’automatisation intégrée de la société qui est en train de s’instaurer ». Pour Eric Sadin,  « la figure du contremaître disparaît au profit de résultats d’équations […] auxquelles il difficile voire impossible de s’opposer ». Pour contrer le ‘technolibéralisme’, qualifié de « criminalité en hoodie (sweat à capuche) », Sadin en appelle au civisme des consommateurs pour boycotter tous ces objets connectés et services de l’économie des plateformes …

Bernard Stiegler est moins pessimiste dans son article de l’Humanité : s’il reconnaît qu’avec l’automatisation « le travailleur est dépossédé de son savoir-faire au profit d’un logiciel qui rend la tâche automatisable » et qu’en fin de compte le travailleur est licencié … Le philosophe propose une solution : que l’économie numérique « redistribue une partie des gains de productivité en vue de financer un temps de capacitation de tout un chacun au sein d’une économie contributive permettant de valoriser les savoirs de chacun. C’est pour cela que nous préconisons l’adoption d’un revenu contributif, ce qui n’est pas la même chose que le revenu universel. ».

Une solution consisterait en la généralisation des « communs » contre la monopolisation des échanges de données dans l’économie des plateformes (GAFA, Uber, Airbnb). C’est ce que préconise Michel Bauwens : en généralisant cette pratique qui remonte au Moyen-Age (mutualisation des terres + règles pour ne pas les épuiser) et avec les moyens technologiques dont on dispose, on pourrait créer de grands communs de la connaissance, des logiciels, du design, et permettre à tous les citoyens d’y contribuer et d’y puiser. Mais aussi « Il faut accompagner cette évolution, réguler pour protéger les consommateurs et les travailleurs dont les positions sont affaiblies face à ces nouveaux monopoles. ». Mais surtout « De nouvelles solutions sont à envisager ». « Il s’agit de passer d’un capital extractif, qui capte la valeur des communs sans rien reverser, à un capital génératif où ceux qui contribuent à ce commun créent leur propre économie éthique. » bien-communRéférences

Neutralité des plateformes : Réunir les conditions d’un environnement ouvert et soutenable/Conseil national du numérique, mai 2014

Best, Ivan. – Travail, le numérique met-il fin au salariat ? - La Tribune, 05/07

Legros, Claire (propos recueillis). – Michel Bauwens « Uber et AirBnb n’ont rien à voir avec l’économie du partage« . – Le Monde, maj. 20/07/15

Duthoit, Aurélien. – Comprendre les mécanismes de l’économie du partage. – La Tribune, 26/08/15

Barbeaux, Aurélie. – Au fait, c’est quoi une plateforme ?Usine Digitale, 19/10/15

Gardette, Hubert. – Uber, Amazon, Airbnb : lenumérique nous rend-il socialement irresponsable ? - Du grain à moudre – France Culture, 28/10/15

Cardon, Dominique ; Tesquet, Olivier. – Les algorithmes sont-ils vraiment tout puissants ? EntretienTélérama, 02/11/15

Portier, Philippe. – Économie collaborative : « La solution n’est pas dans un excès de réglementation ». – Le Monde,
maj. 06/11/15

Rees, Marc. – Loi Lemaire, les plateformes régulées sous la menace d’une liste noire.NextInpact, 09/11/15

Guillaud, Hubert. – Qui des algorithmes ou des clients seront nos nouveaux patrons ? - InternetActu, 10/11/15

Fourmeux, Thomas. – E-shelf service : un nouveau service de livres numériques pour les bibliothèques. – Biblio Numericus, 30/01/16

Plateforme des projets de la communauté professionnelle. - Enssib, 23/03/16

Biseul, Xavier. - Transfo numérique : « les avocats ne doivent pas être les taxis de demain ». - ZDNet, 04/04/16

Marrissal, Pierric ; Masson, Paule. – Bernard Stiegler « Nous devons rendre aux gens le temps gagné par l’automatisation » Entretien - L’Humanité, 17/06/16

Ertzschein, Olivier. – Du digital labor à l’ubérisation du travail. – InaGlobal, maj. 29/08/16

Lire l’actu, plateforme d’accès à la presse à l’école. – Médiaéducation, 06/10/16

Projet de loi pour une République numérique. – Sénat, maj. 10/10/16

Villin, Philippe ; Cosnard, Denis (propos recueillis). - Economie collaborative : « Pas difficile d’être compétitif quand on ne respecte rien » Entretien. – Le Monde, 10/10/16

Féraud, Jean-Christophe. – Eric Sadin  : « L’anarcho-libéralisme numérique n’est plus tolérable ». – Libération, 20/10/16

Laval, Christian. – « Commun » et « communauté » : un essai de clarification sociologique.SociologieS [En ligne] in Dossiers, Des communs au commun : un nouvel horizon sociologique ?, 21 octobre 2016

 

Où va l’internet ? Les perspectives du numérique dans la société de la connaissance

formationnumerique2En faisant le point sur les différentes avancées du numérique, cinq domaines d’activités ressortent :

La réalité virtuelle et augmentée
L’internet des objets
L’intelligence artificielle
Le développement des plateformes de services
La surveillance électronique et la sécurité des réseaux

Nous allons examiner les trois premiers aujourd’hui, les deux autres feront l’objet d’un prochain post.

 

La réalité virtuelle et la réalité augmentée

La popularité du jeu vidéo Pokemon Go montre l’importance que prennent ces technologies d’immersion dans des mondes différents (réalité augmentée pour le jeu). Mais si les GAFA les ont investies ce n’est pas uniquement pour leur aspect ludique. Facebook, par exemple ; qui a acquis le casque Oculus Rift ne compte pas uniquement l’utiliser pour le ‘gaming’, mais surtout pour la communication, « pour partager des moments et des expériences ensemble » comme l’affirme Mike Schroepfer, CTO de Facebook, cité dans l’article d’Arthur de Villamendy dans l’Atelier.streetart2

Ces technologies vont de plus en plus être intégrées dans des œuvres documentaires et de fiction où l’on expérimente une immersion dans des univers réels ou imaginaires, comme les films des chaînes Arte (film en 360° sur l’auteur de SF Philip K. Dick) et France Télévision (diffusion des matchs de Roland Garros en 360° et 4K).

Beaucoup plus sérieusement, les réalités virtuelle et augmentée devraient servir de plus en plus à la chirurgie grâce à la modélisation 3D. Il en est de même pour les psychothérapies, notamment pour soigner les phobies.

 

L’Internet des objets

L’internet ne sera plus uniquement localisé sur le web et les appareils mobiles. Il est en train de migrer sur l’ensemble des objets qui nous entourent grâce à des capteurs et aux connexions des puces RFID. Ces objets connectés sont souvent gérés par des systèmes automatiques. internet-objets-connectes-france

Ces objets, que l’on considérait jusqu’à présent comme une série de gadgets connectés que l’on porte comme des accessoires de mode (bracelets, vêtements) vont prendre une place de plus en plus importante, aussi bien dans l’industrie que dans la vie quotidienne. D’après l’étude de Machina Research, cité par un post de Viuz, on prévoit 27 milliards de connexion en 2025 contre 6 milliards en 2015 ! Le marché des objets connectés devrait passer de 750 milliards à 3000 milliards … Ces connexions concerneront principalement trois usages : l’électronique grand public, la sécurité et l’automatisation des bâtiments. Mais sur les réseaux mobiles, les véhicules représenteront 45% des objets connectés.

Dans l’usine 4.0, la place de l’humain sera de plus réduite, comme le souligne Elisabeth Noirfontaine dans un article de l’Usine digitale. Les hommes seront remplacés par des objets connectés : des capteurs intelligents, parfois intégrés aux vêtements, ont commencé à être développés pour mesurer les valeurs et les temps d’exposition aux facteurs de pénibilité ! Tout comme le POC (Proof of Concept), boitier pénibilité, application mobile permettant de comptabiliser et de vérifier le nombre d’heure de pénibilité de chaque salarié. « Le dispositif  détecte grâce à un capteur infrarouge les cartes RFID portées par les salariés, permettant ainsi de définir le début et la fin de l’activité ». On retrouve ici la problématique de surveillance et de traçage qui nourrissent les polémiques autour des données personnelles. La consultante écarte ce problème en assurant que la loi Informatique et libertés obligent les DRH « à bien veiller à utiliser ces données personnelles au seul usage du compte pénibilité » …

 

L’Intelligence artificielle et les NBIC  intelligence-artificielle-robot-crane

Comme nous l’avions déjà souligné dans le post « Le Meilleur des mondes des GAFA », les multinationales de l’internet ont investi massivement les secteurs de l’intelligence artificielle et des biotechnologies. Cette tendance se confirme. Que ce soit au niveau de l’apprentissage, où Google lance un groupe de recherche, ou pour nous proposer des abonnements à la presse sur les réseaux sociaux comme avec les ‘chatbots’ (robots conversationnels) de Facebook, sans oublier les automates écrivains, ou même les juristes où des ‘legaltechs’ automatisent des taches jusqu’alors dévolues à des juristes juniors … !

Après les craintes et les mises en garde de Bill Gates et de Stephen Hawking, c’est au tour d’Elon Musk, directeur de Tesla de présenter sa vision d’un futur peuplé de cyborgs et d’une intelligence artificielle despotique, mais aussi un système de démocratie directe sur Mars … ! Mais contrairement au pessimisme de l’astrophysicien, Elon Musk a confiance dans les contre-pouvoirs que représente, en autres, le mouvement pour les logiciels libres. Au niveau de l’intelligence artificielle, l’entrepreneur considère que nous sommes déjà des cyborgs, ou plutôt des ‘cyberborgs’ ! Dans un futur proche, » l’IA deviendrait une part de nous-même, comme une couche supérieure du cortex, qui ferait de nous un humain symbiotique, où le numérique communiquerait avec le corps et l’esprit …

Mais comme le souligne Jacques-François Marchandise (FING) aux rencontres d’été du CRAP, cité par Cécile Blanchard dans les Cahiers pédagogiques, « Le numérique n’est pas un outil, c’est d’abord un fait social, interprétable en matière économique, sociologique … […] les technologies m’intéressent à travers ce qu’elles suscitent comme possibilités, comme pouvoir d’agir ». C’est ce ‘pouvoir d’agir’ qui va nous permettre de transformer notre rapport au monde et aux autres, notamment au niveau du transfert des connaissances ainsi que pour ‘faire société autrement’.

C’est aussi la position que défend Hervé Le Crosnier dans son cours « Perspectives : vectorialisme ou communs ». « Ce nouveau paysage technique, en évolution permanente, rencontre une réorganisation du monde ». « Nous quittons un monde dans lequel quelques uns s’adressaient au plus grand nombre pour une situation plus fluide, dans laquelle cohabitent des formes unidirectionnelles et des co-constructions d’informations et de connaissances ». Le chercheur analyse les exemples de Wikipédia et des pratiques collaboratives (co-voiturage, etc.) en les opposant aux politiques de surveillance et de contrôle des GAFA et des Etats, dévoilées par les lanceurs d’alertes.

En effet, on pourrait craindre que les progrès de l’intelligence artificielle, en particulier au travers de la puissance des algorithmes ne nous rendent dépendants de nos propres ‘productions’… Et si l’internet est conçu pour nous manipuler comme l’affirme Elliot Berkman dans  l’article de Quartz, en utilisant des pièges psychologiques qui exploitent nos structures mentales inconscientes, notre réponse doit s’assimiler à la stratégie d’Ulysse pour résister aux chants des sirènes : s’attacher au mât du navire en se bouchant les oreilles … Des applications existent comme Cold Turkey ou Self Control (pour Mac) qui aident les internautes à soigner leur addiction en bloquant pendant un certain temps les sites ‘distrayants’ …

NumeriquePour en revenir à nos ‘possibilités d’agir’ plutôt que de subir, Dominique Cardon nous propose d’ »ouvrir la boite noire des algorithmes ». Dans son entretien à Libération, il précise que « les algorithmes ne sont pas les simples reflets des intérêts économiques de la Silicon Valley ». Ces représentations statistiques de la société cherchent à organiser le monde d’une certaine façon.  Le sociologue identifie quatre types d’algorithme de classement en fonction des sites et des réseaux sociaux : popularité, autorité, réputation et prédiction. Tous ces mondes sont différents : c’est pourquoi « En entrant dans les algorithmes on peut les politiser pour savoir quel monde nous voulons ».  En ouvrant ces boites noires, on s’aperçoit que ces choix sont discutables et doivent être discutés. Les algorithmes des big data calculent les individus en fonction de leurs comportements passés. Si les personnes ont toujours les mêmes comportements (mêmes idées, mêmes goûts), les calculateurs les enferment dans leur régularité : si quelqu’un n’écoute que Béyoncé, il n’aura que Béyoncé ! En revanche, des comportements plus divers, des relations plus hétérogènes vont provoquer les algorithmes à élargir leurs choix et même à leur faire découvrir des horizons nouveaux ! « En calculant nos traces, les algorithmes reproduisent en fait les inégalités de ressources entre les individus. ». Pour reprendre la main par rapport aux multinationales qui gèrent les Big data, D. Cardon propose de faire « de la rétro-ingénierie, de la recherche, en s’appuyant sur l’Etat, sur le droit, sur les autorités ». Car, « en calculant par le bas et sans catégories, on fabrique aussi du racisme, du sexisme ou de la discrimination. ». Plutôt que de fuir le monde numérique, Cardon nous encourage à « passer en manuel » : développer une culture critique de ces outils, pour avoir prise sur nos données et sur la manière dont nous sommes calculés ».

prédictions-1900-futur-e1365458441758

 

Villemendy, Arthur de. – La réalité virtuelle au cœur de la stratégie de Facebook. – L’Atelier, 31/03/15

Pourquoi Stephen Hawking et Bill Gates ont peur de l’intelligence artificielle ?France Culture, 08/07/15

Dominique Cardon « En calculant nos traces, les algorithmes reproduisent les inégalités entre les individus. » – Libération, 09/10/16

L’avenir de l’internet. – Arte, 02/02/16

Biseul, Xavier. – Transfo numérique « les avocats ne doivent pas être les taxis de demain ». – ZDNet, 03/04/16

Jaimes, Nicolas. – Comment les bots vont envahir Messenger … Et le reste d’internet.Journal du Net, 13/04/16

Champeau, Guillaume. – IA despotique, démocratie directe sur Mars, cyborgs … Les craintes et espoirs d’Elon Musk Numérama, 02/06/16

Tual, Morgane. – Intelligence artificielle : Google lance un groupe de recherche européen sur l’apprentissage. – Le Monde, 17/06/16

Blanchard, Cécile. – De quoi serons-nous capable avec le numérique ? Conférence de Jacques-François Marchandise. – Cahiers pédagogiques, 21/08/16

 

Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? II – L’exploration de contenus

text_mining_analytics_survey_softwareAprès la disposition permettant aux chercheurs de mettre gratuitement en ligne leurs publications réalisées dans le cadre de recherches sur fonds publics, nous allons examiner l’impact des amendements autorisant la fouille automatique de textes et de données (Text and Data Mining –TDM) sur le développement de la recherche.

Au départ cette mesure ne devait pas apparaître dans la loi ; en attendant une réglementation européenne sur la question, le Ministère de la Culture et de la Communication avait nommé une mission pour en faciliter le recours comme exception au droit d’auteur comme le signale Antoine Oury dans un article d’Actualitté. Les éditeurs, dans leur ensemble, étaient plutôt réticents à ouvrir leurs collections, même si certains grands acteurs, comme Elsevier ou Springer, accordaient des licences limitées aux chercheurs.

Le TDM : aspects juridique et technique

Que représente exactement ce traitement et qu’apporte-t-il à la recherche ? Une partie de la réponse se trouve dans la tribune parue dans le Monde le 7 mars dernier, signé par un grand nombre de chercheurs « Pour une science ouverte à tous ». Après avoir rappelé l’importance du libre accès des publications scientifiques, notamment dans l’archive ouverte HAL, les chercheurs invitent les sénateurs à voter l’article 18 bis en s’assurant que la fouille de données ne soit pas soumise à des négociations avec un tiers. « La fouille de données doit devenir un droit ».

L’article en faveur du TDM permettra donc « d’extraire de l’ensemble de la production scientifique mondiale de nouvelles connaissances grâce à l’exploitation automatisée, à l’aide d’algorithmes, de corpus désormais gigantesques. » Application-du-processus-de-fouille-de-donnees-dusage-du-web-sur-les-fichiers-logs-du-site-cubba16

Contrairement à d’autres pays (Etats-Unis, Royaume Uni), en France, les chercheurs n’étaient pas autorisés à pratiquer cette fouille de contenus de façon automatique et certains laboratoires étaient obligés de se rendre à l’étranger pour réaliser cette opération … ! Si certains éditeurs accordent des licences, celles-ci sont limitées (10 000 articles par semaine pour Elsevier sur la plateforme Science Direct). La Contribution de l’ABDU au CNNUM est très claire sur cette question : 10 000 articles/semaine cela peut paraître beaucoup, mais si l’hypothèse de recherche n’est pas validée au bout de X jeux de 10 000 articles de Science Direct, comment explorer les Y jeux nécessaires, et aussi sur d’autres bases de données ? Et ce, sans jamais pouvoir fouiller en une seule fois l’ensemble du corpus. De plus, Elsevier impose aux chercheurs de publier sous licence CC-BY-NC (pas d’utilisation commerciale) les extraits pertinents retenus en limitant leur longueur à 350 mots … Quant à Springer, il impose que chaque projet de TDM portant sur ses contenus soit décrit et enregistré via à un formulaire en ligne et se réserve le droit de décider si la demande est fondée … « Une ingérence inacceptable du point de vue de l’indépendance de la recherche ».

En effet, en procédant à ce traitement, les chercheurs n’ont pas comme objectif « la dissémination indue de ces contenus sous droit ou de leur exploitation commerciale ». Mais cette ‘lecture computationnelle’ implique la création d’une copie numérique du corpus à fouiller, ce qui soulève un problème de propriété intellectuelle. Il est évident qu’une solution doit être trouvée pour les ayants droit, d’autant que la plupart des chercheurs impliqués sont eux-mêmes des auteurs … !

Les éditeurs ont fait pression sur l’UE pour qu’une solution contractuelle soit priorisée par rapport à une révision du cadre juridique qui passerait par la création d’une nouvelle exception au droit d’auteur. C’est déjà le cas au Royaume Uni où la loi a consacré une nouvelle exception au droit d’auteur couvrant les ‘analyses computationnelles’ de contenus protégés, effectuées dans un cadre de recherche sans but lucratif, comme le souligne Calimaq dans un post de S.I.Lex sur l’exploration des données. C’est aussi la raison pour laquelle les chercheurs insistent sur la désignation d’un ‘tiers de confiance’, extérieur au milieu de l’édition commerciale, pour réaliser ces opérations. C’est ce que propose l’ABDU : une super base de données sur une plateforme publique pouvant « héberger tous les corpus du web visible et invisible aux seules fins d’en permettre la lecture algorithmique». Cette immense base de contenus constituerait une ‘base maître’ qui ne serait accessible et manipulable que par le tiers de confiance. Pour chaque demande de recherche, un ‘bac à sable’ serait constitué en copiant les corpus à partir de la ‘base maître’ ; cette copie serait détruite en ne conservant que les occurrences pertinentes, une fois les opérations de TDM terminées. Cela permet de répondre aux besoins des chercheurs tout en assurant la protection des ayants droit.

Le TDM comme service aux chercheurs text-mining

Dans les sciences dites ‘dures’ l’exploitation des données de la recherche est largement répandue et souvent effectuée par les chercheurs eux-mêmes ; c’est beaucoup moins le cas en sciences humaines et sociales (SHS) et dans les humanités où la formation aux outils numériques est moins répandue. Le traitement linguistique nécessaire à la fouille de texte est généralement confié à un service hybride de documentation et d’ingénierie linguistique. Frédérique Bordignon analyse ce service dans un récent billet du Carnet’IST. Cette ingénieure de recherche explique le fonctionnement d’un des outils nécessaire à la fouille automatique de textes RapidMiner et le service que ces spécialistes peuvent apporter aux chercheurs. Cette nouvelle activité pourrait s’imposer auprès des bibliothèques et des laboratoires de recherche, comme le Medialab à Sciences Po.

C’est cette activité de ‘data librarian’ qu’évoque Alexandre Tur dans un article de Catherine Muller sur le blog de l’ENSSIB. Ce conservateur de bibliothèque a effectué son stage au Canada dans le département de services aux chercheurs de la Quenn’s University de Kingston (Ontario). Il a travaillé surtout sur l’assistance à la gestion de données de la recherche auprès des chercheurs en humanités et à la promotion de l’open access dans l’université. text-mining _1

Alexandre Tur prend soin de distinguer les données scientifiques des données publiques qui sont proposées librement, les ‘open data’ (données ouvertes). Ces dernières proviennent généralement des Etats et des administrations publiques, en France c’est la Mission ETALAB qui les représente, (statistiques économiques, démographiques, géographiques, sociales et culturelles). Comme le souligne le Comité d’éthique du CNRS (COMETS) dans son avis du 7 mai 2015 sur les enjeux éthiques du partage des données, « Les politiques qui promeuvent l’ouverture des données publiques n’ont pas les mêmes objectifs que celles du partage des données scientifiques ». Si les données scientifiques produites sur fonds publics ont vocation à devenir publiques, les données publiques ont vocation à devenir scientifiques lorsqu’elles concernent l’environnement, la société ou la santé. Dans ces domaines, les questions éthiques doivent être évoquées lorsque ces données sont sensibles et relèvent de la vie privée.

Les bibliothèques de recherche représentent un partenaire ‘naturel’ pour héberger et gérer ces données. Comme l’explique William M. Cross dans son article du Library Journal : les bibliothèques vont se développer comme un ‘écosystème open data’. On va passer de l’idée d’infrastructure des données, centrée autour des revues scientifiques et des dépôts institutionnels à une ‘écologie des données de la recherche’. Cette  écologie implique une évolution dans plusieurs domaines, comme le développement de nouvelles normes autour de la validation des données de la recherche, de l’identification de la provenance des jeux de données et des nouveaux types de gestion et de propriété de ces données.

Les métadonnées deviennent centrales dans ce processus de transition entre le web documentaire et le web de données. Comme le dit Valérie Tesnières, citée dans « Gérer les données de la recherche », une formation de la TGIR Humanum, « L’enjeu est moins de produire des données que de les connecter les unes avec les autres […] Produire des métadonnées permet à la fois l’interopérabilité des données et à en assurer une meilleure pérennisation »

C’est ce que soutient aussi Gildas Ilien dans un récent article d’Archimag : de nouveaux formats doivent permettre d’adapter le catalogage à l’environnement web et numérique des bibliothèques. Cette « revanche des données » nous oblige à revenir à une sorte de catalogue pour s’y retrouver dans la jungle du numérique, même si l’usager n’a pas besoin de les voir … ! Seules les machines les traiteront. Ce retour aux sources (catalogage) implique néanmoins un changement de structures et de système : la transition bibliographique où la logique du document s’efface au profit de la logique de l’information.

Cette ‘révolution copernicienne’ dans la documentation  explique le slogan des chercheurs du LERU (Ligue des universités européennes de recherche) justifiant la fouille de textes et de données « The right to read is the right to mine » (Le droit de lire est le droit d’explorer).

llc_droit_d_auteur

Langlais, Pierre-Carl. - Text mining : vers un nouvel accord avec Elsevier. – Sciences communes, 29/10/14

Exploration des données : un environnement juridique en évolution. – S.I.Lex, 05/12/14

Consultation du Conseil national du numérique : contributions de l’ABDU.- ABDU, 02/15

Les enjeux éthiques du partage de données scientifiques : avis du COMETS. – CNRS, 07/05/15

Oury, Antoine. – Déclaration de la Haye : le copyright contre les connaissances. – Actualitté, 11/05/15

Naegelen, Pierre. – Données de la recherche : quel positionnement et quels rôles pour les bibliothèques ? – SCD Université Toulouse III Paul Sabatier, 15/06/15

LERU Statement : the right to read is the right to mine. – League of European Research Universities, 15/06/15

Demange, Julie. – Gérer les données de la recherche, de la création à l’interopérabilité (1/3). – Archives des mondes contemporains, 14/10/15

Fradin, Andrea. – Premier bug : la fouille automatique de données es adoptée.Rue89/L’Obs, 21/01/16

Oury, Antoine. – France : une mission pour faciliter la fouille et l’exploration de textes et de données. – Actualitté, 21/01/16

La circulation des données et du savoir. Projet de loi pour une République numérique adopté par l’Assemblée nationale en première lecture. – Assemblée nationale, 26/01/16

Cross, William M. – Libraries support data-sharing across the research lifecycle. – Librairy Journal, 01/02/16

Langlais, Pierre-Carl. – Text-mining : une licence nationale contre l’exception ? - Sciences communes, 19/02/16

Bordignon, Frédérique. – Le text-mining comme service aux chercheurs.CarnetIST, 05/03/16

Pour une science ouverte à tous. – Le Monde, 08/03/16

Ilien, Gildas. – Transition bibliographique : la revanche des données ?Archimag, 14/03/16

 

 

Numérique : quelques prévisions pour 2016

mail-delivery-what-1900-french-artists-thought-the-year-200-would-be-likeRien de particulièrement révolutionnaire dans les différentes prédictions pour 2016. Les principales tendances amorcées ces dernières années se confirment : prépondérance des appareils mobiles, cloud et mégadonnées, automatisation et intelligence artificielle, notamment avec l’internet des objets et les villes connectées. On retrouve l’essentiel des prédictions tech/médias du rapport Deloitte pour 2015, cité par Barbara Chazelles dans Méta-média : abandon de la télévision par les jeunes au profit des vidéos sur mobiles et généralisation des paiements mobiles ; renouvellement des smartphones (phablettes) ; internet des objets, imprimantes 3D et drones (surtout pour les entreprises). En revanche, les e-books ne décollent toujours pas, le livre papier conservant la préférence des lecteurs !

objets-connectesLa sécurité des protocoles et des applications va devenir le grand défi dans le contexte des mégadonnées et de l’internet des objets comme le souligne Mike Martin, responsable de la société d’engineering internet Nfrastructure, dans l’interview accordée à ITBriefcase.

Au niveau de l’enseignement et de la formation, les Moocs et la formation en ligne et à distance investissent la formation professionnelle. L’intelligence artificielle pénètre aussi le champ de l’éducation avec la présence d’algorithmes qui vont intégrer l’école et l’Université pour évaluer la progression des apprenants tout en recueillant une quantité importante de données personnelles, comme l’évoque Audrey Watters dans The algorithmic future of education

1200px-france_in_xxi_century._school1Enfin, les représentations visuelles évoluent aussi, c’est ce que démontre la banque d’image Getty Image avec les tendances 2016 Creative in Focus, expliqué par Alice Pairo dans Méta-Média : 6 types d’images se profilent pour 2016 : l’outsider, le divin, l’homme augmenté, le disgracieux, la solitude et le surréalisme ….!

Bonnes fêtes et meilleurs voeux pour 2016 !

prédictions-1900-futur-e1365458441758

Chazelle, Barbara. – 10 prédictions tech/médias pour 2015 (Deloitte). – Méta-média, 04/02/15

Watters, Audrey. – The Algorithmic Future of Education. – Hackeducation, 22/10/15

IT Briefcase Exclusive Interview : Top IOT Trends and Predictions for Organizations in 2016. – IT Briefcase, 02/12/15

Pairo, Alice. – Social media : 10 tendances pour 2016. – Méta-média, 06/12/15

Les villes intelligentes connecteront 1,6 milliards d’objets communicants en 2016. – L’embarqué, 08/12/15

Économie du numérique : Axway dévoile 10 prévision pour 2016. – Axway, 08/12/15

Noirfontaine, Elisabeth. – L’internet des objets, allié des ressources humaines ou outil de déshumanisation du travail ?Usine digitale, 22/12/15

Larcher, Stéphane. – Google travaille sur une messagerie instantanée dopée à l’IA et aux chatbots. – L’informaticien, 23/12/15

Cavazza, Frédéric. – Mes 10 prédictions pour 2016. – FredCavazza, 23/12/15

Pairo, Alice. – 6 tendances visuelles pour 2016. – Méta-média, 23/12/15

Ezratty, Olivier. – Méta-prédictions pour 2016. – Opinions libres, 27/12/15

Staypressed theme by Themocracy