Posts tagged: Professionnels de l’information

Défiance du public, concurrence des réseaux sociaux et fin du modèle économique : quel avenir pour le journalisme ?

kisspng-freedom-of-the-press-journalism-news-media-freedom-5af8ca43afa019.5199593915262541477194Alors qu’en France les médias sont attaqués de toutes part, aussi bien par les partis extrêmes et le mouvement des « Gilets Jaunes » que par le Président de la République sans parler du scandale de la « Ligue du LOL », au Royaume Uni, un rapport commandé par le gouvernement, s’inquiète de l’avenir de ce secteur et préconise un certain nombre de mesures « pour un futur durable du journalisme ».

Si elle se révèle aujourd’hui de façon criante, la crise de cette profession existe depuis plusieurs années. En 2004, nous avions réalisé à la Bibliothèque de Sciences Po un dossier documentaire sur ce sujet, présentant déjà des préoccupations semblables : éthique et déontologie, émergence de nouveaux médias, fragilisation du modèle économique. « Manipulateur-manipulé, le journaliste dispose-t-il encore du pouvoir dont on le crédite ? Participe-t-il à cette fabrique de l’opinion où tous les sujets sont passés au tamis du système médiatique ? […] Comme dans d’autres secteurs, celui des médias subit une restructuration qui fragilise l’emploi et se traduit par une précarisation de la profession. L’évolution technologique touche au cœur même du métier ».

L’impact de l’internet et la fin du modèle économique des médias traditionnels

Le rapport Cairncross, du nom de la journaliste chercheure chargée de sa réalisation, souligne l’impact de l’arrivée d’internet sur le modèle économique de la presse en Grande-Bretagne : « Avec la baisse drastique des revenus publicitaires sur format papier, elle a encore du mal à compenser les pertes sur le numérique. Les revenus publicitaires étant principalement captés par les géants du web, elle a dû faire des économies. C’est-à-dire au détriment des investissements qu’elle aurait pu faire pour accompagner sa transformation digitale ou encore en rognant sur les coûts de l’information (- 6000 journalistes depuis 2007 au Royaume Uni). » (Alexandre Bouniol dans Meta-Media). Les deux types de journalisme les plus touchés sont le journalisme d’investigation (trop cher) et la presse locale. On constate une contraction des contenus locaux, donc une baisse d’implication dans la vie politique et sociétale … L ’arrivée du smartphone s’accompagne d’une baisse drastique de la distribution des quotidiens nationaux qui passent de 11, 5 millions d’exemplaires en 2008 à 5,9 millions en 2018. Le nombre de quotidiens locaux passe de 1303 à 982 entre 2007 et 2017. réseaux-sociaux-et-journalisme

L’émergence des ‘pure players’ comme Buzzfeed ou le Huffpost de même que le passage par des plateformes d’information comme Google News, Apple News et Facebook, changent complètement le comportement des lecteurs pour accéder à l’information. En passant par ces plateformes, le lecteur n’a plus accès à un ‘panorama’ de l’information comme dans un journal. L’accès se fait article par article suivant un algorithme construit à partir des données de l’utilisateur. « Les informations d’intérêt public sont celles qui émergent le moins sur les plateformes. Les algorithmes ne sélectionnent pas la pertinence d’un contenu mais récompensent les contenus qui se partagent le plus. ». Cette ‘désagrégation de l’information’ « fait que les adultes britanniques passent de moins en moins de temps à s’informer et se sentent submergés par le flot de l’information ».

En France aussi, la presse et les médias traditionnels intéressent de moins en moins le grand public. Le dernier Baromêtre de la Croix le confirme. Dans cette enquête, les Français montrent une vraie défiance envers les médias. La télévision recule de 10 points (38%), la radio de 6 points (50%) et la presse écrite de 8 points (44%%). Quant à internet, il est jugé fiable par 25% des sondés… Comme le souligne Thierry Wojciak de Cbnews, « l’étude met au jour un paradoxe « les médias auxquels les Français accordent le moins de confiance sont ceux qu’ils utilisent le plus pour s’informer. » La télévision reste en tête (46% des sondés) devant internet (29%). Mais ce qui est inquiétant c’est que moins de la moitié des jeunes 18-24 ans prêtent intérêt aux nouvelles, alors que près des trois quarts des plus de 65 ans (74%) s’y intéressent encore. L’enquête a aussi étudié la perception du traitement médiatique du mouvement des Gilets jaunes. Moins d’un tiers du panel (32%) se disent satisfaits de la couverture médiatique du mouvement, alors que 51% la jugent mauvaise. Il leur est reproche d’avoir « dramatisé les évènements » (67%), trop laissé s’exprimer un point de vue extrême (52%), ne pas avoir permis de « bien comprendre » (54%). La violence envers les journalistes est justifiée pour 23% des personnes interrogés, tandis que 32% la condamnent et 39% ne la jugent pas « vraiment justifiée ».

Par ailleurs, pour nombre de « Gilets jaunes », seuls deux médias, en dehors de leurs cercles sur les réseaux sociaux, ont grâce à leur yeux, RT, la chaîne d’information d’influence russe, et Brut, une chaine vidéo aux commentaires très ‘factuels’.

Lutte contre les infox et déontologie de l’information MédiasNePasAvalerDésinfoBON

Le rapport Cairncross dénonce aussi le manque de clarté pour distinguer les informations vérifiées des infox. Pour remédier à cela le rapport propose plusieurs solutions : rendre responsables juridiquement les plateformes, que la rapporteuse trouve elle-même assez délicat ; introduire dans l’algorithme un quota d’informations de bien public afin que tout le monde ait accès à ce genre de contenus ; mettre en place une instance de régulation qui rendrait compte de la qualité d’information diffusée sur ces plateformes.

On retrouve cette préoccupation en France, où le Président Macron voudrait introduire un contrôle des médias, comme le rapporte Claude Askolovitch dans Slate. Le Président voudrait « s’assurer de la neutralité et vérifier l’information dans les médias, en créant des structures financées par l’Etat qui contrôleraient médias publics et privés, structures nantis de journalistes qui seraient les ‘garants’ de l’affaire ». Claude Askolovitch continue en ironisant « Notre Président veut mettre le journalisme sous tutelle, telle une classe sociale assistée […] La liberté s’épanouira sous la contrainte ? Son organe de vérification s’imposera-t-il à la presse ? Les journalistes qui lui seront affrétés deviendront-ils nos supérieurs et nos gardiens, nos censeurs, les auxiliaires du pouvoir, de l’Etat ? ». Cela risque, comme pour la loi sur les Fake news, de remettre en cause de la liberté d’expression en introduisant une dose de censure et surtout se pose la question « qui va contrôler les contrôleurs ? ».  images

Plus concrètement, des syndicats de journalistes ainsi que d’autres instances de l’édition, notamment l’Observatoire de la déontologie de l’information préconisent la création d’un  Conseil de presse. Ce projet, qui réunirait aussi bien des journalistes, des éditeurs et des représentants du public, aurait comme objectif de gérer et instruire les plaintes mais aussi de proposer des orientations en matière de déontologie. Il  pourrait s’appuyer sur le rapport, « Autorégulation de l’information : comment incarner la déontologie ? », réalisé en 2014 par Marie Sirinelli et le Ministère de la Culture. Cette idée est encore controversée dans le milieu journalistique et les médias, mais est soutenu par une personnalité comme Jean-Luc Mélenchon qui déplore qu’on ne dispose que de la justice pour « faire appliquer une sanction pour dissuader de recommencer ».

Or, ce sont souvent les rédactions qui s’opposent à la mise en œuvre d’une telle instance, c’est ce que soulignent les intervenants  de l’émission « Faut-il noter les journalistes ? » (Du grain à moudreFrance Culture) alors que souvent il existe déjà une charte déontologique dans les organes de presse (Les Echos, Radio France). « C’est à chaque rédaction de prendre son destin en main […] il faut que tous les rédacteurs soient capables de se défendre des pressions des actionnaires » soutient François Ernenwein, rédacteur en chef de La Croix, « Il faut donner aux rédactions les moyens de se défendre contre certaines pressions (loi Bloche, Secret des affaires) pour Leila de Cormamond, journaliste sociale aux Echos

charte-580x445Regagner la confiance du public et construire un journalisme de qualité

La crise des Gilets jaunes a révélé en France la défiance d’une importante partie du public vis-à-vis des médias et des journalistes. Certains se sont lancé dans une autocritique de leurs pratiques comme les rédacteurs réunis dans le dossier de Libération. Dans ce dossier, les journalistes se soumettent à un « examen de confiance ». Les 25 professionnels de l’information se demandent « s’ils ne méritent pas une partie de la méfiance qu’ils inspirent et que la terrible pression qui plombe le secteur des médias et contraint la bonne pratique du métier, ne sert pas d’argument refuge à tous les reproches ». Les journalistes ont conscience de leur uniformité sociale et culturelle, et que, hormis les pigistes et les CDD, il font plutôt partie de la couche moyenne-supérieure de la société (la fameuse ‘élite’ intellectuelle, honnie par le ‘peuple’). Cet ‘entre-soi’ pourrait aussi expliquer le succès de groupes comme la Ligue du LOL, où de brillants journalistes (blancs, males et très parisiens) harcèlent leurs consœurs sur les réseaux sociaux. Les journalistes reconnaissent qu’ils ne ‘s’adressent pas à la masse des gens’. Comme l’exprime Jean-Emmanuel Decoin, rédacteur en chef de l’Humanité «La presse écrite ne raconte pas la vraie vie des gens et on le prend en pleine gueule aujourd’hui. […] Où raconte-t-on la souffrance, la vie derrière les murs des entreprises ? ». De plus, la majorité des journalistes résident dans la région parisienne (20 000 des 35 000 cartes de presse). « Hors de Paris, la presse nationale se donne de moins en moins les moyens d’enquêter. dit Sylvain Morvan, de Médiacités. La presse régionale aussi ferme des antennes locales. Des villes petites et moyennes deviennent des déserts médiatiques. L’actualité locale est moins bien traitée, les journaux perdent en qualité. Il est probable que cela joue sur la défiance ».

Expliquer comment on travaille et on débat comme le suggère Amaelle Guitton de Libération, c’est aussi l’objectif de Pierre Ganz de l’ODI. « Beaucoup de gens ne savent pas comment on fabrique l’information. Les choix éditoriaux sont libres et différents de problèmes de déontologie. ». Car s’il existe un besoin de représentation et d’explication dans le public, il existe aussi un besoin d’interpellation.  « Le désir de noter les journalistes vient de personnes qui estiment que les journalistes traitent trop peu souvent de leurs vies, de leurs combats. Il a fallu que les Gilets jaunes descendent dans la rue pour qu’on parle d’eux. Il faudrait pas laisser le soufflé tomber » souligne Pierre Ganz. Le public identifie l’ensemble des journalistes à quelques personnalités : il faut diversifier la formation des journalistes et par exemple développer le journalisme scientifique comme le préconise Olivier Dessibourg dans Meta-média. « Beaucoup de journalistes considèrent que leur rôle est de dire le bien et le mal, comment il faut penser » remarque Natacha Polony, directrice de Marianne. C’est aussi l’avis de Brice Couturier, chroniqueur à France Culture « Avant, nous avions le monopole de l’information. Désormais, l’information nous devance sur les réseaux sociaux. Nous avons réagi en idéologisant à mort, en devenant des directeurs de conscience. Mais en réalité, un journaliste a peu de compétences, il est généraliste, car on n’approfondit pas les sujets en école de journalisme ».

Une des nouvelles pistes possibles est le ‘journalisme de données’. L’analyse qualitative de données est encore peu courante dans le journalisme, comme le constate Bruno Breton dans Les Échos. A l’exception de quelques initiatives pionnières comme « les Panama Papers ou les Paradise Papers à l’occasion desquelles  l’ICIJ (consortium international des journalistes d’investigation) a agrégé des millions de données pour épingler certains paradis fiscaux, la presse reste frileuse. ». L’utilisation des données publiques, issues par exemple, des réseaux sociaux pourrait être un atout éditorial puissant dans le travail des journalistes, surtout si elles ont été traitées avec des outils adéquats. Cet argument est aussi avancé dans l’émission Soft Power de Frédéric Martel sur France Culture. « Avec la généralisation d’internet, l’accumulation exponentielle des données et la puissance inédite des réseaux sociaux, on assiste à une démultiplication des sources numériques disponibles. Les journalistes s’en emparent : ce sont de nouveaux outils de recherche ; de nouveaux terrains d’enquêtes ; de nouveaux types d’enquêtes et d’écritures. »

 « Il faut en revenir aux faits » comme le soutien Géraldine Mulhmann dans une interview sur Rue89 « Il ne s’agit pas d’invoquer un idéal d’’objectivité’ sans précaution ni doutes.[…] Il s’agit juste de dire que le ‘je’ d’un reporter entre en compte d’une manière toute à fait différente, dans son reportage, que le ‘je’ d’un éditorialiste ». Cela ne signifie par autre chose que l’impératif pour le journalisme, de « faire du journalisme et de le faire bien ». Retrouver le rapport tangible aux faits au lieu de se contenter d’un rapport souvent ‘virtuel’.  « Il est important que le public comprenne qu’il y a une différence entre un lieu de pure expression ou d’opinion et un lieu qui veut donner de l’information. […] Faire voir à quel point il y a un monde entre une rumeur même très puissante sur internet et une enquête minutieuse et soigneusement racontée ».

On retrouve ce manque d’analyse sérieuse dans les menées de la « Ligue du Lol ». Comme le souligne la linguiste Laélia Véron dans la table-ronde d’Arrêt sur images « Ces gens qui sont censés maîtriser la langue ne les ont jamais attaqués sur le fond. Il n’y a jamais eu de débat d’idées ».

Les journalistes pourraient aussi s’inspirer du succès de Rémy Busine, le créateur de Brut, très populaire auprès des Médias-1Gilets jaunes, comme le fait remarquer Nicolas Bequet du quotidien Belge l’Echo « Proximité, écoute, humilité et simplicité, voilà ce qui caractérise son attitude face aux manifestants. L’exercice du ‘live’ façon Brut est une forme de retour aux sources, une interprétation des nombreuses missions dévolues aux journalistes : regarder, s’étonner et restituer. Le tout à hauteur d’homme. Une approche à l’antithèse de la perception qu’ont les classes populaires des médias dits traditionnels ».

Nouveau terrains, nouvelles pratiques pour le journalisme. – Soft PowerFrance Culture, 03/03/19

Faut-il noter les journalistes ?Du grain à moudre- France Culture, 28/02/18

Bouniol, Alexandre. – Les principales leçons du rapport britannique sur l’avenir du journalisme. – Méta-Média, 22/02/19

Doctor, Ken. - The New York Times’Mark Thompson on how he’d run a local newspaper: « Where can we stand and fight?NiemanLab.org, 22/02/19

Ganz, Pierre. – Un débat citoyen sur les médias. – Observatoire de la Déontologie de l’Information, 20/02/19

« Il ne faut pas jeter le LOL avec l’eau du bain ». – Arrêt sur image, 15/02/19

The Caincross Review: a sustainable future for journalism/Department for Digital, Culture, Media & Sport. – Gov.UK, 12/02/19

Lamy, Corentin. – Journalistes, réseaux sociaux et harcèlement : comprendre l’affaire de la Ligue du LOL. – Le Monde, 10/02/19

Askolovitch, Claude. – Emmanuel Macron, le journalisme de cour et le contrôle des médias. – Slate, 03/02/19

Littau, Jeremy. – The Crisis Facing American Journalism did not start with the Internet. – Slate, 26/01/19

Carasco, Aude. – Baromètre médias, les journalistes sommés de se remettre en cause. – La Croix, ma 25/01/19

Ferney, Jeanne. – Actualité : entre jeunes et séniors, le grand écart. – La Croix, 24/01/19

Wojciak, Thierry. – La confiance des Français dans les médias: la TV, la radio et la presse écrite pointées. – CBNews, 23/01/19

Ce que pourrait être un Conseil de presse : les propositions de l’ODI. – Observatoire de la Déontologie de l’Information, 23/01/19

Autocritique des médias : l’examen de confiance. – Libération, 19/01/19

Lefilliâtre, Jérôme. – De la critique des médias à la passion de l’immédiat. – Libération, 04/01/19

Bellanger, Anthony. – Un projet controversé de Conseil de presse en France. – Le Monde diplomatique, décembre 2018

Cahier de tendance Automne-Hiver : bientôt l’ère des post-news ?Meta-Media, 17/12/18

Dessibourg, Olivier. – Pourquoi il faut miser sur le journalisme scientifique. – Meta-Media, 17/12/18

Géraldine Mühlmann : « Revenir aux fondements du journalisme moderne ». – Rue89, 16/11/18

Breton, Bruno. – Le data journalisme, une chance pour la presse. – Les Échos, 24/05/18

Autorégulation de l’information : comment incarner la déontologie/Marie Sirinelli ; Ministère de la culture et de la communication. – Rapports publics – La Documentation française, février 2014

Quel avenir pour le journalisme ? Crise structurelle ou évolution de la profession. – Dossier documentaire. – Sciences Po – La Bibliothèque, Juin 2004

 

Une loi contre les « fake news » : quelle efficacité ?

fake_news_facebookAnnoncée par le Président de la République lors des vœux à la presse en janvier 2018  la proposition de loi relative à la lutte contre la manipulation de l’information a été adoptée à l’Assemblée nationale le 7 juillet mais rejetée par le Sénat le 26 juillet. Ce projet de loi a pour objectif de lutter contre la diffusion de fausses informations, particulièrement lors des campagnes électorales. L’expérience de diffusion massives de ‘fake news’ qui ont pu influencer les électeurs lors de la campagne présidentielle américaine en 2016 et du referendum sur le Brexit en Grande-Bretagne, (voir le post de Prospectibles), a amené les démocraties à réfléchir aux mesures à prendre pour lutter contre la désinformation et la manipulation de l’information.

La Commission européenne recommande, après la publication d’une communication sur la désinformation en ligne, un code bonnes pratiques et le soutien à un réseau indépendant de vérificateurs de faits. En Allemagne, une loi récente contraint les réseaux sociaux à une modération réactive. Au Royaume-Uni, une commission d’enquête mise en place en 2017 a pour objectif de lutter contre la diffusion de fausses nouvelles en impliquant les GAFA.

En France, comme le constatait dans son avis du 19 avril le Conseil d’Etat, le droit français contient déjà plusieurs dispositions visant à lutter contre les fausses informations : la loi de 1881 sur la liberté de la presse permet de » réprimer des propos sciemment erronés, diffamatoires, injurieux ou provocants ». La Loi de 2004 pour la confiance de l’économie numérique les a rendus applicables aux services de communication publique en ligne. Le code électoral contient aussi des dispositions visant à garantir le bon déroulement des campagnes électorales en luttant aussi bien contre la diffusion des fausses nouvelles que contre la publicité commerciale à des fins de propagande électorale.

La proposition de loi

Le gouvernement explique la nécessité d’une nouvelle loi en raison du changement d’échelle de la diffusion des fake news permis par les outils numériques et les réseaux sociaux. Comme le souligne Françoise Nyssen, Ministre de la culture et de la communication « Les fausses informations ne sont pas nécessairement plus nombreuses qu’avant, mais elles sont relayées plus rapidement et plus massivement. Elles se propagent jusqu’à six fois plus vite que les informations vérifiées. Elles font donc plus de dégâts ».

Dans la proposition de loi « Toute allégation ou imputation d’un fait inexacte ou trompeuse constitue une fausse information ». Les opérateurs de plateformes en ligne sont tenus de fournir à l’utilisateur, outre une information sur l’identité des fournisseurs de contenus, « une information loyale, claire et transparente sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ».

Elle crée un nouveau référé, pendant les trois mois précédant une élection, pour faire cesser la diffusion artificielle et massive de fausses informations destinées à altérer la sincérité du scrutin. Il s’agit de lutter contre les contenus sponsorisés et les systèmes robotisés, les « fermes à clics », qui véhiculent ces fausses informations et qui le feraient sciemment, en sachant que l’information est fausse.

Mais surtout, le juge des référés peut, « à la demande du ministère public, de tout candidat, de tout parti ou groupement politique ou de toute personne ayant intérêt à agir, et sans préjudice de la réparation du dommage subi, prescrire aux personnes physiques ou morales toutes mesures proportionnées et nécessaires pour faire cesser cette diffusion. » Comme le souligne le dossier d’actualité Vie publique « Un candidat ou un parti pourrait saisir le juge des référés pour faire cesser la diffusion de ces « fausses informations » quand il s’en estime victime. Le juge statuerait dans un délai de 48 heures. » Le CSA se voit confier de nouvelles compétences et devient le garant du devoir de coopération des plateformes. Outre son pouvoir de sanction à l’encontre des services de communication audiovisuelle (radio, télévision, vidéos à la demande publics et privés) en cas de non-respect de leurs engagements, le CSA pourra aussi « refuser le conventionnement ou résilier une convention d’une chaîne liée à un État étranger ou sous son influence. » Il peut aussi » suspendre la convention d’une chaîne pendant une période électorale ou pré-électorale si elle participe à une entreprise de déstabilisation en diffusant de façon délibérée des fausses informations de nature à altérer la sincérité du scrutin. »

Enfin, le projet de loi comprend aussi des dispositions portant sur le renforcement de l’éducation aux médias et à l’information pour l’acquisition d’une citoyenneté numérique dans le cadre de l’enseignement moral et civique.

censorship-550x206Le débat

La proposition de loi a fait l’objet d’un débat houleux à l’assemblée avant son adoption, notamment en ce qui concerne la définition de fausse information qui s’est achevé par l’adoption d’un amendement remplaçant l’idée de « mauvaise foi » par celle d’intention « délibérée ». Les oppositions de droite et de gauche ont exprimé leurs réticences « Pour les élus de l’opposition, la proposition de loi serait synonyme de censure et de contrôle de l’information, voire d’une dérive autoritaire du pouvoir. Christian Jacob (député LR) craint une « police de la pensée », Marine Le Pen (FN) dénonce un texte « liberticide », Boris Vallaud (PS) une « loi de circonstances ». (Dossier Vie Publique). Pour Jean-Luc Mélenchon (LFI), le CSA, autorité administrative, n’est pas légitime pour juger si un média étranger outrepasse sa fonction …

Des juristes et des médias critiquent aussi ce texte, comme Christophe Bigot, avocat en droit de la presse, interviewé sur RT France, qui trouve ces méthodes archaïques ; ou Me Thierry Vallat, avocat au barreau de Paris qui dans un interview sur RT France, s’interroge sur la notion de fausse information, qui renvoie plutôt à ‘bon ou mauvais journaliste’ : pour lui le gouvernement cible la chaîne RT France. En ouvrant au CSA la porte d’internet, on ignore ce qui risque de se passer après. Comment pourra-t-il réguler les plateformes ? Cette loi « inapplicable et dangereuse » ouvrirait la boite de Pandore. Sur son blog du Figaro, Alain Bensoussan, avocat à la Cour d’appel de Paris et expert en droit des technologies de l’information suggère « Plutôt que légiférer dans l’urgence, il faut repenser le texte en encadrant le rôle des plateformes et des robots logiciels dans la diffusion de fausses informations. »

De la propagande à l’architecture du faux : les différents canaux du ‘fake’

La prolifération des fausses nouvelles ne date pas d’hier : Patrick Chastenet, professeur de science politique à Bordeaux, le rappelle dans son article de The Conversation ; la propagande et la manipulation de l’information ont été utilisées par le tyran Pisistrate au Vie siècle avant J.C.  Comme le remarque un partisan du Brexit, les électeurs préfèrent que l’on s’adresse à leurs tripes plutôt qu’à leur raison … Aux Etats-Unis, les messages politiques mensongers n’ont pas commencé avec Trump. Déjà, en 2008, Sarah Palin, candidate à la vice-présidence, répandit l’idée que la réforme du système de santé prévoyait des ‘death panels’ où des comités gouvernementaux décideraient du sort des personnes âgées ou handicapées ! Près de 30% des américains ont cru que ces « panels » faisaient partie de la réforme … Le site Politifact révèle que 70% des déclarations de Trump « étaient principalement fausses, fausses ou de pure invention ».  A présent, comme l’indique l’article du Washington Post, c’est Donald Trump lui-même qui s’estime victime de ‘fake news’ de la part des médias et même du moteur de recherche Google qui ne remonterait sur lui que des informations négatives si bien qu’un de ses conseiller économique propose de ‘réguler’ ces recherches !

Les Américains sont-ils donc plus crédules que les autres ? Ils sont surtout plus connectés et plus nombreux à s’informer en ligne et principalement sur les réseaux sociaux. La nouveauté réside dans le caractère viral des informations, vraies ou fausses, relayées sur les réseaux sociaux et les forums de discussion. Contrairement aux théories généreuses des pionniers du web, les internautes ne bénéficient pas de « démocratie numérique » fondée sur un accès égal pour tous à la connaissance. Alors que la masse d’information n’a jamais été aussi vaste et rapidement disponible, l’information non filtrée par des algorithmes devient plus rare en raison de nos choix antérieurs. En effet, nos recherches antérieures et nos choix sur les réseaux sociaux (likes, RT, etc.) nous enferment dans des boucles de filtres qui produisent un cercle vicieux dont nous ne sommes souvent pas conscients … 1d162bf19fb6e1f83aa71ed060459d59d872aee3-thumb-500xauto-64860

Comme le souligne Olivier Ertzscheid dans son post, les plateformes constituent « une architecture toxique au service du faux […] Et cette architecture est celle, visible, de la promiscuité des profils dans Facebook, comme elle est aussi celle, invisible, de l’orchestration algorithmique de la viralité qui unit les GAFAM. ». Cette ‘promiscuité’ sur les plateformes implique qu’il est impossible de ne pas propager de fausses informations, comme il est impossible de ne pas y être confronté ou exposé …

Cette architecture du faux, qui se double aussi d’une architecture de l’invisibilisation – les ‘Shadow Profiles’ (utilisateurs malgré eux des réseaux sociaux) et les ‘Dark posts (publicités ciblées sur Facebook à partir des données personnelles). Seule une architecture technique autorisant d’autres usages, comme un index indépendant du web, en remettant les ressources documentaires au centre à la place des personnes. La disparition de Google Reader et la fin programmée des fils RSS n’est pas un hasard et est corrélée avec des logiques de désinformation.

Les biais cognitifs et la question de la confiance

51fmZrX204L._SX195_Olivier Ertzscheid pointe aussi une autre raison : nos biais cognitifs « Nous avons une appétence, une gourmandise presque « naturelle » pour le faux, la tromperie et l’illusion. Et c’est de cette appétence dont l’architecture technique se repaît ».

C’est aussi ce que souligne Katy Steinmetz dans un article de Time. Dans une expérience menée par le chercheur en psychologie de l’Université de Stanford Sam Wineburg, un professeur d’université devant évaluer une publication scientifique de l’American College of Pediatricians, est abusé par un site web qui comporte toutes caractéristiques d’un site officiel. Le « .org » à la fin de l’url, la liste de références scientifiques, le design sobre du site, tout l’amène à la crédibilité. Or le site en question représente un groupe qui a est le produit d’une scission conservatrice de l’organisation officielle : il a été accusé de promouvoir des politiques homophobes et est classé comme discriminatoire (hate group). L’équipe de Wineburg a trouvé que des Américains de tous âges, des adolescents ‘digital natives’ aux universitaires de haut niveau, ne se posent pas les questions importantes au sujet des contenus qu’ils trouvent sur le web, ajoutant encore à la crédulité numérique. C’est aussi ce qui amène les internautes à retweeter des liens sans les ouvrir et à se reposer sur les moteurs de recherche. Pour Wineburg, la consommation d’information sur internet « C’est comme si on conduisait des voitures sans avoir de permis ». Même si des lois et des services de renseignement pouvaient débusquer tous les mauvais acteurs du bout de leurs claviers, il serait imprudent de nettoyer l’internet de toutes ses affirmations trompeuses … Dénoncer une information comme ‘fake news’ peut même la rendre plus populaire, C’est ce que Facebook a constaté lorsque le réseau social a alerté ses utilisateurs que certains posts pouvaient être des ‘hoaxes’ (canulars) avant de réaliser que cette approche ‘immunisante’ pouvait être contre-productive …

On retrouve cet aspect contre-productif du ‘débunkage’ (démystification) des ‘hoaxes’ avec le service de fact-checking de l’AFP. Aurore Gayte relate dans son article du Monde comment ce service a réussi à démystifier une vidéo très partagée sur internet censée représenter la mise en scène de migrants en train de se noyer (on voit des personnes sur la plage filmant des hommes et des femmes voilées émergeant à peine de l’eau). Les journalistes de l’AFP ont pu retrouver, grâce à une analyse détaillée de la vidéo, l’origine de ce document : il s’agit d’un documentaire tourné en Crête par une réalisatrice grecque sur un événement en Turquie en 1922, quand les Grecs ont fui l’incendie d’Izmir. Et pourtant, « même en étant une référence mondiale, et même après avoir expliqué point par point le raisonnement derrière un fact-checking, ils sont nombreux à ne toujours pas vouloir croire ce que dit l’AFP. »

Olivier Ertzscheid désigne aussi une autre raison : les ‘régimes de vérité’ de chaque plateforme : « la popularité pour Google (est « présenté comme vrai » ce qui est populaire), la vérifiabilité sur Wikipédia, et sur Facebook ce que l’on nomme « l’engagement » ou le « reach » c’est à dire une forme singulière, perverse et paroxystique de popularité. Ainsi ce qui est faux sur Google ou sur YouTube peut être vrai dans Wikipédia ». Avec ces différents régimes, il est difficile de départager le vrai du faux et aussi dangereux de se servir de l’un, par exemple Wikipedia pour en démentir un autre, par exemple YouTube … Pour le chercheur « Le dé-référencement à la hussarde est aussi efficace qu’il est à manier avec une extrême précaution tant il renforce là encore un régime d’arbitraire limité à la seule décision de la plateforme ».

L’éducation à l’information et aux médias semble être la principale solution à long terme. L’initiative de la journaliste Aude Favre avec sa chaîne YouTube « WTFake » contre la désinformation sur internet, signalée par Vincent Manilève dans Libération constitue une première réponse au niveau du grand public. Pour les étudiants, les ateliers comme celui des BU de Rennes sur l’évaluation de l’information et le problème des fake news en bibliothèque, rapporté par Damien Belveze (Doc@rennes) devrait pouvoir se multiplier. Comme l’a formulé Edward Snowden dans une interview citéé dans le Fil d’Actu « la réponse aux mauvais discours n’est pas la censure, mais plus de discours ».

xfakenews_0.jpg.pagespeed.ic_.232PSP6q2x

Pour l’avocat Christophe Bigot, « la loi sur les fakes news correspond à des méthodes archaïques. - RT France, 04/04/18

Parce que notre ligne éditoriale ne convient pas au pouvoir en place, serons-nous bientôt censurés ?RT France, 06/04/18

Ertzscheid, Olivier. - Fifty Shades of Fake. Le jour des fous et des mensonges. Et les 364 autres.Affordance.info, 22/04/18

Kodmani, Hala. – Russia Today, Sputnik … Un mois d’intox passé au crible. – Libération, 03/05/18

Deschamps Christophe. – Des faits alternatifs à la « Deep Fake Reality » ou comment on fabrique de la poudre aux yeux. – Outils froids, 04/05/18

Loi contre les fausses informations : l’avis du Conseil d’Etat. – Les Crises, 05/05/18

Belvèze, Damien. – Compte-rendu de l’atelier : comment aborder l’évaluation de l’information et le problème des fake news en bibliothèque ? (17/05/18). – Doc@Rennes, 23/05/18

Casilli, Antonio ; Devilliers, Sonia. – Comment se fabriquent les « fake news » ?France Inter, 08/06/18

Chastenet, Patrick. – Fake news, post-vérité … ou l’extension du domaine de la propagande. - The Conversation, 12/06/18

Fausses nouvelles, manipulation de l’information : comment lutter contre les fake news ? Dossier d’actualité - Vie publique, 20/06/18

Manilève, Vincent. – Aude WTFake pedago contre la désinformation sur Internet.Libération, 02/07/18

Proposition de loi relative à la lutte contre la manipulation de l’information : texte adopté n° 151. – Assemblée Nationale, 03/07/18

Les enjeux de la loi contre la manipulation de l’information. – Ministère de la Culture, 04/07/18

Vallat, Thierry. – La loi anti-fake news, une loi « liberticide » : entretien. – RT France via YouTube, 04/07/18

Bensoussan, Alain. -Diffusion de fausses nouvelles par des robots logiciels, enjeu de la loi Fake news. – Droit des technologies avancées – Le Figaro, 20/07/18

Steinmetz, Katy. – How your brain tricks you into believing fake news. – Time, 09/08/18

Gayte, Aurore – Comment fonctionne le « fact-checking » à l’AFP ?Le Monde, 23/08/18

Romm, Tony. – Trump’s economic adviser : ‘We’re taking a look’ at wether Google searches should be regulated.The Washington Post, 23/08/18

 

Evolution des bibliothèques : où en est-on ?

4175783446_7e32581cf5_bLa fin des bibliothèques, souvent annoncée (presque autant que la fin du travail !), ne semble pas  encore réalisée. Au contraire, la dernière Enquête sur les publics et les usages des bibliothèques municipales du Ministère de la culture indique une augmentation de la fréquentation des bibliothèques publiques (40% des Français de plus de 15 ans contre 35% en 2005). Si toutes les bibliothèques ne sont pas devenues des ‘learning centres’ ou des ‘leisure centres’ comme dans d’autres pays, un certain nombre de mutations sont à l’œuvre, aussi bien dans les bibliothèques universitaires et de recherche que dans les BM et les médiathèques grand public.

Ces évolutions concernent autant l’offre d’activités des bibliothèques que les transformations plus profondes des métiers et des pratiques de l’information-documentation.

L’innovation est le maître-mot, comme le rappelle Clémence Jost dans Archimag en évoquant le thème central du Congrès de l’ABF en 2016 « L’innovation en bibliothèques ». Pour repenser la bibliothèque, Christine Tharel-Douspis, cite dans le BBF la « Bibliothèque en [r]évolution », thème de la Journée Régionale de la Commission lecture publique de Mobilis organisée en partenariat avec l’ENSSIB. Au programme, réseaux sociaux, usages différents et mouvants, BiblioRemix, co-construction, design thinking, expérience utilisateur, etc.

Diversification et offre de pratiques innovantes

Un certain nombre de bibliothèques ont introduit de nouveaux outils ou de nouvelles pratiques à destination des publics. Outre les incontournables ‘fablabs’, on trouve aussi :

  • Un kiosque qui distribue de courtes nouvelles rédigées par les étudiants à la Penn State University Library
  • Des « feuilletoirs» numériques (écrans tactiles insérés dans les rayonnages donnant accès aux 132 000 documents des collections en magasins) à la Bibliothèque Alexis de Toqueville à Caen
  • Des animations de réalité virtuelle avec casques à la Médiathèque Federico Fellini de Montpellier et à la bibliothèque de la Manufacture de Nancy FabLab
  • « Les Yeux docs », plateforme de vidéos documentaires à la BPI
  • Labo2 : laboratoire des usages numériques à la BM de Nantes : écriture, jeux vidéo, créations numériques, outils cartographiques
  • Une « grainothèque» à la BM Aimé Césaire de Villeneuve-La-Garenne : chacun peut apporter son sachet de graines dans un espace dédié où d’autres « semeurs » peuvent se servir gratuitement.
  • Un concours de « Bibtubeurs» à la BM de Bègles où de jeunes lecteurs réalisent des « Booktubes » : petite vidéo résumant un livre que l’on veut partager avec d’autres lecteurs. Donner en 5 minutes envie de lire le livre et apprendre à maîtriser les bases techniques de la réalisation vidéo.
  • La plateforme de photos Instagram d’étudiants sur des livres ou des activités de la bibliothèque. Comme La New York Public Library des d’autres BU américaines, la bibliothèque de la « London School of Economics” lance sa plateforme Instagram pour sa « Review of Books ».

Comme le souligne l’enquête sur les bibliothèques municipales « l’usage des équipements [de lecture publique] évolue également : autrefois axé sur l’emprunt et le livre, il s’est fortement diversifié, en lien avec la richesse des services proposés par les bibliothécaires, sur place, en ligne et hors les murs ».

Les transformations en profondeur des métiers de l’information et de la 6232096-9311528documentation

L’impact du numérique et de la communication n’est pas récent dans ces métiers et remonte bien à plus d’une trentaine d’années, mais les mutations se font surtout sentir depuis une dizaine d’années. Elles se traduisent par un certain nombre de transformations dans la vie professionnelle du domaine.

  • Mise à jour de la terminologie en sciences et techniques de l’information (Archives 21)
  • Le rôle des bib-docs dans la lutte contre la désinformation et les Fake news. L’importance de la formation à l’’information literacy’ dans la construction des savoirs.
  • La contribution à l’encyclopédie Wikipédia, aussi bien en tant que professionnel avec l’évènement 1Bib1Ref (Un bibliothécaire, une référence), qu’en tant que médiateur pour faire connaître cette entreprise « Creative common » aux lecteurs. Comme le souligne Sylvain Machefert, auteur de ce chapitre, « Wikipédia peut aussi être le point de départ à une sensibilisation du public aux questions en lien avec le droit d’auteur », en raison de sa licence libre.
  • Le rôle croissant de la communication interne au sein de l’institution, notamment à travers les outils collaboratifs et les réseaux sociaux d’entreprises, comme Slack ou Teams.
  • Le rôle des bibliothèques de recherche dans le développement des Humanités numériques. Le rapport des Research Libraries UK souligne le rôle que pourraient avoir ces bibliothèques dans la création, l’archivage, la curation et la préservation d’outils pour la recherche en Humanités numériques. Le RLUK veut comprendre le rôle joué par ces bibliothèques dans la représentation numérique pour identifier les zones spécifiques à valoriser et aussi pour faciliter le partage des bonnes pratiques. 497671-rea-197588-011-580x310
  • Les nouvelles appellations des métiers de la documentation. Comme le relève E. Barthe dans son blog, cité par H. Girard dans la Gazette des Communes, le mot documentaliste, tel que le définit le code du Répertoire opérationnel des métiers et des emplois (ROME), ne correspond plus à la réalité du métier. Depuis le début des années 2000, on a vu émerger des knowledge managers, des gestionnaires de bases de données et de ressources numériques, des community managers et autres webmasters … Ces nouveaux métiers qui portent aussi sur la gestion des documents et de l’information n’apparaissent pas dans le code ROME 1601. Or, on trouve de nombreux emplois et postes pour ces dénominations … Cette évolution des métiers a été cartographiée par l’ADBS en 2013. Mais comme le remarque Archimag dans son 2e Baromètre sur l’emploi et le compétences (2016), d’autres compétences complémentaires sont nécessaires, comme le numérique ou la communication.
  • L’importance de la présence des bibliothèques sur les réseaux sociaux. Les bibliothèques se sont majoritairement investies dans les deux principaux réseaux sociaux Facebook et Twitter où se retrouvent la plupart des utilisateurs. Mais comme on l’a vu plus haut, certaines bibliothèques choisissent de participer à des activités plus ciblées sur certains réseaux, comme Instagram ou YouTube pour développer l’aspect prescripteur des lecteurs. Sur les réseaux sociaux dédiés aux livres qui remontent aux années 1990, on est passé des pionniers (Zazieweb), aux start-ups et à la professionnalisation (Babélio) pour atteindre une certaine concentration avec la pérennisation de certains sites (Sens critique) et une polarisation de la prescription avec la quasi disparition de la ‘longue traîne’. Comme le souligne Louis Wiart, dont l’étude est citée par Christine Tharel-Douspis dans son article du BBF, les réseaux sociaux ont un effet de caisse de résonnance : les best-sellers et les livres les plus cités concentrent le plus de visibilité, tandis que les catégories intermédiaires sont moins représentées … « Les réseaux sociaux ne bouleversent pas les champs des pratiques, mais fortifient le lien entre professionnels et usagers ».
  • Le « BiblioRemix » et le « nouveau paradigme de la participation ». Cette démarche veut accompagner l’évolution des bibliothèques vers le ‘3e lieu’ et rompre avec l’image stéréotypée de ces établissements. Elle implique la participation du public dans une démarche de décision et de gouvernance plus citoyenne. Il s’agit de repenser la bibliothèque avec les usagers, de co-concevoir les politiques publiques. Avec BiblioRemix, on passe du service public aux services aux publics. De nombreux exemples de projets sont cités dans l’article du BBF, dont les 4C aux Champs libres à Rennes (Création, collaboration, connaissance et citoyenneté).

Ces différentes tendances dessinent une nouvelle configuration des bibliothèques, où professionnels et usagers se retrouvent dans des pratiques où l’information passe par différents canaux comme la communication interne et extérieure, la formation, la participation, ou des outils comme les humanités numériques, la curation et l’échange aussi bien « in real life » que sur les réseaux sociaux.

communs

Mollett, Amy ; Mc Donnell, Anthony. – Five ways libraries are using Instagram to share collections and draw public interest. – Impact of Social Sciences, 16/04/14

Enquête sur les publics et les usages des bibliothèques municipales en 2016. – Ministère de la Culture et de la Communication – Livre et lecture, 16/06/16

Barclay, Donald A. – The challenge facing libraries in an era of fake news. – The Conversation, 05/01/17

Jost, Clémence. - Innovation : les bibliothèques, laboratoires de réinvention. – Archimag, 02/05/17

Machefert, Sylvain. – “Wikipédia et bibliothèques : agir en commun” dans Communs du savoir et bibliothèques/Lionel Dujol. – Paris, Cercle de la Librarie, 2017. Via Hal-archives ouvertes, 31/05/17

Tharel-Douspis, Christine. « Bibliothèque en (r)évolution ». – Bulletin des bibliothèques de France  n° 11. – 23/06/17

Kamposiori, Christina. – The role of Research Libraries in the creation, archiving, curation, and preservation of tools for the Digital Humanities. RLUK Report. – Research Library UK, cop. July 2017. Pdf.

La communication interne en bibliothèque : expérimentation de Teams, le Slack de Microsoft. – Hortensi-us, 15/07/17

Girard, Hélène. – Documentaliste : le poids du mot face aux mutations des fonctions.La Gazette des communes, 03/08/17

Enis, Matt/ – Penn State Libraries launch short stories dispensers. – Library Journal, 04/08/17

Ducharme, Daniel. – Un projet de mise à jour de la terminologie de base en sciences de l’information. – Archives 21, 15/08/17

L’inventivité en bibliothèque : les bibtubeurs, le concours de Booktube. – Actualitté, 29/08/17

Dillaerts, Hans.- Créer, gérer et animer un dispositif de Fab Lab au sein d’une bibliothèque publique : entretien avec Julien Amghar, créateur de l’espace Kénéré le Lab. – DLIS.Hypothèses.org, 06/09/17

 

 

Fake news, désinformation, post-vérité : quel rôle pour les professionnels de l’information ?

truth-lies-wallpaper__yvt2-550x412La victoire de Donald Trump à l’élection présidentielle aux Etats-Unis a fait émerger une nouvelle notion dans l’univers des actualités et de l’information : l’idée de ‘vérité alternative’. Dès son installation à la Maison Blanche, une polémique s’est développée autour du nombre de participants à la cérémonie d’investiture du Président : comme le rappelle l’article du Guardian, Kellyanne Conway conseillère à la Maison Blanche a défendu la version du porte-parole du Président Sean Spicer , « la plus importante cérémonie d’investiture en terme d’audience » en déclarant que celle-ci se basait sur des ‘faits alternatifs’ (alternative facts). Depuis, la ‘post-vérité’ triomphe aux Etats-Unis dans une atmosphère quasi-orwellienne où la « majorité des journalistes sont malhonnêtes » …

La fabrique des fake news et la contre-offensive des médias

L’utilisation des réseaux sociaux et de certains médias pour répandre ces faits alternatifs (« Le Pape François soutient D. Trump ») a été particulièrement importante lors de cette campagne électorale comme lors de la campagne pour le ‘Brexit’. On leur a surtout reproché l’usage de robots logiciels et d’intelligence artificielle (‘bots’) pour manipuler les électeurs. Mais comme le souligne le sociologue Antonio Casilli dans sa conférence sur Infobésité et fake News et algorithmes politiques (Numa, Paris) : aujourd’hui, les entreprises de désinformation sur le net sont loin d’utiliser uniquement des algorithmes et autres ‘chatbots’ pour influencer les internautes. Si Facebook a effectivement utilisé un effet de ‘bulle de filtre’ en faisant circuler un même type d’information à l’intérieur d’un cercle d’amis, (si quelqu’un est de droite, il ne va voir que des informations venant de la droite), la plupart des ‘Likes’ et retweets ont été effectués par des humains dans des ‘usines à click’ de pays émergents (Philippines, Mexique,etc.). Ce ‘digital labor’, comme le Mechanical Turk d’Amazone, est payé quelques centimes le click, un peu plus pour les femmes au foyer de l’Amérique profonde … !

A la veille de l’élection présidentielle en France, un certain nombre de médias et géants du Net se posent la question de vérification des informations. Plusieurs initiatives ont vu le jour depuis quelques semaines pour décrypter ces attaques, notamment le Décodex, outil mis au point par le Monde, mais aussi une alliance de plusieurs médias français avec Facebook et Google. Vreuz0Z4aYsXhAor0wG05Tl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9

Que valent ces outils et peut-on véritablement dénicher les fausses informations qui se multiplient sur la Toile ? Déjà un certain nombre de critiques sont portées à l’égard du Décodex. En cherchant à labelliser la crédibilité des médias en fonction de points de vue subjectifs (Valeurs actuelles a pignon sur rue, tandis que Fakir est une feuille militante), cet outil effectue un biais comme le souligne Vincent Glad dans son article dans Libération : « le Monde se donne le rôle de censeur et de vérificateur du web, de CSA de l’information en ligne ». C’est aussi le point de vue de SavoirCom1, cité par Blog Univesrdoc, blog de veille des chefs de projets à l’INTD-CNAM  « Le collectif SavoirComun1 (1) – un groupement de bibliothécaires engagé pour les libertés à l’ère numérique et la libre dissémination des savoirs – ne dénigre pas l’utilité de Décodex dans le contexte actuel, mais partage son inquiétude sur ce type d’application d’évaluation, qui gérée par des plate-formes privées, voire par l’Etat pourrait amener à des formes de censure. ». Le Monde par la voix de Samuel Laurent (Les Décodeurs) s’est engagé pour sa part à faire évoluer son outil, notamment en distinguant les informations factuelles des commentaires. Mais si certaines mesures ont été prises concernant les sites d’opinion (Les crises, Valeurs actuelles), apparemment cela n’a pas empêché la requalification d’un site comme Doctissimo auparavant classé en orange (site imprécis, ne citant pas ses sources), et passé en vert le 21 février … Serait-ce parce que le groupe Le Monde et Doctissimo lançaient ce jour-là le magazine Sens et Santé (voir Les Echos) comme le souligne Olivier Berruyer dans Les Crises ?

La désinformation dans l’histoire

L’IFLA, de son côté, nous rappelle que ce travail de vérification et de filtrage de l’information est le propre de professionnels de l’information avec son infographie, en collaboration avec Wikipedia, « How to spot fake news »  posté sur Facebook et twitter et explique sur son blog comment les bibliothèques peuvent aider leurs utilisateurs à trouver des faits qui ne sont pas alternatifs … L’exemple de Wikipedia avec ses millions d’utilisateurs qui vérifient les articles peut être une garantie de bonnes pratiques informationnelles tout comme les ‘peer reviews’ des revues scientifiques. Le rôle historique des bibliothécaires dans l’’information literacy’ (formation à l’information) est aussi rappelé dans l’article de Donald Barclay de Conversation « The Challenge facing libraries in the era of fake news ». La désinformation n’a pas commencé avec les réseaux sociaux. Barclay cite le cas de la campagne menée par l’industrie du tabac dans les années 1960 qui s’appuyant aussi bien sur la presse populaire que sur des pseudo-revues scientifiques, sans parler du soutien de Barry Goldwater qui assimilait la dénonciation des effets du tabac sur la santé à un complot communiste !

media_image3Antonio Casilli a aussi rappelé que la manipulation de l’information ne date pas d’hier : la propagande, largement utilisée au 20e siècle, a été créée par l’Eglise catholique au 15e siècle (De propaganda fidei : sur la propagation de la foi) ! Le reste des fausses nouvelles passaient par la littérature de colportage et les complots, souvent en lien avec des puissances surnaturelles, se retrouvaient dans les écrits apocryphes et les mystères ….

Depuis les années 1970, la complexification des sources et des supports de l’information (bases de données, microfilms, informatisation), a rendu crucial le rôle des bibliothécaires universitaires pour former l’esprit critique des étudiants. Cette formation ne se limite plus à localiser des ouvrages ou des documents sur des étagères, mais à » identifier, organiser et citer des informations ». Aujourd’hui avec le foisonnement de l’internet, il ne suffit plus aux étudiants de savoir distinguer une revue scientifique comme Nature d’un magazine grand public, ils doivent différencier les articles de périodiques véritablement scientifiques de ceux de revues ‘prédatrices’ ou pseudo-scientifiques … Sans parler des données et des résultats faussés par les chercheurs eux-mêmes !

Un défi pour les professionnels de l’information

Devant l’incertitude qui entoure la fiabilité des données et dans un environnement universitaire de plus en plus changeant, où les étudiants sont plus souvent créateurs de nouveaux savoirs que consommateurs d’information, l’ACRL (Association américaine de bibliothèques de recherche) a lancé son « Framework for Information Literacy in Higher Education », cette charte pour la formation à l’information dans l’enseignement supérieur reconnaît que l’évaluation de l’information n’est pas une chasse au trésor ou les ressources identifiées seraient ‘bonnes’ ou ‘mauvaises’. L’autorité est construite et contextuelle et fait appel aux enseignants et aux bibliothécaires pour une approche de l’autorité et de la crédibilité à partir du contexte de l’information et non pas dans l’absolu. Pour D. Barclay cette position est beaucoup plus stimulante pour les étudiants que d’accepter l’autorité d’une source sans discussion ou de réfuter toute autorité comme anachronique au nom de la post-vérité !

C’est une approche semblable qu’a pris le Collectif SavoirCom1 en considérant la question de l’information sous l’angle des ‘Communs de la connaissance’ : en prenant l’exemple de Wikipédia, il montre qu’»un espace de publication constitué comme un commun résiste mieux aux fausses informations ». Le collectif veut favoriser l’émergence d’une communauté de ‘vigilance informationnelle autour du Décodex » : elle permettrait que les outils de vérification soient eux-même vérifiables, que les règles de contribution et de régulation soient clairement énoncées, que les sites évalués puissent faire appel de leur évaluant en démontrant leur mode d’élaboration et de transmission de l’information et enfin que les acteurs de l’information (organes de presse ou prestataires de services informationnels) s’impliquent dans la formation aux médias et à l’information des citoyens. On retrouve ici l’importance de la co-construction de l’information et du contexte prôné par l’ACRL dans son Framework.

 

Framework for Information Literacy for Higher Education/Association  of College & Research Libraries. - Ala.org, 11/01/16

Swaine, Jon. – Donald Trump’s team defends ‘alternative facts’ after widespread protests. – The Guardian, 22/01/17

L’annuaire des sources du Décodex : mode d’emploi/Les Décodeurs.Le Monde, 23/01/17

Dorf, Michael C. ; Tarrow, Sidney. – Stings and scams: ‘Fake news’, the First Amendment and the New Activist Journalism. – Cornell Legal Studies Research Paper n°17602, 26/01/17

Alternative Facts and Fake News : Verifiability in the Information Society. - Library Policy and Advocacy Blog [IFLA Blog], 27/01/17

How to spot fake news ? IFLA in the post-truth society. – Ifla.org, 01/02/17

Delcambre, Alexis ; Leloup, Damien. - La traque ardue des « fake news ». – Le Monde, 02/02/17

Yeh, Alexandra.- Les citoyens n’ont jamais été aussi méfiants envers les médias.Méta-média, 03/02/17

Glad, Vincent. – Qui décodera les décodeurs ? De la difficulté de labelliser l’information de qualité. – Libération, 03/02/17

Barclay, Donald A. – The Challenge facing libraries in an era of fake news. – The Conversation, 05/02/17

Bounegru, Liliana. - Three ways in which digital researchers can shed light on the information politics of the post-truth era. – Impact of Social Sciences, 06/02/17

Ertzscheid, Olivier. – La vie en biais. – Affordance.info, 07/02/17

Controverses autour du Décodex, un outil contre la désinformation ?Docs pour Docs, 07/02/17

Seabright, Paul. – Les « fake news », « quelques gouttes d’eau dans une cascade de propagande ». – Le Monde, 08/02/17

Decodex : on s’engage dans une guerre contre les ‘fake news’. S. Laurent (Le Monde), F. Ruffin (Fakir), L. Merzeau (SavoirCom1) débattent. – Arrêt sur image, 10/02/17

Lacour, Sophie. - Image, ma belle image, montres-tu la vérité ? – Usbek & Rica, 10/02/17

Manach, Jean-Marc. - Il est trop tard pour s’alarmer d’une cyber-guerre électorale. - Slate, 14/02/17

« Fake news » : les profs américains ajoutent l’éducation à l’information dans leurs cours. – VousNousIls, 15/02/17

Décodex, la controverse. – Blog UniversDoc, 20/02/17

[Tellement prévisible] Décodex victime d’un conflit d’intérêts patents …Les-crises.fr, 21/02/17

 

 

 

Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

France vs Union européenne : Quelle évolution pour le droit d’auteur ?

llc_droit_d_auteurLa Commission européenne avait lancé début 2014 une consultation sur la modernisation du droit d’auteur (cf Prospectibles). Parmi les propositions qui serviront de base à la nouvelle directive se trouve le rapport au Parlement européen de la jeune eurodéputée allemande du Parti Pirate (apparenté écologiste) Julia Réda.

Ce rapport qui sera soumis au vote fin mai a été présenté au Sénat le 3 avril par Julia Reda elle-même. Un des principaux objectifs de ce rapport est l’harmonisation du droit d’auteur au sein de l’Union européenne et aussi une mise à jour de ce droit dans le contexte de la société numérique, la dernière directive datant de 2001 (avant Facebook et YouTube) …

Cet « aggiornamento » voudrait pouvoir accorder plus de choix aux utilisateurs sans pour autant réduire les prérogatives des auteurs.

En effet, si la directive 2001 s’applique à l’ensemble des membres de l’UE, chaque pays dispose d’exceptions différentes. Par exemple, dans le cas de l’entrée dans le domaine public : « Le petit prince » d’Antoine de Saint-Exupéry, disparu en 1944, devrait être partout dans le domaine public (70 ans après la disparition de l’auteur) … Sauf en France, où Saint-Exupéry, héro de guerre, dispose de 30 ans de plus … !

Le rapport fait déjà l’objet de 550 amendements et d’un intense lobbying, notamment de la part d’organismes français, soutenus par la Ministre de la Culture Fleur Pellerin. « La position de la France devrait être simple à établir : ne pas accepter le principe de la réouverture de cette directive tant que la nécessité réelle des solutions existantes n’a pas été démontrée » : c’est la conclusion du rapport du juriste Pierre Sirinelli, présenté le 18 novembre au Conseil supérieur de la propriété littéraire et artistique.

On comprend que les ayants-droit s’inquiètent de cette réforme : le Commissaire européen au numérique Günther Oettinger, ayant déclaré le sujet prioritaire et sa volonté de « libérer la créativité » et briser les barrières nationales, confortant sur ce point le projet de ‘marché unique numérique’ du Président de la Commission Jean-Claude Juncker.copyright

Si l’on comprend bien les préoccupations des syndicats d’auteurs et de créateurs qui ne désirent pas un ‘nivellement par le bas’ de la diversité culturelle européenne où l’on favorise les « tuyaux » au détriment des contenus (JM Cavada), il faut reconnaître qu’avec l’internet le consommateur culturel est devenu transfrontalier. Il peine à comprendre pourquoi il peut avoir accès à certains contenus (presse, revues, réseaux sociaux) partout, (ou du moins dans les pays où la censure ne sévit pas) et pas à d’autres (films, séries, programmes TV) en fonction de réglementations spécifiques de chaque pays …

Les propositions du Projet de Rapport Reda

  • Reconnaissance de la nécessité d’une protection juridique pour les auteurs et créateurs et interprètes et aussi pour les producteurs et éditeurs dans la commercialisation des œuvres. Amélioration de la position contractuelle des auteurs par rapport aux intermédiaires.
  • Introduction d’un titre européen unique du droit d’auteur qui s’appliquerait directement et uniformément dans l’ensemble de l’UE pour pallier le manque d’harmonisation de la directive 2001/29 CE
  • Poursuite de la suppression des obstacles à la réutilisation des informations du secteur public en exemptant les œuvres du secteur public de la protection du droit d’auteur.
  • Protection des œuvres du domaine public, par définition non soumises au droit d’auteur et qui devraient pouvoir être utilisées et réutilisées sans obstacles techniques ou contractuels.
  • Harmonisation de la durée de protection du droit d’auteur qui ne dépasse pas les normes internationales fixées dans la Convention de Berne (50 ans après le décès de l’auteur).
  • Exceptions et limitations : harmonisation des exceptions ; rendre obligatoires les exceptions facultatives (droit à la citation, copie privée) ; création de nouvelles exceptions : représentation (photos ou vidéos) d’œuvres d’arts ou de monuments sur internet ; prêt numérique (e-books) pour les bibliothèques ; extension du droit de citation (vidéo). Suppression des limitations territoriales (audiovisuel ; chronologie des médias). Les droits se négocieraient au niveau européen plutôt qu’au niveau national.

Rien de très révolutionnaire dans ces propositions, si ce n’est la volonté d’étendre à l’ensemble de l’Union des lois qui existent pour certains Etats-membres. Comme l’explique Julia Reda sur son blog « Nous devons promouvoir la diversité culturelle. Mais la diversité culturelle n’est pas la même chose qu’une diversité de lois. »

Une des principales critiques contre ce projet est que la suppression des limites territoriales serait une porte ouverte pour les GAFA et autres multinationales américaines comme Netflix qui profiteraient d’un copyright unique européen pour imposer leurs conditions aux créateurs et éditeurs. Ces entreprises sont déjà bien installées sur le web européen et profitent plus de la manne publicitaires que les acteurs traditionnels (médias, éditeurs). C’est cette part grandissante des « intermédiaires techniques » qui ne soutiendraient pas assez la création que dénonce le rapport Sirinelli, commandé par le Ministère de la culture pour défendre le point de vue français dans cette réforme du droit d’auteur. Ce rapport voudrait pouvoir surtout renforcer le droit d’auteur et réduire les exceptions. Il s’oppose également au « fair use » à l’américaine qui serait une ‘liste ouverte d’exceptons’. En revanche, l’exception de copie privée devrait être rendue obligatoire pour le paiement de la redevance dans les pays qui y sont encore opposés. Le rapport demande aussi un réexamen de la directive sur le commerce électronique.droitsdauteurs2

En effet, pour ses détracteurs, le projet Reda ne s’attaque pas assez au problème du piratage et de la contrefaçon … Et le fait que la rapporteure est membre du Parti Pirate n’arrange pas les choses !

Mais les acteurs français ne sont pas tous contre la réforme du droit d’auteur. Les bibliothécaires et les chercheurs soutiennent l’idée d’un ‘fair copyright’ qui permet les exceptions pédagogiques et le prêt numérique. Contrairement à ce que soutenait Lionel Maurel au lendemain du Congrès de l’IFLA dans son blog S.I.Lex, les professionnels de l’information ne se limitent pas à défendre les exceptions. L’Interassociation Archives Bibliothèques Documentation (IABD) soutient le London Manifesto des bibliothécaires britanniques en affirmant : « Une législation sur le droit d’auteur équilibrée (fair copyright) à travers l’Europe sont des droits essentiels.  Sans eux, nous ne parviendrions pas à soutenir efficacement la recherche, l’innovation et la croissance et nous entraverions l’ambition d’un marché unique du numérique. ».

Les préconisations des bibliothécaires français et britanniques sont assez proches du rapport Reda : harmonisation des exceptions, normes ouvertes, droit de prêt numérique, harmonisation de la durée de protection, droit d’acquérir une licence d’utilisation, droit d’explorer (fouille de textes) : analyse informatique des ouvrages pour les bibliothèques, droits pour les personnes handicapées : ratification du Traité de Marrakech, droits d’usages transnationaux, numérisation de masse, etc.

On retrouve ces préoccupations chez les chercheurs, comme dans la présentation d’Eric Verdeil à l’Ecole doctorale SHS de Lyon « Publications scientifiques en sciences humaines et sociales à l’ère du numérique : enjeux pour les chercheurs » : valorisation du ‘fair use’, copyleft et Creative Commons.

On est encore loin d’avoir épuisé les domaines d’application du droit d’auteur : les impressions 3D font partie des prochains défis : les sénateurs viennent finalement de décider que les imprimantes 3D ne seraient pas soumises à la redevance pour copie privée … ! En revanche, les tracteurs ‘connectés’ (cf le dernier post d’Affordance) vont devoir embarquer des DRM dans les codes informatiques qui les font fonctionner et empêcher les utilisateurs de ‘bidouiller’ pour les dépanner !

copyright1

IFLA 2014 : les bibliothèques et le piège des exceptions. – S.I.Lex, 29/09/14

Günter Oettinger promet une réforme du droit d’auteur d’ici deux ans.Euractiv, 30/09/14

Rapport de la mission sur la révision de la directive 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Pierre Sirinelli – Conseil supérieur de la propriété littéraire et artistique, octobre 2014

Mon rapport sur le droit d’auteur dans l’UE. - Julia Reda, 16/12/14

Rees, Marc. – Fleur Pellerin aiguise ses armes pour défendre les ayants droits à Bruxelles. – NextInpact, 13/01/15

Projet de rapport sur la mise en œuvre de la directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Julia Reda – Parlement européen ; Commission des affaires juridiques, 15/01/2015

Un rapport parlementaire plaide pour le détricotage du droit d’auteur. – Euractiv, 20/01/15

Rees, Marc. – Rapport Reda : la commission ITRE veut concilier anciens et modernes. – NextInpact, 03/03/15

La mobilisation sur le droit d’auteur devrait étendre le champ de la réforme en cours. – Euractiv, 13/03/15

Gary, Nicolas. – Auteurs et éditeurs : les relations empirent en France. – Actualitté, 20/03/15

The London Manifesto : Time for reform ? – 1709 Blog, 01/03/15

La culture européenne n’est pas confinée aux frontières nationales – n’utilisons pas le droit d’auteur pour la forcer à l’être (discours au Sénat). – Julia Reda, 04/04/15

L’IABD soutient le London Manifesto qui prône une réforme européenne du droit d’auteur favorable aux bibliothèques, aux archives et aux services de documentation. – IABD, 04/94/15

Gary, Nicolas. - IABD : pour une législation équilibrée du droit d’auteur, le fair copyright. – Actualitté, 06/04/15

Langlais, Pierre-Carl. – Le droit d’auteur ne fait vivre qu’une minorité d’artistes. – L’Obs, 08/04/15

Verdiel, Eric. – Publications scientifiques en sciences humaines et sociales à l’heure du numérique : enjeux pour les chercheurs. – Lyon, Ecole doctorale SHS, session 2015 [Slideshare]

Rees, Marc. – Pas de taxe copie privée pour les imprimantes 3D. – NextInpact, 27/04/15

Du Digital labor au copytalisme. – Affordance.info, 28/04/15

 

Lire, écrire à l’ère numérique – 2 – Ecriture et éditorialisation

La grammatologie

84135761_oComme il a été évoqué dans le post précédent, l’écriture est très liée au dispositif de lecture. L’écriture n’est pas la transcription fidèle de la parole pleine sur un support, ce n’est pas une simple reproduction du langage. C’est ce que Derrida explique dans la De la Grammatologie[1]  « La brisure [de l’écriture] marque l’impossibilité pour un signe, pour l’unité d’un signifiant et d’un signifié, de se produire dans la plénitude d’un présent et d’une présence absolue ». Cette distance de l’écriture par rapport au langage et à la pensée, va être traduite par la notion de ‘trace’ : « cette trace est l’ouverture de la première extériorité en général […] : l’espacement ». Derrida arrive ensuite à la notion de ‘gramme’ (que l’on retrouve dans ‘programme’ « Depuis l’’inscription génétique’ et les ‘courtes chaînes’ programmatiques réglant le comportement de l’amibe ou de l’annélide jusqu’au passage au-delà de l’écriture alphabétique de l’ordre du logos et d’un certain homo sapiens, la possibilité du gramme structure le mouvement de son histoire ». On retrouve ici l’idée de codage spécifique de certaines aires neuronales que le neuropsychologue Stanislas Dehaene avait identifié pour la lecture. C’est ce que souligne aussi Christian Fauré dans son post Généalogie d’un lecteur : L’écriture est une ‘grammatisation’ (le codage) d’un message et la lecture, la ‘dégrammatisation’. En lisant, on écrit aussi dans le cerveau, on décode ce qui est tracé sur le support. Si on n’effectuait pas ce processus de décodage, on lirait comme une ‘tête de lecture’, sans rien comprendre … ! Ou tout au moins en ne comprenant que très partiellement …. traces

La lecture, surtout dans un environnement scientifique, s’accompagne souvent d’écriture, soit sur le support lui-même, annotations, surlignages, soit sur un autre support : fiche de lecture, notice, etc. Ces balisages divers signalent que la lecture a dépassé le stade alphabétique pour atteindre un stade cognitif : tri, sélection. Comme le fait remarquer Christian Fauré, peu importe si on ne relit pas ses propres annotations, car « souligner un livre c’est aussi et en même temps écrire dans son cerveau ». Ces gribouillis si souvent réprimés par les éducateurs et les bibliothécaires – c’est vrai qu’ils endommagent les ouvrages – vont retrouver une nouvelle vie avec le numérique ! Les lecteurs ‘écrivants’ d’aujourd’hui vont aussi pouvoir partager leurs commentaires avec d’autres lecteurs comme dans les bibliothèques du Moyen-Age où chaque clerc ajoutait son commentaire dans la marge ! La différence, c’est que l’on peut les faire apparaître ou disparaître en fonction des besoins.

Dans l’environnement numérique des e-books, chaque lecteur peut conserver ses annotations sur la plateforme de lecture en ligne. De même, de nombreux outils existent pour catégoriser et annoter les articles et blogs sur la Toile. C’est ce qui me permet d’écrire moi-même ce post à partir de tous les articles que j’ai recensé sur Diigo à partir du tag ‘écriture’moleskine_ecriture_infinie_698

L’éditorialisation du web

Le grammatologue allemand Ulmer appelle cette nouvelle compétence ‘electracy’, electronic literacy. C’est pourquoi l’écriture dans l’environnement numérique ne peut être la reproduction à l’identique de l’œuvre numérisée, comme c’est le cas aujourd’hui des e-books et des revues en ligne. C’est l’objet de la série de séminaires organisés depuis 2011 par l’IRI au Centre Georges Pompidou « Ecritures numériques et éditorialisation ». Dominique Cardon et Audrey Laplante démontrent dans une de ces conférences comment fonctionne le dispositif d’éditorialisation de contenus sur le web. Grâce à une structuration des données par des algorithmes, l’internaute les atteint après un ‘parcours de lecture’. Il ne se trouve pas directement en relation avec les producteurs de contenus. La plupart du temps, il doit passer par les algorithmes des moteurs de recherche (PageRank de Google) ou des réseaux sociaux (EdgeRank de Facebook).

L’écriture sur le web passe aussi par les différentes sortes de messageries (mels, messageries instantanées, microblogging) qui permettent aux individus d’exprimer leurs opinions et leurs sentiments sur toutes sortes d’informations et d’évènements. Et ce, pas seulement au moyen d’écriture alphabétique mais aussi à travers plusieurs autres médias : infographies, photos, vidéos, etc.

Avec les sites web, blogs et réseaux sociaux, l’écriture n’est plus réservée aux seuls professionnels, journalistes ou spécialistes en communication des entreprises ou des organismes publics. Chacun peut devenir rédacteur ou éditeur de son propre contenu … Malgré l’importance et l’omniprésence des images, fixes ou animées, les jeunes n’ont jamais autant écrit qu’en ce début de 21e siècle !

De plus, des outils dédiés (Framapad) permettent de plus en plus une écriture collaborative, qui va de l’administration à la recherche (compte rendus de réunions, de colloques) à la fiction (cadavres exquis, romans collectifs).

Toutes ces activités laissent évidemment des traces sur les réseaux. Nous retrouvons donc ici la notion-clé de l’écriture théorisée par Derrida : la ‘trace’. Ce sont ces traces qui vont alimenter aussi bien la surveillance des « Big brothers » dictatoriaux ou démocratiques que les serveurs des entreprises et des organisations à travers le traitement des mégadonnées (Big Data)… !

2013-05-22 003Le traitement de certaines traces, les métadonnées, vont servir de balises sémantiques pour se repérer dans le chaos du web, c’est le rôle des moteurs de recherche. Ces derniers explorent le web en lisant d’abord des milliards de pages à l’aide de logiciels robots et les indexent automatiquement. Ensuite, ils ne se contentent pas de présenter les résultats de façon brute : ceux-ci sont présentés, éditorialisés en fonction d’algorithmes bien précis (PageRank).

En attendant les robots-écrivains, les ‘robots-journalistes’ !

Slate signale l’expérience d’Associated Press avec la rédaction d’articles par des logiciels robots. Pour le moment il s’agit essentiellement de dépêches traitant les résultats financiers d’entreprises financières américaines qui vont être intégrées en direct dans le fil international d’AP. Même s’il s’agit pour le moment de tâches de base qui ne passionnent pas les journalistes (extraire des informations des bases de données) mais que les automates sont beaucoup plus rapides et efficaces à traiter … Tous les professionnels de l’information, documentalistes, veilleurs, traducteurs, rédacteurs se sentent menacés par l’émergence de cette concurrence virtuelle, mais l’intelligence artificielle a encore de grands progrès à faire avant mettre en dangers toutes ces professions intellectuelles … automated robot journalism

[1] Derrida, Jacques. – De la grammatologie. – Paris, Ed. de Minuit, 1967.


 Enseigner l’écriture numérique. – Dossier séminaire PRECIP – UTC de Compiègne, 4-5 avril 2012 – Revue Skhole.fr

Généalogie d’un lecteur (2) : l’écriture du lecteur. – Christian Fauré, 01/07/12

L’écriture numérique, une écriture sociale ? – Le rendez-vous des lettres – Eduscol, 2012

Gilliot, Jean-Marie ; Scarlatti, Serge. – Écritures collaboratives pour des cours ouverts sur le web. – Institut Mines Télécom – Télécom Bretagne, 2012

How does writing modifies your brain ? [infographic]. – Daily Infographic, 26/05/13

750 auteurs réunis pour l’écriture d’un roman collectif. – Actualitté, 07/11/13

De la stratégie de contenu web à la stratégie d’information web. – Plume interactive, 10/06/13

Sicot, Timothée. – SMS et réseaux sociaux améliorent l’écriture des étudiants. – L’Atelier : disrupture innovation, 24/09/13

Cardon, Dominique ; Laplante, Audrey. – Algorithmes et éditorialisation automatisée – Ecriture numérique et éditorialisation. – Polemic Tweet, 24/04/14

Oresmus, Will. – Journalisme-robot : le soulèvement des machines à écrire. – Slate, 27/07/14

 

 

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Réflexions sur l’ « IFLA Trend Report » : les défis qui attendent les professionnels dans la société de l’information

Twitter network of @OIIOxfordLe dernier « Trend Report » de l’IFLA , publié juste avant le Congrès de Singapour en août 2013, « Riding the Waves or Caught in the Tide? Navigating the evolving information environment” se penche sur les principales tendances qui marquent notre environnement informationnel.

Cette fois, ce ne sont pas des problèmes techniques, ou même scientifiques que le numérique pose à la profession et aux médiateurs, mais plutôt des questions éthiques et philosophiques, voire politiques, dues notamment à l’émergence du ‘big data’ avec le recueil d’un grand nombre de données personnelles pour toute transaction.

Le rapport présente cinq grandes tendances pour le futur proche :
– Les nouvelles technologies vont en même temps étendre et restreindre l’accès à l’information en fonction des publics concernés.
L’extension concerne le développement de l’ouverture des données publiques (open data), des archives ouvertes, des « e-commons » (savoirs communs), etc.
Les limites, ce sont les restrictions à l’accès : DRM, mots de passe, biométrie. Mais aussi le fossé numérique qui se creuse, créant une situation d’inclusion/exclusion en ce qui concerne les compétences numériques (information literacy skills).
– Les cours en ligne vont aussi bien démocratiser que bouleverser l’enseignement au niveau mondial. D’un côté les MOOC (cours en ligne massifs), les ressources éducatives en ligne vont permettre un apprentissage tout au long de la vie (lifelong learning), mais cet enseignement informel et souvent la pédagogie inversée (flipped learning) qu’il implique, vont remettre en question toute la structure éducative.
– Les frontières autour de la vie privée et la protection des données personnelles doivent être redéfinies. Le scandale de l’utilisation de métadonnées de messageries et de réseaux sociaux par la NSA et les multinationales de l’information ont révélé au monde que l’on pouvait traquer des individus à travers leurs connexions numériques et leur téléphone mobile … ! Tout cela a remis en cause la confiance que tout un chacun avait dans l’internet et le numérique … Comme le dit Philippe Mussi, conseiller régional Vert de la région PACA en introduction de la Semaine européenne de l’Open data : « l’ouverture des données, c’est la reprise en main par le citoyen de l’espace démocratique. Elles doivent être ouvertes, car c’est politique, et parce que c’est dangereux. Oui, les nouvelles libertés présentent des dangers. Dans un paysage général où le monde s’ouvre, où la transparence est à la fois demandée et imposée par la société, la transparence de la gestion publique est de toute première importance. On ne peut plus imaginer de démocratie fermée sur la propriété de la connaissance de la chose publique. Nous devons tous contribuer à cet objectif-là !” [Cité dans InteretActu].
– Dans ces sociétés hyper-connectées, de nouvelles voix et de nouveaux groupes vont émerger pour s’emparer de problèmes sociaux ou politiques à travers des actions collectives et de nouveaux médias.
– Les nouvelles technologies vont transformer l’économie mondiale : de nouveaux modèles économiques vont s’imposer à travers structures innovantes (e-commerce, mobilité, etc.).
En 2016, on prévoit 10 milliards d’appareils mobiles connectés à l’internet. Il y a aussi la technologie que l’on porte sur soi (wearable), comme les « Google Glasses ».

Mais en quoi tout ceci concerne les bibliothèques ?
Imaginons un usager entrant dans une bibliothèque portant ces fameuses lunettes « moteur de recherche » : de fait avec cet instrument, il peut mettre toutes les personnes présentes (lecteurs + bibliothécaires) sous surveillance … !! Comment les bibliothèques pourraient-elles rester des lieux sûrs dans ces conditions ? Il faudra désormais trouver le moyen de concilier la technophilie avec le respect de l’intimité …

Les cours en ligne, par exemple, sont des mines d’or en ce qui concerne les données personnelles. Les résultats de tests, les progrès réalisés par les étudiants, et d’autres informations sont importants pour les éducateurs pour évaluer les apprenants et améliorer leur enseignement. Mais dans un environnement mondial de plus en plus numérisé et connecté, il faut se poser la question : qui d’autre a accès à ces données ?
Il faut donc penser non seulement à gérer ces informations indispensables à l’enseignement, mais aussi à les protéger.

Les étudiants utilisent de plus en plus des moteurs de recherche pour répondre à leurs questions de cours. Il faudrait analyser leurs habitudes de recherche pour évaluer l’influence qu’elles ont sur leurs réponses. Est-ce vraiment toute l’information dont ils ont besoin ? Ces algorithmes appartiennent à des sociétés multinationales et surtout ont été développés pour augmenter les revenus des publicités en ligne. Cela devrait faire réfléchir les bibliothécaires et les enseignants lorsqu’ils encouragent les étudiants à utiliser ces outils …

D’autre part, si toutes les réponses sont dans l’algorithme, que devient la bibliothèque ?

D’après l’enquête de l’Oxford Internet Institute, actuellement les gens ont plus confiance dans les FAI (fournisseurs d’accès internet) que dans les médias et les principales institutions politiques, sociales ou économiques (journaux, entreprises, gouvernements, etc.).

Mais si les technologies de recherche limitent la quantité et la diversité d’information en fonction des usages, des langues et de la localisation géographique, peut-on encore avoir confiance dans les résultats fournis par les moteurs de recherche ?
Comment les bibliothécaires et les éducateurs pourraient-ils désormais assurer aux étudiants et aux usagers qu’ils accèdent bien à l’information pertinente et non à celle que leur données agglomérées a permis à l’algorithme de trouver ? Dans ce cas de figure, « comment qualifier « la chance » (J’ai de la chance) ? Comment édifier des communautés fondées sur l’inattendu ? » Louis Zacharilla – Global Intelligent Community Forum.

Les gouvernements, même les plus démocratiques, filtrent de plus en plus l’accès à l’information en ligne sous prétexte de prévention du terrorisme ou de l’ »immoralité ».
Les bibliothèques se sont toujours opposées à la censure : a-t-on prévu des réponses adéquates à cette problématique ?
Si ces pratiques se développent, les bibliothèques pourront-elles mener à bien leurs mission de recueil et de préservation de la mémoire numérique ? Cross-language blog linking in the aftermath of the 2010 Haitian earthquake

Future Libraries : infinite possibilities – IFLA WLIC 2013 IFLA World Library and Information Congress – 79th IFLA General Conference and Assembly. – 17-23 August 2013, Singapore

Riding the Waves or Caught in the Tide? Navigating the Evolving Information Environment. – Insights frond the Trend Report – IFLA, 16/08/2013

Livre numérique, médiation et service de référence en ligne, droit d’auteur – Congrès IFLA Singapour 2013. – Bibliobsession, 30/08/13

Guillaud, Hubert. – Open data (1/3) : la technique a-t-elle pris le pas ? - Internet Actu, 12/07/13

Oxford Internet Institute – University of Oxford

Oxford Internet Survey (OxIS) 2013 Report Lauch

Intelligent Community Forum

Sur les MOOC et le e-learning
Voir le Scoop It ProspecBib : Formation en ligne & à distance

Sur l’open access et les archives ouvertes
Voir le Scoop It : Open Access Now !

Sur la société de surveillance et l’utilisation des données personnelles
voir le Scoop it : Big Brother, little sisters

Big data et web sémantique : une opportunité pour les profeessionnels de l’information

A propos du système Prism, François Géré de l’Institut d’Analyse Stratégique l’a reconnu dans Libération : « En France nous faisons la même chose que les Américains […] Toutefois, nous réduisons le périmètre aussi bien géographique (essentiellement en Europe et en Afrique) que sémantique (le nombre de mots-clés) ».
Mots-clés, métadonnées, web sémantique, les documentalistes se trouvent ici en terrain connu !

Avec les « Big data » et leurs réservoirs énormes de données, un champ immense s’ouvre aux professionnels de l’information, la sélection et la qualification des métadonnées qui leur sont attachées, autrement dit l’indexation.
Bien sûr, d’importants progrès ont été réalisés en indexation automatique et en traitement automatique du langage (TAL), et avec les masses de données textuelles que l’on peu traiter, des rapprochements de termes peuvent s’effectuer et produire des modèles de description, comme l’explique Nathalie Aussenac-Gilles dans Graphéméride. « Pour faciliter la recherche d’informations précises, de points de vue, d’opinions [… ] il est nécessaire de caractériser la nature des informations et des connaissances véhiculées par les contenus […] ne pas rester au niveau des mots, donc de passer au niveau des concepts ».

Avec le web sémantique (ou web de données ou ‘linked data’), « les données de toutes formes produites par tous les acteurs se trouvent interconnectées, identifiées sans ambiguïté et reliées les unes aux autres » Hervé Verdier, Directeur d’Etalab. En ‘typant’ ces données dans des ontologies, le web sémantique « met en place une indexation des pages web, mais aussi potentiellement des concepts absents du web dont une description sur le web est possible (personne, lieu, date, élément abstrait, objet physique » Pierre Couchet, « A quoi sert le Web sémantique en histoire et philosophie des sciences et des techniques » Semantic HPST

Ces nouveaux thesaurus linguistiques s’appuient sur des ‘triplets’ : sujet, prédicat et objet.
« Concrètement, un thésaurus relie des concepts entre eux selon des relations précises : synonyme, homonyme, hiérarchie, terme associé. L’ontologie ajoute des règles et des outils de comparaison sur et entre les termes, groupes de termes et relations : équivalence, symétrie, contraire, cardinalité, transitivité… Ainsi, l’ontologie est une étape supérieure au thésaurus selon l’ontology spectrum. » – Définir une ontologie avec OWL. – Les Petites Cases 11/11/05
En taggant par exemple un fichier contenant une photo, on pourra non seulement caractériser la photo, mais si ces mots-clés sont partagés, on pourra regrouper des photos similaires. Grâce à cette organisation des connaissances, on pourra classer une photo du Château de Versailles, rejetée comme « monument de Paris », si l’on a l’information que « Versailles est ‘Acôtéde’ Paris ou que Versailles et Paris sont deux villes ‘SituéeDans’ l’Ile de France » Nathalie Assenac-Gilles.

Bien sûr, ces langages OWL (Ontology Web Langage) demandent une bonne familiarité avec l’informatique (XML) et la logique, sans parler de connaissances linguistiques, mais les bibliothécaires/documentalistes ont tout à fait leur rôle à jouer dans la construction de ces bases de connaissances. L’exemple de l’ontologie du vin réalisée à Stanford, cité par le WC3, le montre : on retrouve des mots-clés, des caatégories, des propriétés et des noms de lieux.

Les professionnels de l’information qu’ils (elles) sont pourraient aussi bien construire ces bases de connaissances (en collaboration avec des informaticiens) que servir d’appui aux chercheurs pour qualifier les résultats de la recherche. La BNF l’a d’ailleurs bien compris avec la réalisation avec le projet « data.bnf.fr« web sémantique

Géré, François ; Hofnung, Thomas. – « En France, nous faisons la même chose ». Libération, 1er juillet 2013

Couchet, Pierre. – À quoi sert le web sémantique, en Histoire et Philosophie des Sciences et des Techniques ?. – Semantic HPST, 13/06/13

Fabien Gandon – Le web sémantique. – Graphemeride, 15/04/13

Le Web de données à la BnF : data.bnf.fr

Berners-Lee, Tim et al. – A Framework for Web Science. – Foundations and trends in web science, vol.1:n°1, 2006

Définir une ontologie avec OWL. – Les petites cases, 11/11/05

OWL Web Ontology Language Guide. – W3C, 10/02/04

Ontology of wines

Bachimont, Bruno. – Engagement sémantique et engagement ontologique : conception et réalisation d’ontologies en Ingénierie des connaissances.- INA, 2000 (pdf)

Staypressed theme by Themocracy