Category: Bibliothèques

Evolution des bibliothèques : où en est-on ?

4175783446_7e32581cf5_bLa fin des bibliothèques, souvent annoncée (presque autant que la fin du travail !), ne semble pas  encore réalisée. Au contraire, la dernière Enquête sur les publics et les usages des bibliothèques municipales du Ministère de la culture indique une augmentation de la fréquentation des bibliothèques publiques (40% des Français de plus de 15 ans contre 35% en 2005). Si toutes les bibliothèques ne sont pas devenues des ‘learning centres’ ou des ‘leisure centres’ comme dans d’autres pays, un certain nombre de mutations sont à l’œuvre, aussi bien dans les bibliothèques universitaires et de recherche que dans les BM et les médiathèques grand public.

Ces évolutions concernent autant l’offre d’activités des bibliothèques que les transformations plus profondes des métiers et des pratiques de l’information-documentation.

L’innovation est le maître-mot, comme le rappelle Clémence Jost dans Archimag en évoquant le thème central du Congrès de l’ABF en 2016 « L’innovation en bibliothèques ». Pour repenser la bibliothèque, Christine Tharel-Douspis, cite dans le BBF la « Bibliothèque en [r]évolution », thème de la Journée Régionale de la Commission lecture publique de Mobilis organisée en partenariat avec l’ENSSIB. Au programme, réseaux sociaux, usages différents et mouvants, BiblioRemix, co-construction, design thinking, expérience utilisateur, etc.

Diversification et offre de pratiques innovantes

Un certain nombre de bibliothèques ont introduit de nouveaux outils ou de nouvelles pratiques à destination des publics. Outre les incontournables ‘fablabs’, on trouve aussi :

  • Un kiosque qui distribue de courtes nouvelles rédigées par les étudiants à la Penn State University Library
  • Des « feuilletoirs» numériques (écrans tactiles insérés dans les rayonnages donnant accès aux 132 000 documents des collections en magasins) à la Bibliothèque Alexis de Toqueville à Caen
  • Des animations de réalité virtuelle avec casques à la Médiathèque Federico Fellini de Montpellier et à la bibliothèque de la Manufacture de Nancy FabLab
  • « Les Yeux docs », plateforme de vidéos documentaires à la BPI
  • Labo2 : laboratoire des usages numériques à la BM de Nantes : écriture, jeux vidéo, créations numériques, outils cartographiques
  • Une « grainothèque» à la BM Aimé Césaire de Villeneuve-La-Garenne : chacun peut apporter son sachet de graines dans un espace dédié où d’autres « semeurs » peuvent se servir gratuitement.
  • Un concours de « Bibtubeurs» à la BM de Bègles où de jeunes lecteurs réalisent des « Booktubes » : petite vidéo résumant un livre que l’on veut partager avec d’autres lecteurs. Donner en 5 minutes envie de lire le livre et apprendre à maîtriser les bases techniques de la réalisation vidéo.
  • La plateforme de photos Instagram d’étudiants sur des livres ou des activités de la bibliothèque. Comme La New York Public Library des d’autres BU américaines, la bibliothèque de la « London School of Economics” lance sa plateforme Instagram pour sa « Review of Books ».

Comme le souligne l’enquête sur les bibliothèques municipales « l’usage des équipements [de lecture publique] évolue également : autrefois axé sur l’emprunt et le livre, il s’est fortement diversifié, en lien avec la richesse des services proposés par les bibliothécaires, sur place, en ligne et hors les murs ».

Les transformations en profondeur des métiers de l’information et de la 6232096-9311528documentation

L’impact du numérique et de la communication n’est pas récent dans ces métiers et remonte bien à plus d’une trentaine d’années, mais les mutations se font surtout sentir depuis une dizaine d’années. Elles se traduisent par un certain nombre de transformations dans la vie professionnelle du domaine.

  • Mise à jour de la terminologie en sciences et techniques de l’information (Archives 21)
  • Le rôle des bib-docs dans la lutte contre la désinformation et les Fake news. L’importance de la formation à l’’information literacy’ dans la construction des savoirs.
  • La contribution à l’encyclopédie Wikipédia, aussi bien en tant que professionnel avec l’évènement 1Bib1Ref (Un bibliothécaire, une référence), qu’en tant que médiateur pour faire connaître cette entreprise « Creative common » aux lecteurs. Comme le souligne Sylvain Machefert, auteur de ce chapitre, « Wikipédia peut aussi être le point de départ à une sensibilisation du public aux questions en lien avec le droit d’auteur », en raison de sa licence libre.
  • Le rôle croissant de la communication interne au sein de l’institution, notamment à travers les outils collaboratifs et les réseaux sociaux d’entreprises, comme Slack ou Teams.
  • Le rôle des bibliothèques de recherche dans le développement des Humanités numériques. Le rapport des Research Libraries UK souligne le rôle que pourraient avoir ces bibliothèques dans la création, l’archivage, la curation et la préservation d’outils pour la recherche en Humanités numériques. Le RLUK veut comprendre le rôle joué par ces bibliothèques dans la représentation numérique pour identifier les zones spécifiques à valoriser et aussi pour faciliter le partage des bonnes pratiques. 497671-rea-197588-011-580x310
  • Les nouvelles appellations des métiers de la documentation. Comme le relève E. Barthe dans son blog, cité par H. Girard dans la Gazette des Communes, le mot documentaliste, tel que le définit le code du Répertoire opérationnel des métiers et des emplois (ROME), ne correspond plus à la réalité du métier. Depuis le début des années 2000, on a vu émerger des knowledge managers, des gestionnaires de bases de données et de ressources numériques, des community managers et autres webmasters … Ces nouveaux métiers qui portent aussi sur la gestion des documents et de l’information n’apparaissent pas dans le code ROME 1601. Or, on trouve de nombreux emplois et postes pour ces dénominations … Cette évolution des métiers a été cartographiée par l’ADBS en 2013. Mais comme le remarque Archimag dans son 2e Baromètre sur l’emploi et le compétences (2016), d’autres compétences complémentaires sont nécessaires, comme le numérique ou la communication.
  • L’importance de la présence des bibliothèques sur les réseaux sociaux. Les bibliothèques se sont majoritairement investies dans les deux principaux réseaux sociaux Facebook et Twitter où se retrouvent la plupart des utilisateurs. Mais comme on l’a vu plus haut, certaines bibliothèques choisissent de participer à des activités plus ciblées sur certains réseaux, comme Instagram ou YouTube pour développer l’aspect prescripteur des lecteurs. Sur les réseaux sociaux dédiés aux livres qui remontent aux années 1990, on est passé des pionniers (Zazieweb), aux start-ups et à la professionnalisation (Babélio) pour atteindre une certaine concentration avec la pérennisation de certains sites (Sens critique) et une polarisation de la prescription avec la quasi disparition de la ‘longue traîne’. Comme le souligne Louis Wiart, dont l’étude est citée par Christine Tharel-Douspis dans son article du BBF, les réseaux sociaux ont un effet de caisse de résonnance : les best-sellers et les livres les plus cités concentrent le plus de visibilité, tandis que les catégories intermédiaires sont moins représentées … « Les réseaux sociaux ne bouleversent pas les champs des pratiques, mais fortifient le lien entre professionnels et usagers ».
  • Le « BiblioRemix » et le « nouveau paradigme de la participation ». Cette démarche veut accompagner l’évolution des bibliothèques vers le ‘3e lieu’ et rompre avec l’image stéréotypée de ces établissements. Elle implique la participation du public dans une démarche de décision et de gouvernance plus citoyenne. Il s’agit de repenser la bibliothèque avec les usagers, de co-concevoir les politiques publiques. Avec BiblioRemix, on passe du service public aux services aux publics. De nombreux exemples de projets sont cités dans l’article du BBF, dont les 4C aux Champs libres à Rennes (Création, collaboration, connaissance et citoyenneté).

Ces différentes tendances dessinent une nouvelle configuration des bibliothèques, où professionnels et usagers se retrouvent dans des pratiques où l’information passe par différents canaux comme la communication interne et extérieure, la formation, la participation, ou des outils comme les humanités numériques, la curation et l’échange aussi bien « in real life » que sur les réseaux sociaux.

communs

Mollett, Amy ; Mc Donnell, Anthony. – Five ways libraries are using Instagram to share collections and draw public interest. – Impact of Social Sciences, 16/04/14

Enquête sur les publics et les usages des bibliothèques municipales en 2016. – Ministère de la Culture et de la Communication – Livre et lecture, 16/06/16

Barclay, Donald A. – The challenge facing libraries in an era of fake news. – The Conversation, 05/01/17

Jost, Clémence. - Innovation : les bibliothèques, laboratoires de réinvention. – Archimag, 02/05/17

Machefert, Sylvain. – “Wikipédia et bibliothèques : agir en commun” dans Communs du savoir et bibliothèques/Lionel Dujol. – Paris, Cercle de la Librarie, 2017. Via Hal-archives ouvertes, 31/05/17

Tharel-Douspis, Christine. « Bibliothèque en (r)évolution ». – Bulletin des bibliothèques de France  n° 11. – 23/06/17

Kamposiori, Christina. – The role of Research Libraries in the creation, archiving, curation, and preservation of tools for the Digital Humanities. RLUK Report. – Research Library UK, cop. July 2017. Pdf.

La communication interne en bibliothèque : expérimentation de Teams, le Slack de Microsoft. – Hortensi-us, 15/07/17

Girard, Hélène. – Documentaliste : le poids du mot face aux mutations des fonctions.La Gazette des communes, 03/08/17

Enis, Matt/ – Penn State Libraries launch short stories dispensers. – Library Journal, 04/08/17

Ducharme, Daniel. – Un projet de mise à jour de la terminologie de base en sciences de l’information. – Archives 21, 15/08/17

L’inventivité en bibliothèque : les bibtubeurs, le concours de Booktube. – Actualitté, 29/08/17

Dillaerts, Hans.- Créer, gérer et animer un dispositif de Fab Lab au sein d’une bibliothèque publique : entretien avec Julien Amghar, créateur de l’espace Kénéré le Lab. – DLIS.Hypothèses.org, 06/09/17

 

 

Fake news, désinformation, post-vérité : quel rôle pour les professionnels de l’information ?

truth-lies-wallpaper__yvt2-550x412La victoire de Donald Trump à l’élection présidentielle aux Etats-Unis a fait émerger une nouvelle notion dans l’univers des actualités et de l’information : l’idée de ‘vérité alternative’. Dès son installation à la Maison Blanche, une polémique s’est développée autour du nombre de participants à la cérémonie d’investiture du Président : comme le rappelle l’article du Guardian, Kellyanne Conway conseillère à la Maison Blanche a défendu la version du porte-parole du Président Sean Spicer , « la plus importante cérémonie d’investiture en terme d’audience » en déclarant que celle-ci se basait sur des ‘faits alternatifs’ (alternative facts). Depuis, la ‘post-vérité’ triomphe aux Etats-Unis dans une atmosphère quasi-orwellienne où la « majorité des journalistes sont malhonnêtes » …

La fabrique des fake news et la contre-offensive des médias

L’utilisation des réseaux sociaux et de certains médias pour répandre ces faits alternatifs (« Le Pape François soutient D. Trump ») a été particulièrement importante lors de cette campagne électorale comme lors de la campagne pour le ‘Brexit’. On leur a surtout reproché l’usage de robots logiciels et d’intelligence artificielle (‘bots’) pour manipuler les électeurs. Mais comme le souligne le sociologue Antonio Casilli dans sa conférence sur Infobésité et fake News et algorithmes politiques (Numa, Paris) : aujourd’hui, les entreprises de désinformation sur le net sont loin d’utiliser uniquement des algorithmes et autres ‘chatbots’ pour influencer les internautes. Si Facebook a effectivement utilisé un effet de ‘bulle de filtre’ en faisant circuler un même type d’information à l’intérieur d’un cercle d’amis, (si quelqu’un est de droite, il ne va voir que des informations venant de la droite), la plupart des ‘Likes’ et retweets ont été effectués par des humains dans des ‘usines à click’ de pays émergents (Philippines, Mexique,etc.). Ce ‘digital labor’, comme le Mechanical Turk d’Amazone, est payé quelques centimes le click, un peu plus pour les femmes au foyer de l’Amérique profonde … !

A la veille de l’élection présidentielle en France, un certain nombre de médias et géants du Net se posent la question de vérification des informations. Plusieurs initiatives ont vu le jour depuis quelques semaines pour décrypter ces attaques, notamment le Décodex, outil mis au point par le Monde, mais aussi une alliance de plusieurs médias français avec Facebook et Google. Vreuz0Z4aYsXhAor0wG05Tl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9

Que valent ces outils et peut-on véritablement dénicher les fausses informations qui se multiplient sur la Toile ? Déjà un certain nombre de critiques sont portées à l’égard du Décodex. En cherchant à labelliser la crédibilité des médias en fonction de points de vue subjectifs (Valeurs actuelles a pignon sur rue, tandis que Fakir est une feuille militante), cet outil effectue un biais comme le souligne Vincent Glad dans son article dans Libération : « le Monde se donne le rôle de censeur et de vérificateur du web, de CSA de l’information en ligne ». C’est aussi le point de vue de SavoirCom1, cité par Blog Univesrdoc, blog de veille des chefs de projets à l’INTD-CNAM  « Le collectif SavoirComun1 (1) – un groupement de bibliothécaires engagé pour les libertés à l’ère numérique et la libre dissémination des savoirs – ne dénigre pas l’utilité de Décodex dans le contexte actuel, mais partage son inquiétude sur ce type d’application d’évaluation, qui gérée par des plate-formes privées, voire par l’Etat pourrait amener à des formes de censure. ». Le Monde par la voix de Samuel Laurent (Les Décodeurs) s’est engagé pour sa part à faire évoluer son outil, notamment en distinguant les informations factuelles des commentaires. Mais si certaines mesures ont été prises concernant les sites d’opinion (Les crises, Valeurs actuelles), apparemment cela n’a pas empêché la requalification d’un site comme Doctissimo auparavant classé en orange (site imprécis, ne citant pas ses sources), et passé en vert le 21 février … Serait-ce parce que le groupe Le Monde et Doctissimo lançaient ce jour-là le magazine Sens et Santé (voir Les Echos) comme le souligne Olivier Berruyer dans Les Crises ?

La désinformation dans l’histoire

L’IFLA, de son côté, nous rappelle que ce travail de vérification et de filtrage de l’information est le propre de professionnels de l’information avec son infographie, en collaboration avec Wikipedia, « How to spot fake news »  posté sur Facebook et twitter et explique sur son blog comment les bibliothèques peuvent aider leurs utilisateurs à trouver des faits qui ne sont pas alternatifs … L’exemple de Wikipedia avec ses millions d’utilisateurs qui vérifient les articles peut être une garantie de bonnes pratiques informationnelles tout comme les ‘peer reviews’ des revues scientifiques. Le rôle historique des bibliothécaires dans l’’information literacy’ (formation à l’information) est aussi rappelé dans l’article de Donald Barclay de Conversation « The Challenge facing libraries in the era of fake news ». La désinformation n’a pas commencé avec les réseaux sociaux. Barclay cite le cas de la campagne menée par l’industrie du tabac dans les années 1960 qui s’appuyant aussi bien sur la presse populaire que sur des pseudo-revues scientifiques, sans parler du soutien de Barry Goldwater qui assimilait la dénonciation des effets du tabac sur la santé à un complot communiste !

media_image3Antonio Casilli a aussi rappelé que la manipulation de l’information ne date pas d’hier : la propagande, largement utilisée au 20e siècle, a été créée par l’Eglise catholique au 15e siècle (De propaganda fidei : sur la propagation de la foi) ! Le reste des fausses nouvelles passaient par la littérature de colportage et les complots, souvent en lien avec des puissances surnaturelles, se retrouvaient dans les écrits apocryphes et les mystères ….

Depuis les années 1970, la complexification des sources et des supports de l’information (bases de données, microfilms, informatisation), a rendu crucial le rôle des bibliothécaires universitaires pour former l’esprit critique des étudiants. Cette formation ne se limite plus à localiser des ouvrages ou des documents sur des étagères, mais à » identifier, organiser et citer des informations ». Aujourd’hui avec le foisonnement de l’internet, il ne suffit plus aux étudiants de savoir distinguer une revue scientifique comme Nature d’un magazine grand public, ils doivent différencier les articles de périodiques véritablement scientifiques de ceux de revues ‘prédatrices’ ou pseudo-scientifiques … Sans parler des données et des résultats faussés par les chercheurs eux-mêmes !

Un défi pour les professionnels de l’information

Devant l’incertitude qui entoure la fiabilité des données et dans un environnement universitaire de plus en plus changeant, où les étudiants sont plus souvent créateurs de nouveaux savoirs que consommateurs d’information, l’ACRL (Association américaine de bibliothèques de recherche) a lancé son « Framework for Information Literacy in Higher Education », cette charte pour la formation à l’information dans l’enseignement supérieur reconnaît que l’évaluation de l’information n’est pas une chasse au trésor ou les ressources identifiées seraient ‘bonnes’ ou ‘mauvaises’. L’autorité est construite et contextuelle et fait appel aux enseignants et aux bibliothécaires pour une approche de l’autorité et de la crédibilité à partir du contexte de l’information et non pas dans l’absolu. Pour D. Barclay cette position est beaucoup plus stimulante pour les étudiants que d’accepter l’autorité d’une source sans discussion ou de réfuter toute autorité comme anachronique au nom de la post-vérité !

C’est une approche semblable qu’a pris le Collectif SavoirCom1 en considérant la question de l’information sous l’angle des ‘Communs de la connaissance’ : en prenant l’exemple de Wikipédia, il montre qu’»un espace de publication constitué comme un commun résiste mieux aux fausses informations ». Le collectif veut favoriser l’émergence d’une communauté de ‘vigilance informationnelle autour du Décodex » : elle permettrait que les outils de vérification soient eux-même vérifiables, que les règles de contribution et de régulation soient clairement énoncées, que les sites évalués puissent faire appel de leur évaluant en démontrant leur mode d’élaboration et de transmission de l’information et enfin que les acteurs de l’information (organes de presse ou prestataires de services informationnels) s’impliquent dans la formation aux médias et à l’information des citoyens. On retrouve ici l’importance de la co-construction de l’information et du contexte prôné par l’ACRL dans son Framework.

 

Framework for Information Literacy for Higher Education/Association  of College & Research Libraries. - Ala.org, 11/01/16

Swaine, Jon. – Donald Trump’s team defends ‘alternative facts’ after widespread protests. – The Guardian, 22/01/17

L’annuaire des sources du Décodex : mode d’emploi/Les Décodeurs.Le Monde, 23/01/17

Dorf, Michael C. ; Tarrow, Sidney. – Stings and scams: ‘Fake news’, the First Amendment and the New Activist Journalism. – Cornell Legal Studies Research Paper n°17602, 26/01/17

Alternative Facts and Fake News : Verifiability in the Information Society. - Library Policy and Advocacy Blog [IFLA Blog], 27/01/17

How to spot fake news ? IFLA in the post-truth society. – Ifla.org, 01/02/17

Delcambre, Alexis ; Leloup, Damien. - La traque ardue des « fake news ». – Le Monde, 02/02/17

Yeh, Alexandra.- Les citoyens n’ont jamais été aussi méfiants envers les médias.Méta-média, 03/02/17

Glad, Vincent. – Qui décodera les décodeurs ? De la difficulté de labelliser l’information de qualité. – Libération, 03/02/17

Barclay, Donald A. – The Challenge facing libraries in an era of fake news. – The Conversation, 05/02/17

Bounegru, Liliana. - Three ways in which digital researchers can shed light on the information politics of the post-truth era. – Impact of Social Sciences, 06/02/17

Ertzscheid, Olivier. – La vie en biais. – Affordance.info, 07/02/17

Controverses autour du Décodex, un outil contre la désinformation ?Docs pour Docs, 07/02/17

Seabright, Paul. – Les « fake news », « quelques gouttes d’eau dans une cascade de propagande ». – Le Monde, 08/02/17

Decodex : on s’engage dans une guerre contre les ‘fake news’. S. Laurent (Le Monde), F. Ruffin (Fakir), L. Merzeau (SavoirCom1) débattent. – Arrêt sur image, 10/02/17

Lacour, Sophie. - Image, ma belle image, montres-tu la vérité ? – Usbek & Rica, 10/02/17

Manach, Jean-Marc. - Il est trop tard pour s’alarmer d’une cyber-guerre électorale. - Slate, 14/02/17

« Fake news » : les profs américains ajoutent l’éducation à l’information dans leurs cours. – VousNousIls, 15/02/17

Décodex, la controverse. – Blog UniversDoc, 20/02/17

[Tellement prévisible] Décodex victime d’un conflit d’intérêts patents …Les-crises.fr, 21/02/17

 

 

 

Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

Livre numérique : comment expliquer ce retard au décollage ?

ebookIl y a près de dix ans, en 2007, au moment du lancement de la liseuse Kindle, le marché des e-books s’annonçait prometteur. Et aujourd’hui les livres numériques devraient avoir supplanté le papier comme les téléchargements musicaux l’ont fait pour le vinyle ! Or, si le secteur de l’édition se porte bien, en France comme dans le monde, c’est essentiellement dû aux livres imprimés.

Comme le rappelle Edouard Laugier dans le Nouvel Economiste, le livre est le premier marché culturel du monde : « en 2014, les ventes mondiales  ont généré 125 milliards de dollars de revenus » (Kurt Salmon). Le livre numérique représente 15% du chiffre d’affaire global. En France aussi, le livre est la première industrie culturelle avec un chiffre d’affaire de 4,06 milliards € (GFK). Au niveau mondial, les e-books représentent 10% des ventes, 25% dans le monde anglo-saxon et 2 à 3% en France …

Il faut reconnaître qu’en France, la consommation de produits culturels numériques est moins importante que dans d’autres pays développés, exception faite de la musique. Comme l’explique Christophe Bys dans l’Usine digitale, seuls 9% de Français souscrivent à une offre de vidéo à la demande, contre 60% aux Etats-Unis, 23% au Royaume Uni et 19% en Allemagne … Il est vrai que les publics valorisent de plus en plus la logique de l’accès (streaming) à celle de la propriété (achat de produits), sauf en matière de jeux vidéo où l’hybridation domine entre dématérialisation (jeux en ligne) et matériels (console +jeux).

Marché et consommation de e-books en France llc_droit_d_auteur

Alors qu’aux Etats-Unis les livres numériques représentent 25% du marché du livre, d’après le baromètre KPMG, la consommation de livres numériques en France est inférieure à 2% en 2015 et 74% des Français ne comptent pas en lire selon un sondage Opinion Way ! Néanmoins, le nombre de lecteurs de livres numériques  est en légère augmentation (20% de la population française) d’après les enquêtes 2016 du 6e Baromètre sur les usages du livre numérique (Sofia-SNE-SGDL), les deux supports « coexistent dans un marché stable qui confirme la pratique d’un usage mixte». Si la demande est si faible, l’offre est plutôt opaque et les éditeurs traditionnels hésitent à abandonner la proie pour l’ombre virtuelle des ouvrages.

Pourtant le processus numérique est bien intégré dans la production éditoriale : rédaction, édition et fabrication informatique ont permis de réduire les coûts et les délais et d’améliorer la productivité. Il en est de même pour la gestion des catalogues et les bases de données clients. Si 62% des éditeurs disposent d’une offre numérique (surtout les grandes maisons), la promotion des e-books a bien ralenti depuis 2011 surtout en raison de difficultés dans la commercialisation et la compréhension du marché. En fait, comme l’explique Clément Solyme dans son article d’Actualitté, « le numérique pour les éditeurs, ce ne sont pas des coûts en moins, mais des recettes en plus ». En effet, sur les grandes ventes, le coût de fabrication ne fait pas vraiment la différence et les coûts de stockage sont réduits grâce à la technologie. Aujourd’hui, on imprime seulement pour trois mois, puis on réédite si nécessaire …

Seul le secteur professionnel et universitaire profite de la révolution numérique : les éditions juridiques et scientifiques sont très numérisées. Les éditeurs de revues STM (sciences, technologies, médecine) réalisent 40% de leur chiffre d’affaire grâce aux publications numériques et jusqu’à 80% aux Etats-Unis ! Quant aux ouvrages juridiques, la mise à jour est quasi-directe depuis les tribunaux …

Freins à la consommation : les prix, la TVA

app_ebook_bundleUn des principaux atouts des plateformes d’e-books au début de leur lancement, était les prix attractifs, avec le plafond de $ 9.99 initié par Amazon. Et ce, avec un confort de téléchargement immédiat ; il suffisait de cliquer sur un titre sur sa liseuse ou sur l’ordinateur et l’ouvrage est immédiatement téléchargé, et le compte débité aussi vite ! Or, l’année dernière, les principaux éditeurs américains ont décidé d’une augmentation substantielle : on a immédiatement assisté à un renversement du marché : une baisse de 11% des ventes d’e-books entre 2014 et 2015 ! Le marché est très « price sensitive », certaines différences de prix sont jugées insuffisantes pour passer du papier au numérique, l’écart de prix est d’environ 30% : ex : 20 € l’exemplaire papier, 13,99 € pour l’e-book. Ce dernier peut même être plus cher que le livre papier comme dans le cas des livres de poche …. Le ‘juste prix’ pour les e-lecteurs se situerait autour de 7€.

Mais c’est essentiellement l’arrivée de l’iPad d’Apple qui a imposé des prix plus élevés (plus de 17%) sur sa plateforme iBooks suite à une entente avec six éditeurs ! Ensuite, Amazon a imposé de nouvelles conditions contractuelles … La plupart des éditeurs traditionnels ont augmenté leurs prix, ce qui a rendu les e-books moins accessibles pour les lecteurs.

Mais ces éditeurs ne représentent pas l’ensemble de la publication des livres numériques. D’après Clément Solyme, aux Etats-Unis, sur 10 000 titres vendus en mai 2015, 27% sont publiés par des grands groupes au prix moyen de $8,22 et 73% par des petits éditeurs ou par autopublication, au prix moyen de $4,58. En fait, comme le souligne une étude citée par The Guardian, la baisse du marché numérique ne prenait en compte que la moitié des e-books vendus aux Etats-Unis. Rappelons aussi qu’en France, plus de la moitié des lecteurs de livres numériques (59%) les acquièrent gratuitement car ceux-ci appartiennent au domaine public.

Au niveau de la TVA, si la France a adopté depuis un an un faible taux de TVA (5,5%), la plupart des  pays de l’Union européenne conservent encore un taux élevé pour les e-books, jusqu’à 20% au Royaume Uni. Mais la Commission a prévu une baisse du taux pour fin 2016.

Autres freins : liseuses, formats, DRM drm

Aux Etats-Unis, le marché des liseuses est saturé : il a été évincé par la multiplication des smartphones et des tablettes qui séduisent par leur aspect multisupports. Comme le dit Hervé Essa , cité par Edouard Laugier dans le Nouvel Economiste, « les liseuses sont des équipements marginaux. Le secteur de l’édition n’a pas anticipé cette demande des publics. Les offres ne sont ni marketées, ni adaptées aux usages. ». Michel Beck dans Numérama ajoute même que la chaîne de librairies britannique Waterstones a enlevé les Kindle de ses vitrines… Et ce n’est pas le dernier-né des Kindle, Oasis, lancé cette semaine, qui inversera cette tendance. Malgré de nombreux atouts en plus de l’encre électronique (éclairage LED, batterie qui dure plusieurs mois, option pour gauchers, etc.), Amazon le propose à un prix (près de 300 €) qui en dissuadera plus d’un … !

En France 4% des foyers sont équipés de liseuses et 10,7 millions d’unités achetées.

Mais si le e-book a des avantages au niveau de la mobilité, ce produit présente des handicaps par rapport au livre physique : dans la plupart des cas, la revente, le prêt ou le don ne sont pas permis par les conditions d’utilisation. Les DRM (dispositifs techniques de gestion d’une œuvre numérique) agissent comme des verrous pour empêcher les possesseurs d’un livre numérique de le partager, de le diffuser ou de le revendre. Seule solution pour partager des œuvres entre proches, paramétrer toutes les liseuses de la même famille avec le même compte … ! Evidemment, cela n’est possible qu’avec un même format de liseuse : Kobo (FNAC), Kindle (Amazon) ou iBooks (Apple) … 13377-drm

Comme le rappelle Neelie Kroes, Commissaire européenne à l’économie numérique, citée par Joaquim Rodriguez  dans Publishing Perspectives « Quand vous achetez un livre papier, il est à vous et vous pouvez l’emporter où vous voulez. Cela devrait être la même chose avec un e-book. Aujourd’hui, on peut ouvrir un même document dans plusieurs ordinateurs, pourquoi n’en serait-il pas de même pour un e-book sur différentes plateformes avec différentes applications. » Malgré la résistance des éditeurs, Neelie Kroes rappelle que l’interopérabilité des formats est à l’ordre du jour dans l’agenda numérique européen.

Pour Coralie Piton, directrice du livre à la FNAC, interviewée dans Numérama « Il faut trouver un modèle qui protège l’ensemble de la filière », mais pas question d’abandonner les DRM qui les protègent contre les pirates. C’est pourtant ce qu’a choisi Bragelonne en préférant le tatouage numérique  plutôt que les verrous. Les responsable de cette maison sont « convaincus que le seul moyen de combattre le piratage, c’est de créer une offre légale qui convient aux attentes des lecteurs. ».

Cette idée d’une protection « user friendly » est aussi celle des DRM LCP (Lightweight Content Protection), solution développée par le consortium Readium qui se présente comme l’alternative européenne à la DRM Adobe pour le format EPUB qui permet l’interopérabilité des formats. On pourra ainsi consulter un e-book sur n’importe quel appareil. Ces DRM ‘poids plume’ sont destinés prioritairement au prêt en bibliothèques à travers le système PNB. Mais la concurrence, notamment Adobe et les sociétés américaines, ne l’entend pas de cette oreille et menace de lancer une guerre des brevets … !

Cette mesure permettrait de desserrer un peu le carcan des e-books qui n’ont pas encore acquis la légitimité d’œuvres autonomes en France au moment où l’Assemblée nationale rejette l’amendement permettant de créer un dépôt légal numérique. La BNF ne peut que moissonner les œuvres sur le web et les robots d’archivages risquent de ne pas voir les ouvrages protégés par des DRM …

Beck, Michel. – Qui veut la peau du livre numérique ?Numerama, 22/01/16

Beuve-Méry, Alain. – La résistible ascension du livre numérique. – Le Monde, 24/02/16

Un marché stable qui confirme la pratique d’un usage mixte. – Baromètre Sofia/SNE/SGDL, 16/03/16

Rodriguez, Joaquim. – Will Ebooks Ever Circulate Freely in Europe ?Publishing Perspectives, 22/03/16

Laugier, Edouard. – Le livre numérique, l’innovation dont personne ne veut vraiment. – Le Nouvel Économiste, 22/03/16

Hoang, Kristine. – AAP :Ebooks Sales Down 12.7 Percent.Digital Book World, 22/03/16

Solym, Clément. – L’intérêt pour le livre numérique décline, ou les prix  sont devenus moins attractifs ?Actualitté, 23/03/16

Oury, Antoine. – L’Association des Bibliothécaires de France favorable à un dépôt légal numérique. – Actualitté, 31/03/16

Bys, Christophe. – Les industries culturelles doivent se transformer plus vite que leurs clients se digitalisent. – Usine digitale, 04/04/16

Hugueny, Hervé. – Jean-Claude Junker redit son soutien à une TVA unique numérique/papier. – Livres Hebdo, 05/04/16

Woitier, Chloé. – L’industrie européenne du livre veut offrir une alternative à Amazon.Le Figaro, 07/04/16

Oury, Antoine. – La DRM LCP : grands enjeux, risques élevés. – Actualitté, 11/04/16

Berne, Xavier. – La TVA réduite pour les ebooks et la presse en ligne : une proposition législative fin 2016. – Next INPact, 11/04/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? II – L’exploration de contenus

text_mining_analytics_survey_softwareAprès la disposition permettant aux chercheurs de mettre gratuitement en ligne leurs publications réalisées dans le cadre de recherches sur fonds publics, nous allons examiner l’impact des amendements autorisant la fouille automatique de textes et de données (Text and Data Mining –TDM) sur le développement de la recherche.

Au départ cette mesure ne devait pas apparaître dans la loi ; en attendant une réglementation européenne sur la question, le Ministère de la Culture et de la Communication avait nommé une mission pour en faciliter le recours comme exception au droit d’auteur comme le signale Antoine Oury dans un article d’Actualitté. Les éditeurs, dans leur ensemble, étaient plutôt réticents à ouvrir leurs collections, même si certains grands acteurs, comme Elsevier ou Springer, accordaient des licences limitées aux chercheurs.

Le TDM : aspects juridique et technique

Que représente exactement ce traitement et qu’apporte-t-il à la recherche ? Une partie de la réponse se trouve dans la tribune parue dans le Monde le 7 mars dernier, signé par un grand nombre de chercheurs « Pour une science ouverte à tous ». Après avoir rappelé l’importance du libre accès des publications scientifiques, notamment dans l’archive ouverte HAL, les chercheurs invitent les sénateurs à voter l’article 18 bis en s’assurant que la fouille de données ne soit pas soumise à des négociations avec un tiers. « La fouille de données doit devenir un droit ».

L’article en faveur du TDM permettra donc « d’extraire de l’ensemble de la production scientifique mondiale de nouvelles connaissances grâce à l’exploitation automatisée, à l’aide d’algorithmes, de corpus désormais gigantesques. » Application-du-processus-de-fouille-de-donnees-dusage-du-web-sur-les-fichiers-logs-du-site-cubba16

Contrairement à d’autres pays (Etats-Unis, Royaume Uni), en France, les chercheurs n’étaient pas autorisés à pratiquer cette fouille de contenus de façon automatique et certains laboratoires étaient obligés de se rendre à l’étranger pour réaliser cette opération … ! Si certains éditeurs accordent des licences, celles-ci sont limitées (10 000 articles par semaine pour Elsevier sur la plateforme Science Direct). La Contribution de l’ABDU au CNNUM est très claire sur cette question : 10 000 articles/semaine cela peut paraître beaucoup, mais si l’hypothèse de recherche n’est pas validée au bout de X jeux de 10 000 articles de Science Direct, comment explorer les Y jeux nécessaires, et aussi sur d’autres bases de données ? Et ce, sans jamais pouvoir fouiller en une seule fois l’ensemble du corpus. De plus, Elsevier impose aux chercheurs de publier sous licence CC-BY-NC (pas d’utilisation commerciale) les extraits pertinents retenus en limitant leur longueur à 350 mots … Quant à Springer, il impose que chaque projet de TDM portant sur ses contenus soit décrit et enregistré via à un formulaire en ligne et se réserve le droit de décider si la demande est fondée … « Une ingérence inacceptable du point de vue de l’indépendance de la recherche ».

En effet, en procédant à ce traitement, les chercheurs n’ont pas comme objectif « la dissémination indue de ces contenus sous droit ou de leur exploitation commerciale ». Mais cette ‘lecture computationnelle’ implique la création d’une copie numérique du corpus à fouiller, ce qui soulève un problème de propriété intellectuelle. Il est évident qu’une solution doit être trouvée pour les ayants droit, d’autant que la plupart des chercheurs impliqués sont eux-mêmes des auteurs … !

Les éditeurs ont fait pression sur l’UE pour qu’une solution contractuelle soit priorisée par rapport à une révision du cadre juridique qui passerait par la création d’une nouvelle exception au droit d’auteur. C’est déjà le cas au Royaume Uni où la loi a consacré une nouvelle exception au droit d’auteur couvrant les ‘analyses computationnelles’ de contenus protégés, effectuées dans un cadre de recherche sans but lucratif, comme le souligne Calimaq dans un post de S.I.Lex sur l’exploration des données. C’est aussi la raison pour laquelle les chercheurs insistent sur la désignation d’un ‘tiers de confiance’, extérieur au milieu de l’édition commerciale, pour réaliser ces opérations. C’est ce que propose l’ABDU : une super base de données sur une plateforme publique pouvant « héberger tous les corpus du web visible et invisible aux seules fins d’en permettre la lecture algorithmique». Cette immense base de contenus constituerait une ‘base maître’ qui ne serait accessible et manipulable que par le tiers de confiance. Pour chaque demande de recherche, un ‘bac à sable’ serait constitué en copiant les corpus à partir de la ‘base maître’ ; cette copie serait détruite en ne conservant que les occurrences pertinentes, une fois les opérations de TDM terminées. Cela permet de répondre aux besoins des chercheurs tout en assurant la protection des ayants droit.

Le TDM comme service aux chercheurs text-mining

Dans les sciences dites ‘dures’ l’exploitation des données de la recherche est largement répandue et souvent effectuée par les chercheurs eux-mêmes ; c’est beaucoup moins le cas en sciences humaines et sociales (SHS) et dans les humanités où la formation aux outils numériques est moins répandue. Le traitement linguistique nécessaire à la fouille de texte est généralement confié à un service hybride de documentation et d’ingénierie linguistique. Frédérique Bordignon analyse ce service dans un récent billet du Carnet’IST. Cette ingénieure de recherche explique le fonctionnement d’un des outils nécessaire à la fouille automatique de textes RapidMiner et le service que ces spécialistes peuvent apporter aux chercheurs. Cette nouvelle activité pourrait s’imposer auprès des bibliothèques et des laboratoires de recherche, comme le Medialab à Sciences Po.

C’est cette activité de ‘data librarian’ qu’évoque Alexandre Tur dans un article de Catherine Muller sur le blog de l’ENSSIB. Ce conservateur de bibliothèque a effectué son stage au Canada dans le département de services aux chercheurs de la Quenn’s University de Kingston (Ontario). Il a travaillé surtout sur l’assistance à la gestion de données de la recherche auprès des chercheurs en humanités et à la promotion de l’open access dans l’université. text-mining _1

Alexandre Tur prend soin de distinguer les données scientifiques des données publiques qui sont proposées librement, les ‘open data’ (données ouvertes). Ces dernières proviennent généralement des Etats et des administrations publiques, en France c’est la Mission ETALAB qui les représente, (statistiques économiques, démographiques, géographiques, sociales et culturelles). Comme le souligne le Comité d’éthique du CNRS (COMETS) dans son avis du 7 mai 2015 sur les enjeux éthiques du partage des données, « Les politiques qui promeuvent l’ouverture des données publiques n’ont pas les mêmes objectifs que celles du partage des données scientifiques ». Si les données scientifiques produites sur fonds publics ont vocation à devenir publiques, les données publiques ont vocation à devenir scientifiques lorsqu’elles concernent l’environnement, la société ou la santé. Dans ces domaines, les questions éthiques doivent être évoquées lorsque ces données sont sensibles et relèvent de la vie privée.

Les bibliothèques de recherche représentent un partenaire ‘naturel’ pour héberger et gérer ces données. Comme l’explique William M. Cross dans son article du Library Journal : les bibliothèques vont se développer comme un ‘écosystème open data’. On va passer de l’idée d’infrastructure des données, centrée autour des revues scientifiques et des dépôts institutionnels à une ‘écologie des données de la recherche’. Cette  écologie implique une évolution dans plusieurs domaines, comme le développement de nouvelles normes autour de la validation des données de la recherche, de l’identification de la provenance des jeux de données et des nouveaux types de gestion et de propriété de ces données.

Les métadonnées deviennent centrales dans ce processus de transition entre le web documentaire et le web de données. Comme le dit Valérie Tesnières, citée dans « Gérer les données de la recherche », une formation de la TGIR Humanum, « L’enjeu est moins de produire des données que de les connecter les unes avec les autres […] Produire des métadonnées permet à la fois l’interopérabilité des données et à en assurer une meilleure pérennisation »

C’est ce que soutient aussi Gildas Ilien dans un récent article d’Archimag : de nouveaux formats doivent permettre d’adapter le catalogage à l’environnement web et numérique des bibliothèques. Cette « revanche des données » nous oblige à revenir à une sorte de catalogue pour s’y retrouver dans la jungle du numérique, même si l’usager n’a pas besoin de les voir … ! Seules les machines les traiteront. Ce retour aux sources (catalogage) implique néanmoins un changement de structures et de système : la transition bibliographique où la logique du document s’efface au profit de la logique de l’information.

Cette ‘révolution copernicienne’ dans la documentation  explique le slogan des chercheurs du LERU (Ligue des universités européennes de recherche) justifiant la fouille de textes et de données « The right to read is the right to mine » (Le droit de lire est le droit d’explorer).

llc_droit_d_auteur

Langlais, Pierre-Carl. - Text mining : vers un nouvel accord avec Elsevier. – Sciences communes, 29/10/14

Exploration des données : un environnement juridique en évolution. – S.I.Lex, 05/12/14

Consultation du Conseil national du numérique : contributions de l’ABDU.- ABDU, 02/15

Les enjeux éthiques du partage de données scientifiques : avis du COMETS. – CNRS, 07/05/15

Oury, Antoine. – Déclaration de la Haye : le copyright contre les connaissances. – Actualitté, 11/05/15

Naegelen, Pierre. – Données de la recherche : quel positionnement et quels rôles pour les bibliothèques ? – SCD Université Toulouse III Paul Sabatier, 15/06/15

LERU Statement : the right to read is the right to mine. – League of European Research Universities, 15/06/15

Demange, Julie. – Gérer les données de la recherche, de la création à l’interopérabilité (1/3). – Archives des mondes contemporains, 14/10/15

Fradin, Andrea. – Premier bug : la fouille automatique de données es adoptée.Rue89/L’Obs, 21/01/16

Oury, Antoine. – France : une mission pour faciliter la fouille et l’exploration de textes et de données. – Actualitté, 21/01/16

La circulation des données et du savoir. Projet de loi pour une République numérique adopté par l’Assemblée nationale en première lecture. – Assemblée nationale, 26/01/16

Cross, William M. – Libraries support data-sharing across the research lifecycle. – Librairy Journal, 01/02/16

Langlais, Pierre-Carl. – Text-mining : une licence nationale contre l’exception ? - Sciences communes, 19/02/16

Bordignon, Frédérique. – Le text-mining comme service aux chercheurs.CarnetIST, 05/03/16

Pour une science ouverte à tous. – Le Monde, 08/03/16

Ilien, Gildas. – Transition bibliographique : la revanche des données ?Archimag, 14/03/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? I – Publications en libre accès

actu_edition-scientifique-passe,-present-et-perspectives_22_2000_2000_MAX_2b768Deux dispositions, adoptées dans le cadre du Projet de loi numérique vont sensiblement changer le travail des chercheurs en France. Elles concernent, d’une part la publication en libre accès d’articles scientifiques dans certaines conditions, d’autre part le traitement et la fouille automatique de données dans un corpus constitué.

Des parlementaires déterminés ont bravé l’opposition des éditeurs et même d’une partie du gouvernement pour faire passer certains amendements !

L’article 17 de la future loi pour une République numérique permet aux auteurs dont les travaux sont financés à hauteur de 50% sur fonds publics de mettre gratuitement en ligne leurs articles, au terme d’un délai maximum de de 6 mois après la première publication (12 mois pour les Humanités/SHS), même si l’auteur a accordé l’exclusivité à un éditeur ! Ce droit s’étend aussi à d’autres publications comme les actes de congrès et de colloques ainsi que les recueils de mélange. Les données associées aux articles sont aussi concernées. Comme le souligne Axelle Lemaire sur France Inter, citée par Actualitté « La recherche, si elle n’est pas ouverte, si elle n’est pas internationale, si elle n’est pas partagée avec la communauté des chercheurs la plus élargie possible, eh bien elle ne rayonne pas. Donc, moi je me pose la question : est-ce bien le gouvernement qui se veut le fossoyeur de la recherche en 2016, lorsqu’il cherche à étendre le périmètre d’influence des chercheurs, ou sont-ce les éditeurs ? »

En matière de données de la recherche, une série d’amendements a été adoptée en faveur de la fouille automatique de texte et de données (TDM, Text and Data Mining) contre l’avis du gouvernement et même du rapporteur ! Comme le fait remarquer Andrea Fradin dans son article sur l’Obs/Rue 89, malgré l’avènement du Big data et de ses outils de traitement, il était jusqu’alors impossible pour les chercheurs d’extraire automatiquement des mots ou des données d’un corpus de documents informatisés. Avec cet amendement, la France devance même l’UE en la matière, celle-ci n’ayant pas encore statué sur la question. Axelle Lemaire s’était d’ailleurs abritée derrière cet argument pour ne pas prendre parti, préconisant d’attendre la directive européenne …

Ces deux dispositions vont permettre à la recherche française d’être moins dépendante du lobby de l’édition scientifique. En effet, comme le rappelle Pierre Carl Langlais sur son blog Hôtel Wikipedia, « dans l’édition scientifique, les auteurs ne sont jamais payés (ils paient même pour être publiés) ».open-access-button_logo

Libre accès : voie verte, voie dorée … Ou en diamant !

La voie dorée, c’est la stratégie que certains éditeurs ont trouvé pour répondre au mouvement du libre accès (Open Access Initiative) lancé en 1996 : obliger les chercheurs à payer pour voir leurs travaux publiés … Et les lecteurs pourront y accéder gratuitement ! La ‘voie dorée’ (gold open access) se positionne par rapport à la ‘voie verte’ (green open access) en mettant en avant la qualité d’une édition scientifique professionnelle avec surtout la sélection et l’évaluation des articles par des spécialistes (‘peer review’). Tout n’est pas à condamner à priori dans ce modèle et certains auteurs y trouvent leur compte … Mais il existe des éditeurs qui sont de véritables prédateurs : c’est ce que démontre Jeffrey Beall, bibliothécaire chargé des publications en ligne et professeur associé à l’Université de Denver, Colorado dans une interview à Scholarly Kitchen. Contacté par de nombreux éditeurs ‘gold’, il s’est rendu compte, que pour certains « leur mission n’était pas de promouvoir et rendre disponibles les travaux de recherche mais plutôt d’exploiter le modèle de gold open access ‘auteurs-payants’ ». Pour lutter contre cette déviance et permettre aux chercheurs de choisir les revues pour leurs publications en connaissance de cause, Beall a publié une liste noire de ces éditeurs.

Les chercheurs déposent de plus en plus leurs travaux sur des plateformes de partage comme Academia.edu ou ResearchGate. Mais ces sites gratuits ne semblent pas présenter toutes les garanties de sécurité et de sérieux nécessaires à des publications scientifiques … 497671-rea-197588-011-580x310

Pour dépasser ces problèmes et les conflits d’intérêt qu’ils pourraient occasionner, le Comité des sciences sociales de Science Europe, propose une « voie de diamant », ou plutôt un ‘engagement de diamant comme le souligne Marin Dacos dans son post sur Blogo-numericus. Avec cet engagement les « productions scientifiques seront nativement numériques et nativement en accès ouvert, sans frais à payer pour l’auteur (APC : Articles Processing Fees) ». Pour cela les auteurs devront demander aux éditeurs l’autorisation de déposer leur publication dans une archive ouverte sous la forme de ‘postprint’ (version auteur acceptée et revue par les pairs avant correction et mise en page par l’éditeur). Les éditeurs gardent ainsi une certaine marge dans leurs publications. Marin Dacos regrette que ce dispositif ne concerne que les archives ouvertes, comme SPIRE de Sciences Po, et ne prend pas en compte les plateformes de publications comme Revues.org ou OpenEditionBooks. Sonia Livingstone, professeur en media et communication à London School of Economics (LSE), interviewé sur The Impact Blog, apprécie beaucoup la facilité et le professionnalisme des archives ouvertes et notamment LSE Rechearch Online, le dépôt institutionnel de la LSE. Elle y dépose toutes sortes de travaux : articles, mais aussi rapports de recherche, questionnaires, chapitres d’ouvrages, etc. La chercheuse préfère aussi déposer la version ‘postprint’, prête à être publiée. Et si ses articles sont encore sous paywall (embargo d’un ou deux ans) chez un éditeur commercial, les résultats d’une recherche sur Google Scholar affichent les PDF disponibles dans le dépôt de la LSE.

Martin Haspelmath a une autre vision pour cet engagement dans son post sur Free Science Blog ; il part d’abord d’un constat : le mouvement open access stagne. Malgré le fait qu’un sixième de toutes les publications est en libre accès, la majorité des abonnements (payants) est stable. Les experts en OA n’en cherchent pas la raison. Pourtant l’explication est simple, personne n’a envie que ça change : les éditeurs font des bénéfices avec leurs abonnements et les chercheurs ont besoin des éditeurs pour publier dans des revues prestigieuses pour leur carrière … ! Or les publications scientifiques ne sont pas un service qu’on peut déléguer à un prestataire extérieur (outsourcing), elles sont une partie intégrale du processus scientifique. Ce sont seulement quelques aspects techniques comme la mise en page ou l’hébergement qui peuvent sous-traités à des fournisseurs extérieurs. Ce que propose ce chercheur, c’est que les pouvoirs publics et les universités financent des éditions universitaires plutôt que d’arroser les maisons d’éditions commerciales. Chaque éditeur institutionnel pourrait créer un bouquet de revues prestigieuses et les financer comme on paye pour le personnel et les bâtiments de la recherche. Les lecteurs et les auteurs n’auraient rien à payer pour ces revues en accès libre ‘diamant’. Les financeurs tireront profit de ces investissements de la même façon qu’ils tirent profit de la recherche : en accroissant leur prestige !

Comme le souligne Sonia Livingstone, « tous les chercheurs doivent repenser leur attitude en matière de publications scientifiques … Je me réjouis de la lutte (encore incertaine) entre la propriété [intellectuelle] et l’accès au savoir ».

access-open-e1367915910684

Dacos, Marin. – Un engagement de diamant pour l’open access : position du Comité des sciences sociales de Science Europe. – Blogus numéricus, 18/08/15

Contribution de l’ABDU à la consultation nationale « Ambition sur le numérique » : TDM et open access. – ABDU, 09/15

Livingstone, Sonia. – Five minutes with Professor Sonia Livingstone on the benefits of open access and institutional repositories : entretien. – Impact of Social Sciences, 20/10/15

Lau-Suchet, Soliné. – Les enjeux de la science ouverte : retour sur les 6es journées « open access » (1/4) #OA. – Bulac, 23/10/15

« Open access » pour les revues scientifiques : il faut plusieurs modèles. – The Conversation, 10/11/15

Projet de loi pour une République numérique. – Assemblée nationale, 09/12/15

Report on Berlin 12 Open Access Conference. – Association of Research Libraries, 18/12/15

Haspelmath, Martin. - How to switch Quickly to diamond open access: the best journals are free for authors and readers – Free Science Blog, 28/12/15

Clavey, Martin. – Publications scientifiques : l’open access va entrer dans la loi. – Educpros, 09/12/15

Archives ouvertes et licences Creative Commons : des synergies à conforter. – S.I.Lex, 19/01/16

Mazin, Cécile. – Axelle Lemaire : Le gouvernement, fossoyeur de la recherche ou les éditeurs. – Actualitté, 20/01/16

Langlais, Pierre-Carl. – Vite, une loi pour garantir l’accès aux connaissances. - Hôtel Wikipédia – L’Obs-Rue 89, 20/01/16

La CPU et le CNRS demandent la libre diffusion des publications scientifiques et des fouilles de données à la mesure des enjeux scientifiques. – CNRS : communiqués de presse, 21/01/16

Academic social networks and Open Access: French Researchers at the Crossroads. – InfoDoc Microveille, 24/01/16

Esposito, Joseph. – An Interview with Jeffrey Beall. – Scholarly Kitchen, 08/02/16

 

 

Quel prêt pour le livre numérique ? La controverse autour du projet PNB

Des-écrits-aux-écrans1Un an après l’ouverture au public du premier dispositif de prêt numérique dans les bibliothèques publiques (Projet PNB), une polémique divise les bibliothécaires, notamment après la mise en service de ce prêt dans les bibliothèques de la Ville de Paris le 13 octobre.

Le Collectif SavoirsCom1 a même appelé à bloquer le système en téléchargeant des fichiers de livres disponibles jusqu’à épuisement avec le mot d’ordre « chasse aux jetons ». Pour ce groupe de bibliothécaires, chercheurs et juristes, ce modèle est inabordable pour des budgets publics et surtout l’implantation de DRM (verrous numériques) dans les fichiers des e-books va à l’encontre de la philosophie des communs communs – célébré la même semaine par les bibliothèques de Paris avec le Festival Numok pendant « Le Temps des communs ». La CGT Culture de la Ville de Paris soutient aussi l’action du Collectif en dénonçant « l’indigence du système comme du modèle ». Le livre numérique coûte plus cher à la bibliothèque que le livre papier (jusqu’à trois ou quatre fois), et de plus, il s’agit d’une licence et non d’une acquisition définitive. Cette licence est limitée dans le temps (6 ans pour la Ville de Paris) et en nombre d’emprunts simultanés (30 maximum). Ensuite la bibliothèque est obligée de racheter un exemplaire … Le syndicat appelle à « un autre rapport de force avec les éditeurs et à un droit de prêt similaire au droit du livre papier sans contrainte de durée et de nombre de prêt ».

Le Réseau Carel avait alerté dès 2013 sur le coût élevé de l’acquisition au titre et sur le choix de la licence à la place de l’achat définitif dans le projet PNB. Les budgets des bibliothèques n’y résisteraient pas et ces dernières perdraient leur rôle patrimonial en n’étant plus propriétaires des collections.

De son côté, l’ABF (Association des bibliothécaires de France) s’est inquiétée dans un communiqué « du manque de transparence de l’expérimentation PNB, et à part quelques retours, d’aucune évaluation de ce service un an après sa mise en œuvre ». L’ABF rappelle aussi que ce dispositif entre en contradiction avec les accords interprofessionnels du 8 décembre 2014 « qui appelle à la diversité des modèles du livre numérique en bibliothèque ». Le PNB risque aussi de provoquer une fracture territoriale dans la mesure où ce sont de très grandes collectivités (Montpellier, Grenoble, Paris), disposant de suffisamment de ressources financières, qui mettent en œuvre ce service. Le PNB crée donc « une inégalité d’accès à la lecture sur l’ensemble du territoire français ». De plus, la complexité du modèle avec les DRM rend difficile d’accès à ce service une grande partie des usagers qui ne sont pas à l’aise avec le numérique. Cette exclusion entre en contradiction avec les principes fondamentaux de la charte BibLib. L’ABF demande enfin au Ministère de la Culture de « diligenter une véritable étude indépendante qui puisse faire le point sur cette année d’évaluation ».

Comble d’incompréhension, des bibliothécaires parisien(ne)s qui ont pris l’initiative de relayer ce communiqué sur twitter ont été sommés de retirer immédiatement leurs twits par le Bureau des bibliothèques (BBL) rattaché au cabinet de Bruno Julliard … ! Le travail de veille des professionnels se voit ainsi censuré ! Même si le BBL est revenu ensuite sur sa décision

Comment en est-on arrivé là ? A la différence des BU, les bibliothèques publiques ne disposaient pas véritablement de prêt de e-books, exceptées quelques expériences de prêt de liseuses. 6a00d8342e8a5353ef01b8d120387c970c

La première vague d’initiative remonte à 2011 pour la phase de prospection et de concertation. Le projet PNB regroupant les établissements de Montpellier, Grenoble, Aulnay-Sous-Bois et Levallois s’est ouvert au public à l’automne 2014. Il intervient dans un contexte où seules 4% des grandes bibliothèques disposent d’un service de prêt d’e-books malgré la multiplication des distributeurs (Bibliovox, Lekti, Numilog, l’Harmatèque, etc.).

L’originalité du modèle PNB – projet interprofessionnel soutenu par le CNL – réside dans l’existence d’une interface réalisée par l’opérateur Dilicom qui permet l’articulation entre les différents acteurs : éditeurs et diffuseurs (catalogue de livres) ; libraires (offres des distributeurs aux collectivités) ; bibliothèques et usagers. Les livres peuvent être téléchargés ou lus en ligne (streaming).

La chaîne de gestion du prêt numérique prend en charge l’ensemble des étapes nécessaires au fonctionnement du service. Chaque collectivité établit les partenariats qui lui conviennent ; Montpellier, par exemple, avec la librairie Sautemps, le logiciel Archimed et le prestataire ePagine. L’objectif est de préserver et de stabiliser la place des libraires.

Des expériences semblables ont lieu dans le monde. Au niveau francophone, le Québec et la Belgique ont adopté le même modèle, avec la participation de librairies agrées. En 2014, le système québécois pretnumerique.ca a enregistré près d’un million d’emprunt avec une moyenne de 20 000 prêt par mois. La licence fonctionne comme pour le prêt papier : 1 copie = 1 utilisateur (pas de prêt simultané) ce qui rend l’exemplaire emprunté immédiatement indisponible pour les autres lecteurs ! Là aussi, les e-books empruntés sont chrono-dégradables, ils s’effacent automatiquement à la fin de la période de prêt ; chaque copie peut être empruntée 55 fois, ensuite il faut acquérir un nouvel exemplaire. Jean-François Cusson, responsable du service, reconnait qu’il peut paraître absurde d’introduire la notion d’exemplaire dans l’univers numérique, mais pour des raisons pragmatiques, les bibliothèques ont préféré utiliser les systèmes de diffusion existants …
En Belgique francophone, un consortium de bibliothèques a rejoint le dispositif PNB.

Aux Etats-Unis et au Canada anglophone, les bibliothèques s’adressent directement aux plateformes de distribution commerciales sans passer par la médiation des libraires. home-big-image-220772a036b791a8c8cd39132d932b2a

La présence des libraires dans le dispositif PNB est un des principaux arguments utilisés dans la réponse à l’offensive de SavoirsCom1. Grâce à leur médiation, les bibliothèques ne se font pas cannibaliser par les acteurs commerciaux du Net (Google, Amazon) qui proposent des abonnements à la Netflix au consommateur-lecteur … Et concurrencent le service public !

Laurent Soual, bibliothécaire consultant, rappelle dans une tribune sur Actualitté, que c’est l’avenir des bibliothèques qui est en jeu : ce sont « les seules institutions légitimes pour proposer un service de prêt numérique aux usagers. Si ce service n’est pas efficient, elles perdront toute légitimité aux yeux des décideurs et des élus pour continuer à proposer leurs services traditionnels ou pour en proposer de nouveaux » !

Les bibliothécaires des établissements qui ont expérimenté le projet PNB ont posté une réponse collective aux critiques de SavoirsCom1 et de l’ABF : coût élevé du système et des livres numériques, utilisation des DRM et complexité du dispositif, service réservé aux grandes bibliothèques, offre de livres numériques restreinte, etc… Les bibliothécaires expérimentateurs explicitent leurs choix en soulignant qu’une évaluation est prévue au bout de deux ans et la plupart des bibliothèques sont à moins d’un an d’expérience.Le Collectif SavoirsCom1 s’est empressé d’y répondre avec Dix idées reçues pour prolonger le débat sur PNB et le prêt numérique ….

Après les bibliothécaires et les lecteurs, ce sont à présent les auteurs qui se sentent floués par le PNB. Dans le prêt numérique, l’auteur touche une part sur le prix du livre, mais ne touche aucune compensation pour le prêt, alors qu’un e-book peut être emprunté entre 20 et 40 fois ! Ce manque de compensation touche aussi les éditeurs. Même si la rémunération est supérieure à celle du livre imprimé, cette offre va permettre des usages défavorables à toute la chaîne du livre.

Affaire à suivre …

Mazin, Cécile. – Des e-books en bibliothèque, certes, mais à certaines conditions.Actualitté, 09/10/13

Oury, Antoine. – Première approche de PNB pour les bibliothécaires français. – Actualitté, 11/08/14

Bibliothèque de Grenoble : ouverture de Bibook, l’offre de livres numériques PNB . – Aldus, 08/09/14

PNB ou le livre numérique inabordable pour les bibliothèques. - SavoirsCom1, 12/2014

Des livres numériques : où je veux, quand je veux ! - Paris.fr Bibliothèques, 14/10/15

Mercier, Sylvère. – Prêt numérique en bibliothèque : critique constructive d’un modèle inadapté. – SavoirsCom1, 10/2015

Collectif SavoirsCom1. – Prêter des livres numériques comme des livres papier : une fausse évidence. – Rue 89, 15/10/15

L’ABF alerte sur le sur dispositif Prêt numérique en Bibliothèque. – ABF, 16/10/15

Les critiques contre les conditions de prêt numérique en bibliothèque (PNB) rendent fou Bruno Julliard. – Social Nec Mergitur, 19/10/15

Bibliothèques : le prêt numérique en question en France. – Aldus, 19/10/15

Ne serait-il pas dommage de refuser sa chance au projet PNB ?Actualitté, 21/10/15

Soual, Laurent. - Prêt numérique en bibliothèque n’est pas le TGV Lyon-Turin. – Actualitté, 22/10/15

Oury, Antoine. – PNB : la rémunération des auteurs reste problématique. – Actualitté, 23/10/15

Dix idées reçues sur le débat sur PNB et le prêt numérique. – SavoirsCom1, 10/2015

 

France vs Union européenne : Quelle évolution pour le droit d’auteur ?

llc_droit_d_auteurLa Commission européenne avait lancé début 2014 une consultation sur la modernisation du droit d’auteur (cf Prospectibles). Parmi les propositions qui serviront de base à la nouvelle directive se trouve le rapport au Parlement européen de la jeune eurodéputée allemande du Parti Pirate (apparenté écologiste) Julia Réda.

Ce rapport qui sera soumis au vote fin mai a été présenté au Sénat le 3 avril par Julia Reda elle-même. Un des principaux objectifs de ce rapport est l’harmonisation du droit d’auteur au sein de l’Union européenne et aussi une mise à jour de ce droit dans le contexte de la société numérique, la dernière directive datant de 2001 (avant Facebook et YouTube) …

Cet « aggiornamento » voudrait pouvoir accorder plus de choix aux utilisateurs sans pour autant réduire les prérogatives des auteurs.

En effet, si la directive 2001 s’applique à l’ensemble des membres de l’UE, chaque pays dispose d’exceptions différentes. Par exemple, dans le cas de l’entrée dans le domaine public : « Le petit prince » d’Antoine de Saint-Exupéry, disparu en 1944, devrait être partout dans le domaine public (70 ans après la disparition de l’auteur) … Sauf en France, où Saint-Exupéry, héro de guerre, dispose de 30 ans de plus … !

Le rapport fait déjà l’objet de 550 amendements et d’un intense lobbying, notamment de la part d’organismes français, soutenus par la Ministre de la Culture Fleur Pellerin. « La position de la France devrait être simple à établir : ne pas accepter le principe de la réouverture de cette directive tant que la nécessité réelle des solutions existantes n’a pas été démontrée » : c’est la conclusion du rapport du juriste Pierre Sirinelli, présenté le 18 novembre au Conseil supérieur de la propriété littéraire et artistique.

On comprend que les ayants-droit s’inquiètent de cette réforme : le Commissaire européen au numérique Günther Oettinger, ayant déclaré le sujet prioritaire et sa volonté de « libérer la créativité » et briser les barrières nationales, confortant sur ce point le projet de ‘marché unique numérique’ du Président de la Commission Jean-Claude Juncker.copyright

Si l’on comprend bien les préoccupations des syndicats d’auteurs et de créateurs qui ne désirent pas un ‘nivellement par le bas’ de la diversité culturelle européenne où l’on favorise les « tuyaux » au détriment des contenus (JM Cavada), il faut reconnaître qu’avec l’internet le consommateur culturel est devenu transfrontalier. Il peine à comprendre pourquoi il peut avoir accès à certains contenus (presse, revues, réseaux sociaux) partout, (ou du moins dans les pays où la censure ne sévit pas) et pas à d’autres (films, séries, programmes TV) en fonction de réglementations spécifiques de chaque pays …

Les propositions du Projet de Rapport Reda

  • Reconnaissance de la nécessité d’une protection juridique pour les auteurs et créateurs et interprètes et aussi pour les producteurs et éditeurs dans la commercialisation des œuvres. Amélioration de la position contractuelle des auteurs par rapport aux intermédiaires.
  • Introduction d’un titre européen unique du droit d’auteur qui s’appliquerait directement et uniformément dans l’ensemble de l’UE pour pallier le manque d’harmonisation de la directive 2001/29 CE
  • Poursuite de la suppression des obstacles à la réutilisation des informations du secteur public en exemptant les œuvres du secteur public de la protection du droit d’auteur.
  • Protection des œuvres du domaine public, par définition non soumises au droit d’auteur et qui devraient pouvoir être utilisées et réutilisées sans obstacles techniques ou contractuels.
  • Harmonisation de la durée de protection du droit d’auteur qui ne dépasse pas les normes internationales fixées dans la Convention de Berne (50 ans après le décès de l’auteur).
  • Exceptions et limitations : harmonisation des exceptions ; rendre obligatoires les exceptions facultatives (droit à la citation, copie privée) ; création de nouvelles exceptions : représentation (photos ou vidéos) d’œuvres d’arts ou de monuments sur internet ; prêt numérique (e-books) pour les bibliothèques ; extension du droit de citation (vidéo). Suppression des limitations territoriales (audiovisuel ; chronologie des médias). Les droits se négocieraient au niveau européen plutôt qu’au niveau national.

Rien de très révolutionnaire dans ces propositions, si ce n’est la volonté d’étendre à l’ensemble de l’Union des lois qui existent pour certains Etats-membres. Comme l’explique Julia Reda sur son blog « Nous devons promouvoir la diversité culturelle. Mais la diversité culturelle n’est pas la même chose qu’une diversité de lois. »

Une des principales critiques contre ce projet est que la suppression des limites territoriales serait une porte ouverte pour les GAFA et autres multinationales américaines comme Netflix qui profiteraient d’un copyright unique européen pour imposer leurs conditions aux créateurs et éditeurs. Ces entreprises sont déjà bien installées sur le web européen et profitent plus de la manne publicitaires que les acteurs traditionnels (médias, éditeurs). C’est cette part grandissante des « intermédiaires techniques » qui ne soutiendraient pas assez la création que dénonce le rapport Sirinelli, commandé par le Ministère de la culture pour défendre le point de vue français dans cette réforme du droit d’auteur. Ce rapport voudrait pouvoir surtout renforcer le droit d’auteur et réduire les exceptions. Il s’oppose également au « fair use » à l’américaine qui serait une ‘liste ouverte d’exceptons’. En revanche, l’exception de copie privée devrait être rendue obligatoire pour le paiement de la redevance dans les pays qui y sont encore opposés. Le rapport demande aussi un réexamen de la directive sur le commerce électronique.droitsdauteurs2

En effet, pour ses détracteurs, le projet Reda ne s’attaque pas assez au problème du piratage et de la contrefaçon … Et le fait que la rapporteure est membre du Parti Pirate n’arrange pas les choses !

Mais les acteurs français ne sont pas tous contre la réforme du droit d’auteur. Les bibliothécaires et les chercheurs soutiennent l’idée d’un ‘fair copyright’ qui permet les exceptions pédagogiques et le prêt numérique. Contrairement à ce que soutenait Lionel Maurel au lendemain du Congrès de l’IFLA dans son blog S.I.Lex, les professionnels de l’information ne se limitent pas à défendre les exceptions. L’Interassociation Archives Bibliothèques Documentation (IABD) soutient le London Manifesto des bibliothécaires britanniques en affirmant : « Une législation sur le droit d’auteur équilibrée (fair copyright) à travers l’Europe sont des droits essentiels.  Sans eux, nous ne parviendrions pas à soutenir efficacement la recherche, l’innovation et la croissance et nous entraverions l’ambition d’un marché unique du numérique. ».

Les préconisations des bibliothécaires français et britanniques sont assez proches du rapport Reda : harmonisation des exceptions, normes ouvertes, droit de prêt numérique, harmonisation de la durée de protection, droit d’acquérir une licence d’utilisation, droit d’explorer (fouille de textes) : analyse informatique des ouvrages pour les bibliothèques, droits pour les personnes handicapées : ratification du Traité de Marrakech, droits d’usages transnationaux, numérisation de masse, etc.

On retrouve ces préoccupations chez les chercheurs, comme dans la présentation d’Eric Verdeil à l’Ecole doctorale SHS de Lyon « Publications scientifiques en sciences humaines et sociales à l’ère du numérique : enjeux pour les chercheurs » : valorisation du ‘fair use’, copyleft et Creative Commons.

On est encore loin d’avoir épuisé les domaines d’application du droit d’auteur : les impressions 3D font partie des prochains défis : les sénateurs viennent finalement de décider que les imprimantes 3D ne seraient pas soumises à la redevance pour copie privée … ! En revanche, les tracteurs ‘connectés’ (cf le dernier post d’Affordance) vont devoir embarquer des DRM dans les codes informatiques qui les font fonctionner et empêcher les utilisateurs de ‘bidouiller’ pour les dépanner !

copyright1

IFLA 2014 : les bibliothèques et le piège des exceptions. – S.I.Lex, 29/09/14

Günter Oettinger promet une réforme du droit d’auteur d’ici deux ans.Euractiv, 30/09/14

Rapport de la mission sur la révision de la directive 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Pierre Sirinelli – Conseil supérieur de la propriété littéraire et artistique, octobre 2014

Mon rapport sur le droit d’auteur dans l’UE. - Julia Reda, 16/12/14

Rees, Marc. – Fleur Pellerin aiguise ses armes pour défendre les ayants droits à Bruxelles. – NextInpact, 13/01/15

Projet de rapport sur la mise en œuvre de la directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Julia Reda – Parlement européen ; Commission des affaires juridiques, 15/01/2015

Un rapport parlementaire plaide pour le détricotage du droit d’auteur. – Euractiv, 20/01/15

Rees, Marc. – Rapport Reda : la commission ITRE veut concilier anciens et modernes. – NextInpact, 03/03/15

La mobilisation sur le droit d’auteur devrait étendre le champ de la réforme en cours. – Euractiv, 13/03/15

Gary, Nicolas. – Auteurs et éditeurs : les relations empirent en France. – Actualitté, 20/03/15

The London Manifesto : Time for reform ? – 1709 Blog, 01/03/15

La culture européenne n’est pas confinée aux frontières nationales – n’utilisons pas le droit d’auteur pour la forcer à l’être (discours au Sénat). – Julia Reda, 04/04/15

L’IABD soutient le London Manifesto qui prône une réforme européenne du droit d’auteur favorable aux bibliothèques, aux archives et aux services de documentation. – IABD, 04/94/15

Gary, Nicolas. - IABD : pour une législation équilibrée du droit d’auteur, le fair copyright. – Actualitté, 06/04/15

Langlais, Pierre-Carl. – Le droit d’auteur ne fait vivre qu’une minorité d’artistes. – L’Obs, 08/04/15

Verdiel, Eric. – Publications scientifiques en sciences humaines et sociales à l’heure du numérique : enjeux pour les chercheurs. – Lyon, Ecole doctorale SHS, session 2015 [Slideshare]

Rees, Marc. – Pas de taxe copie privée pour les imprimantes 3D. – NextInpact, 27/04/15

Du Digital labor au copytalisme. – Affordance.info, 28/04/15

 

Lire, écrire … Voir ! Les technologies au service des déficients visuels

deficient-visuelSMS, mails, objets connectés, notre monde numérique multiplie les écrans où lecture et écriture sont un passage obligé à la communication. Seul le téléphone et la radio font encore exception …

Ces usages semblent exclure un grand nombre de non-voyants et de malvoyants de l’accès à la société de l’information et de la connaissance. Or, ce sont précisément ces nouvelles technologies qui vont apporter, en partie, des réponses adéquates à ce handicap.

Le Congrès « Vision innovation » qui s’est tenu à l’UNESCO le 10 février 2015 en partenariat avec l’Institut de la vision, avait pour objectif de répondre à ces défis. Comme l’affirme le Pr Sahel, Directeur de l’Institut de la vision « Nous sommes aujourd’hui dans un moment particulier où l’innovation pourrait venir au-devant des patients que ce soit pour limiter l’aggravation de la maladie ou pour vivre mieux avec un handicap visuel.

Ces innovations sont très importantes et beaucoup de technologies proviennent d’autres domaines que la médecine. Si la dimension « accessibilité » est intégrée dans la réflexion, le design et l’ergonomie d’un produit ou d’un service, il n’en sera que plus riche et universel. ».

L’accessibilité en bibliothèque et en ligne

L’accessibilité a été un des principaux objectifs des bibliothèques pour compenser le handicap. A la Bibliothèque de Sciences Po, comme dans d’autres établissements, des aménagements ont été réalisés pour les déficients visuels : salle insonorisée et équipements adaptés, clavier et imprimante braille, synthèse vocale, zoom texte, etc. La bibliothèque de l’IEP de Toulouse s’est dotée d’un téléagrandisseur  « Clearview Speech Couleur ». Équipé d’un logiciel de synthèse vocale et d’un logiciel d’agrandissement d’écran, il facilite la lecture, la création de fichiers informatiques, la numérisation des documents ainsi que la consultation sur internet. Toujours à Toulouse, mais à la médiathèque José Cabanis, une application spécifique permet l’identification par synthèse vocale de tous les documents via leur étiquette RFID. Positionné sur un document le petit lecteur DAISY (Digital Accessible Information System) énonce les principales informations : auteur, titre, résumé … En équipant ainsi tous les documents et pas seulement les collections adaptées, la Médiathèque permet une mixité entre voyants et malvoyants, lorsque ces derniers s’y rendent en famille … b_touch

Et évidemment, la bibliothèque de l’Association Valentin Haüy a créé une bibliothèque numérique de livres audio, Eole et met gratuitement à disposition de personnes handicapées plus de 6000 ouvrages sur un site internet dédié. Les ouvrages en braille numérique ou audio sont au format DAISY qui permet une navigation plus aisée. La bibliothèque bénéficie dans ce cas de l’exception « handicap » du droit d’auteur et des droits voisins qui permet la reproduction et la représentation des œuvres au profit des personnes en situation de handicap. Sur ce thème, l’ARALD (Agence Rhône-Alpes pour le livre et la documentation) organise avec la Médiathèque Valentin Haüy une Journée d’information « Bibliothèque, accessibilité et numérique » le 5 mars 2015 à Lyon.

Le copyright et l’accessibilité dans l’édition : le Traité de Marrakech (juin 2013)

Si en France et en Europe, le droit d’auteur comporte une exception de « handicap », ce n’était pas le cas dans le reste du monde et particulièrement aux Etats-Unis, où les lois sur le copyright ne permettaient pas de transformer les ouvrages numériques par la synthèse vocale ou le braille. Les associations de malvoyants ont dû mener une bataille au niveau international pour obtenir ces facilités pour les déficients visuels avec l’institution par l’Organisation mondiale de la propriété intellectuelle (OMPI) du Traité de Marrakech (27 juin 2013). Le traité reconnaît l’importance pour les personnes handicapées de disposer d’un « exemplaire en format accessible » afin « d’accéder à l’œuvre et d’y avoir accès aussi aisément et librement qu’une personne sans déficience visuelle ou autre difficulté de lecture des textes imprimés. ».

Les NBIC au service des aveugles et des déficients visuels

La journée « Vision – Innovation » a présenté toutes les solutions que les technologies actuelles permettent pour rendre la vue ou améliorer la vie aux personnes en situation de handicap.

Avec les NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives), chercheurs, ophtalmologistes, orthoptistes, laboratoires médicaux, opticiens, starts up et associations de patients tentent de répondre aux besoins des 4, 3 milliards de personnes qui ont une mauvaise vision dans le monde dont 2,5 milliards ne sont pas corrigés … Quant à la cécité, elle touche environ 5% de la population mondiale, à peu près le nombre d’habitants de l’Espagne …

Pour les plus touchés, les non-voyants, victimes de rétinopathies ou de DMLA (dégénérescence maculaire liée à l’âge), des avancées formidables sont perceptibles et font espérer une solution assez proche, comme le système de restauration de la vision IRIS, développé par la ‘jeune pousse’ Pixium Vision. Cet implant rétinien remplace les fonctions physiologiques des cellules photo-réceptricesA de l’œil en stimulant électriquement les cellules nerveuses de la rétine interne qui transmettent ensuite l’information au cerveau via le nerf optique. Ce système fonctionne avec une caméra asynchrone et un petit ordinateur de poche : il devrait permettre au patient de se déplacer de façon autonome.prothese-optique

D’autres solutions ont été présentées comme les lunettes « intelligentes » à réalité augmentée de Light Vision pour les personnes atteintes de DMLA. En détectant les parties encore fonctionnelles de la rétine, le système affiche les bonnes images au bon endroit ! La société pense distribuer une centaine lunettes en 2016. GenSight Biologics préconise, en revanche une thérapie génique pour des rétinites, la DMLA et la dégénérescence des cellules du nerf optique. L’objectif est de développer des vecteurs issus des « Adeno-Associated Virus » (AAV) pour le traitement génique de certaines dystrophies rétiniennes.

Mais il n’y a pas que ces grandes pathologies, dans les pays développés, la presbytie atteint un grand nombre de personnes. L’application « Back in Focus » permet de lire sur écran sans ses lunettes. Ce support numérique permet de tirer parti des appareils mobiles pour avoir l’image corrigée pour la vision de chacun. C’est l’écran qui s’adapte aux yeux des personnes (âgées souvent) plutôt que les lunettes correctrices … ! Ca simplifie beaucoup la vie pour lire un SMS ou regarder un plan sur son smartphone !

Dassault Systemes a développé une simulation de réalité virtuelle en 3D pour la recherche médicale pour faire ressentir aux utilisateurs et aux soignants ce que vit une personne malvoyante ou en fauteuil roulant … Des simulations semblables sont aussi disponibles sur la vision des animaux : chat, chien ou oiseau. On peut voir ce que perçoivent nos compagnons à poil ou à plumes, au ras du sol ou dans les airs… !

Mais ce qu’ont surtout développé les services ophtalmologistes, les laboratoires et les opticiens, ce sont des parcours de soins et d’accompagnement des malades ; l’aspect humain et organisationnel primant ainsi sur les aspects thérapeutiques et technologiques.

L’autre grande innovation, c’est l’émergence des réseaux sociaux spécialisés à partir d’association de patients comme Retina ou Carenity. Les patients ne sentent plus seuls avec leur handicap et peuvent compter sur des communautés comprenant des médecins, bénévoles, soignants et personnes connaissant les mêmes affections.

 

Sciences Po accessible

Vision innovation 2015
UNESCO, 10 février 2015

Taillandier, Florent. - A quand des ebooks vraiment adaptés aux déficients visuels ? – CNET France, 28/05/13

European Commission. – Marrakech Treaty : Equal Access to Books for Visually Impaired and Print Disabled. – Disabled World, 28/06/13

Organisation mondiale de la propriété intellectuelle (OMPI). – Traité de Marrakech visant à faciliter l’accès des aveugles, des déficients visuels et des personnes ayant d’autres difficultés de lecture des textes imprimés aux oeuvres publiées. – OMPI, 27/06/13

Kudzia, Kudzia. - Table ronde « Lire autrement : vers de nouveaux usages et de nouveaux services en bibliothèque. – Accessible ABF, 11/05/14

 

Réflexions sur l’ « IFLA Trend Report » : les défis qui attendent les professionnels dans la société de l’information

Twitter network of @OIIOxfordLe dernier « Trend Report » de l’IFLA , publié juste avant le Congrès de Singapour en août 2013, « Riding the Waves or Caught in the Tide? Navigating the evolving information environment” se penche sur les principales tendances qui marquent notre environnement informationnel.

Cette fois, ce ne sont pas des problèmes techniques, ou même scientifiques que le numérique pose à la profession et aux médiateurs, mais plutôt des questions éthiques et philosophiques, voire politiques, dues notamment à l’émergence du ‘big data’ avec le recueil d’un grand nombre de données personnelles pour toute transaction.

Le rapport présente cinq grandes tendances pour le futur proche :
– Les nouvelles technologies vont en même temps étendre et restreindre l’accès à l’information en fonction des publics concernés.
L’extension concerne le développement de l’ouverture des données publiques (open data), des archives ouvertes, des « e-commons » (savoirs communs), etc.
Les limites, ce sont les restrictions à l’accès : DRM, mots de passe, biométrie. Mais aussi le fossé numérique qui se creuse, créant une situation d’inclusion/exclusion en ce qui concerne les compétences numériques (information literacy skills).
– Les cours en ligne vont aussi bien démocratiser que bouleverser l’enseignement au niveau mondial. D’un côté les MOOC (cours en ligne massifs), les ressources éducatives en ligne vont permettre un apprentissage tout au long de la vie (lifelong learning), mais cet enseignement informel et souvent la pédagogie inversée (flipped learning) qu’il implique, vont remettre en question toute la structure éducative.
– Les frontières autour de la vie privée et la protection des données personnelles doivent être redéfinies. Le scandale de l’utilisation de métadonnées de messageries et de réseaux sociaux par la NSA et les multinationales de l’information ont révélé au monde que l’on pouvait traquer des individus à travers leurs connexions numériques et leur téléphone mobile … ! Tout cela a remis en cause la confiance que tout un chacun avait dans l’internet et le numérique … Comme le dit Philippe Mussi, conseiller régional Vert de la région PACA en introduction de la Semaine européenne de l’Open data : « l’ouverture des données, c’est la reprise en main par le citoyen de l’espace démocratique. Elles doivent être ouvertes, car c’est politique, et parce que c’est dangereux. Oui, les nouvelles libertés présentent des dangers. Dans un paysage général où le monde s’ouvre, où la transparence est à la fois demandée et imposée par la société, la transparence de la gestion publique est de toute première importance. On ne peut plus imaginer de démocratie fermée sur la propriété de la connaissance de la chose publique. Nous devons tous contribuer à cet objectif-là !” [Cité dans InteretActu].
– Dans ces sociétés hyper-connectées, de nouvelles voix et de nouveaux groupes vont émerger pour s’emparer de problèmes sociaux ou politiques à travers des actions collectives et de nouveaux médias.
– Les nouvelles technologies vont transformer l’économie mondiale : de nouveaux modèles économiques vont s’imposer à travers structures innovantes (e-commerce, mobilité, etc.).
En 2016, on prévoit 10 milliards d’appareils mobiles connectés à l’internet. Il y a aussi la technologie que l’on porte sur soi (wearable), comme les « Google Glasses ».

Mais en quoi tout ceci concerne les bibliothèques ?
Imaginons un usager entrant dans une bibliothèque portant ces fameuses lunettes « moteur de recherche » : de fait avec cet instrument, il peut mettre toutes les personnes présentes (lecteurs + bibliothécaires) sous surveillance … !! Comment les bibliothèques pourraient-elles rester des lieux sûrs dans ces conditions ? Il faudra désormais trouver le moyen de concilier la technophilie avec le respect de l’intimité …

Les cours en ligne, par exemple, sont des mines d’or en ce qui concerne les données personnelles. Les résultats de tests, les progrès réalisés par les étudiants, et d’autres informations sont importants pour les éducateurs pour évaluer les apprenants et améliorer leur enseignement. Mais dans un environnement mondial de plus en plus numérisé et connecté, il faut se poser la question : qui d’autre a accès à ces données ?
Il faut donc penser non seulement à gérer ces informations indispensables à l’enseignement, mais aussi à les protéger.

Les étudiants utilisent de plus en plus des moteurs de recherche pour répondre à leurs questions de cours. Il faudrait analyser leurs habitudes de recherche pour évaluer l’influence qu’elles ont sur leurs réponses. Est-ce vraiment toute l’information dont ils ont besoin ? Ces algorithmes appartiennent à des sociétés multinationales et surtout ont été développés pour augmenter les revenus des publicités en ligne. Cela devrait faire réfléchir les bibliothécaires et les enseignants lorsqu’ils encouragent les étudiants à utiliser ces outils …

D’autre part, si toutes les réponses sont dans l’algorithme, que devient la bibliothèque ?

D’après l’enquête de l’Oxford Internet Institute, actuellement les gens ont plus confiance dans les FAI (fournisseurs d’accès internet) que dans les médias et les principales institutions politiques, sociales ou économiques (journaux, entreprises, gouvernements, etc.).

Mais si les technologies de recherche limitent la quantité et la diversité d’information en fonction des usages, des langues et de la localisation géographique, peut-on encore avoir confiance dans les résultats fournis par les moteurs de recherche ?
Comment les bibliothécaires et les éducateurs pourraient-ils désormais assurer aux étudiants et aux usagers qu’ils accèdent bien à l’information pertinente et non à celle que leur données agglomérées a permis à l’algorithme de trouver ? Dans ce cas de figure, « comment qualifier « la chance » (J’ai de la chance) ? Comment édifier des communautés fondées sur l’inattendu ? » Louis Zacharilla – Global Intelligent Community Forum.

Les gouvernements, même les plus démocratiques, filtrent de plus en plus l’accès à l’information en ligne sous prétexte de prévention du terrorisme ou de l’ »immoralité ».
Les bibliothèques se sont toujours opposées à la censure : a-t-on prévu des réponses adéquates à cette problématique ?
Si ces pratiques se développent, les bibliothèques pourront-elles mener à bien leurs mission de recueil et de préservation de la mémoire numérique ? Cross-language blog linking in the aftermath of the 2010 Haitian earthquake

Future Libraries : infinite possibilities – IFLA WLIC 2013 IFLA World Library and Information Congress – 79th IFLA General Conference and Assembly. – 17-23 August 2013, Singapore

Riding the Waves or Caught in the Tide? Navigating the Evolving Information Environment. – Insights frond the Trend Report – IFLA, 16/08/2013

Livre numérique, médiation et service de référence en ligne, droit d’auteur – Congrès IFLA Singapour 2013. – Bibliobsession, 30/08/13

Guillaud, Hubert. – Open data (1/3) : la technique a-t-elle pris le pas ? - Internet Actu, 12/07/13

Oxford Internet Institute – University of Oxford

Oxford Internet Survey (OxIS) 2013 Report Lauch

Intelligent Community Forum

Sur les MOOC et le e-learning
Voir le Scoop It ProspecBib : Formation en ligne & à distance

Sur l’open access et les archives ouvertes
Voir le Scoop It : Open Access Now !

Sur la société de surveillance et l’utilisation des données personnelles
voir le Scoop it : Big Brother, little sisters

Staypressed theme by Themocracy