Posts tagged: Bibliothèques universitaires

Big data, open data, protection des données personnelles : où en sont la science et l’utilisation des données ?

Cloud hackingLes données sont partout, aussi bien dans la vie quotidienne que dans la recherche. Une nouvelle discipline, la science des données, mobilise des experts en mathématique et informatique pour analyser et traiter ce ‘pétrole’ du 21e siècle à coup d’algorithmes et de logiciels d’intelligence artificielle. Tout au long de la journée, des ‘bots’ (petits logiciels d’IA) et des objets connectés les recueillent grâce à des capteurs. On y accède librement, grâce aux dispositifs d’open data, que ce soit dans la ville intelligente (smart city) ou au niveau de la ‘science ouverte’. Les GAFA et autres géants du net se disputent nos données personnelles en investissant des milliards pour les exploiter. Quel droit et quelles réglementations doit-on mettre en place pour protéger ces données tout en profitant de ces nouvelles ressources ?

La science des données

La science des données (en anglais data science) est une nouvelle discipline qui s’appuie sur des outils mathématiques, de statistiques, d’informatique (cette science est principalement une « science des données numériques »4) et de visualisation des données. Le premier objectif du « data scientist » est de produire des méthodes (automatisées, autant que possible) de tri et d’analyse de données de masse et de sources plus ou moins complexes ou disjointes de données, afin d’en extraire des informations utiles ou potentiellement utiles. Pour cela, le « scientifique des données » s’appuie sur la fouille de données, les statistiques, le traitement du signal, diverses méthodes de référencement, l’apprentissage automatique et la visualisation de données. Il s’intéresse donc à la classification, au nettoyage, à l’exploration, à l’analyse et à la protection de bases de données plus ou moins interopérables. (Wikipedia).

Comme l’énonce Stéphane Mallat, dans sa leçon inaugurale pour la création d’une chaire Science des données au Collège de France, « cette discipline s’inscrit au cœur de la problématique scientifique : extraire de la connaissance des données empiriques qui se trouvent à la base de toutes les sciences. On est dans une évolution extraordinairement rapide qui inclut toutes les sciences qui viennent avec leurs propres données. »

Les deux principaux traitements sont la modélisation et la prédiction. L’enjeu en est la généralisation. Dans ce domaine, l’informatique a une avance considérable sur les mathématiques. Elle permet à partir d’un exemple qu’on connaît, d’extrapoler pour les exemples qu’on ne connaît pas. Elle s’appuie sur un très grand nombre de variables (ex : millions de pixels dans une image). 800x-1

En ce qui concerne la gestion des données scientifiques, les professionnels de l’information, dans les bibliothèques de recherche par exemple, peuvent être de précieux collaborateurs pour les chercheurs. Comme le soulignent Ayoung Yoon et Theresa Schulz dans leur article du College & Research Libraries « les bibliothèques universitaires se sont activement impliquées dans les services des données de la recherche : des services qui portent sur l’ensemble du cycle de vie des données comprenant le plan de gestion, la curation numérique (sélection, conservation, maintenance et archivage), la création de métadonnées et la conversion. ». Un nouveau service, le TDM ‘Text and Data Mining’ (fouille automatique de texte et de données) a pu être récemment être ajouté grâce à une série d’amendements au droit d’auteur en France, mais aussi au Royaume Uni.

Les données numériques et la « ville intelligente »

Dans la ‘smart city’, le recueil et le traitement des données devraient permettre aux citoyens de bénéficier de services sur mesure. A Toronto, une filiale de Google est en train d’édifier une métropole futuriste dans un quartier défavorisé au bord du lac Ontario. Comme le rappelle Ian Austen dans le New York Times fin décembre « le Premier ministre canadien, Justin Trudeau a promis que ce projet créerait ‘des technologies qui nous aideraient à construire des communautés plus intelligentes, plus vertes et plus inclusives ». Mais pour certains résidents cet enthousiasme doit être tempéré surtout quand il s’agit d’une entreprise connue pour sa collecte et analyse des données. Le projet Quayside sera chargé de capteurs et de caméras de surveillance qui traqueront tous ceux qui habitent, travaillent ou simplement passent dans le quartier. La masse de données recueillie permettra de mieux organiser et définir les besoins de la future ville, que la société appelle d’ailleurs une ‘plateforme’. L’électricité sera fournie par des mini-réseaux de voisinage, basés sur des énergies renouvelables. D’immenses auvents protègeront de la pluie et du soleil d’été et des allées chauffées feront fondre la neige l’hiver ! 271607011737Bigdata

Mais les capteurs dans les bâtiments pourront mesurer le bruit dans les appartements tandis que les caméras et les capteurs extérieurs surveilleront aussi bien la pollution de l’air que le mouvement des personnes et des véhicules dans les carrefours … Comme le fait remarquer Pamela Robinson, professeur de planification urbaine à l’université Ryerson de Toronto « les données vont être recueillies par une entreprise privée et non par une collectivité administrative. Pour le moment rien n’a été annoncé sur qui en aura la propriété ni qui y aura accès. » De même, si Quayside promet des logements à tous les niveaux de revenus, pour le moment la seule entreprise qui a prévu de s’y installer est Google Canada, donc plutôt des jeunes cadres bien payés … D’après cette chercheuse, les données collectées pourraient être utilisées pour limiter ou décourager l’usage, par ailleurs légitime, des espaces publics par des sans-logis, des jeunes ou d’autres groupes …

Bernard Stiegler qui intervenait dans la Cité du Futur, conférence de Maddyness, déclarait « Pour faire des villes intelligentes, essayons d’être intelligent. La nouvelle urbanité, c’est la ville désautomatisée, car la ville automatisée détruit les relations de voisinage ». Citant l’expérience de Plaine Commune (Communauté de 9 communes de Seine Saint-Denis) où il est personnellement impliqué mais aussi des entreprises comme Vinci, Orange et la Caisse des Dépôts, le philosophe a expliqué que cela implique de savoir utiliser ces technologies innovantes avec la population de Seine Saint-Denis pour qu’elle y prenne part, notamment à travers un programme d’économie contributive.

images_villeC’est aussi le point de vue de Florence Durand-Tornare, fondatrice et déléguée générale de l’association Villes Internet dans l’article de Martine Courgnaud-Del Ry dans la Gazette des communes : « Plus de trente « Villes Internet » (hors métropoles) décrivent, parfois depuis longtemps, des dispositifs de mise à disposition de données informatives, techniques, juridiques ou statistiques. Ce qui me paraît significatif, c’est qu’elles ouvrent avant tout des données utiles au citoyen, et pas uniquement celles qui sont attendues par les grands opérateurs dans les zones hyper-urbaines — essentiellement relatives au transport ou à la gestion de l’énergie… Nous remarquons aussi que l’ouverture des données est l’occasion d’organiser des dispositifs participatifs avec les citoyens, qui contribuent parfois activement à choisir les applications utiles aux résidents que la donnée permet de produire. »

L’adoption du RGPD et la polémique sur la ‘patrimonialisation’ des données personnelles

L’Assemblée nationale examine en ce moment le projet de loi sur la protection des données personnelles « qui adapte notre droit au nouveau cadre juridique européen, composé d’une part, du règlement général de la protection des données (RGPD) et d’autre part de la directive sur les fichiers de police et de justice, qui entreront tous deux en vigueur en mai 2018. ». Ce règlement fixe de nouvelles obligations à toute entreprise exploitant des données : droit de portabilité d’un opérateur à l’autre, droit d’effacement et surtout, consentement explicite.

Une controverse vient de se développer dans la presse après une interview Gaspard Koenig dans Les Echos évoquant le Rapport du mouvement Génération libre vantant les mérites de la commercialisation des données personnelles. Pour G. Koenig « si la data est bien cet « or noir » du 21ème siècle, il n’y a pas de raison de ne pas payer les producteurs – nous – sans laisser aux raffineurs (les agrégateurs et les plates-formes) l’intégralité des revenus liés à l’exploitation des data. » Pour ce philosophe libéral, il y a trois options pour gérer l’accès aux données : mettre en place une « sorte d’agence nationale chargée de mettre des data encryptées à la disposition des entreprises », créer, comme la CNIL et la Commission européenne, des « droits pour les citoyens et des obligations pour les entreprises, avec le risque de judiciarisation excessive de l’économie digitale et d’étouffer l’innovation ». La troisième option qu’il privilégie et « qui peut s’articuler à la précédente, est la patrimonialité des données pour permettre aux entreprises de se les approprier après avoir justement rémunéré les citoyens. ». Cette transaction se ferait à travers « un système de ‘nanopaiements’ qui viendraient créditer ou débiter en continu un compte digital personnel ». Ceux qui refuseraient de céder leurs données seraient obligés de payer les services numériques. Cette idée a été reprise dans une tribune du Monde prônant la ‘monétisation de nos données’, signée par plusieurs personnalités (Bruno Bonnell, Laurence Parisot, Alexandre Jardin, Gaspard Koenig). claire-sambuc-juriste-tariq

Cette « fausse bonne idée » comme la définissent Serge Abiteboul et Gilles Dowek dans une tribune dans le Monde, a été immédiatement attaquée par un grand nombre de chercheurs et de juristes dans la presse et sur les réseaux sociaux. Pour ces deux chercheurs « Le cas des données numériques est cependant un peu plus complexe que celle de des champs d’orge ou de blé, car qui cultive les données ? Ceux qui les produisent (vous et moi, les géants du Web, les hôtels…), ou ceux qui les entassent et les analysent pour en tirer du profit (ni vous et moi) ? ». Et même une fois la propriété établie, comment les internautes seront-ils assurés que le contrat ne soit pas léonin (accès au service contre ‘open bar’ pour les géants du Net) ? De plus, il n’est pas sûr que ces entreprises soient vraiment intéressées par nos données personnelles, vu qu’à travers le ‘crowdsourcing’, un grand nombre d’internautes produisent déjà du travail sur les données pour une très faibles rémunération. Mais surtout les données personnelles sont avant tout sociales : elles résultent des interactions des internautes entre eux ou avec des entreprises ou  institutions (mails, commentaires, profils, etc.). Tristan Nitot dans son post sur Standblog, reprenant la comparaison avec la vente d’un rein, rappelle que déjà le CNNum estimait que « l’introduction d’un système patrimonial pour les données personnelles est une proposition dangereuse ». Comme il est interdit de faire commerce de ses organes (‘indisponibilité’ ou ‘non patrimonialité’ du corps humain), on ne peut séparer  l’individu de ses données personnelles, ça serait en faire un objet qu’on peut commercialiser « permettre la patrimonialisation c’est — métaphoriquement — permettre de revendre par appartements son moi numérique, c’est faire commerce de son corps numérique, en quelque sorte, ce qui est interdit en France pour son corps physique, au nom de la dignité humaine. ». De plus, il sera très difficile à un individu de se faire payer vu les difficultés qu’a le fisc à faire payer les GAFA … Le rapport de force ne sera pas du tout en sa faveur …

indexUne autre position est celle développée par l’essayiste Evgeni Morozov dans l’émission Soft Power citée par Calimaq dans son post fin octobre. Plutôt que la défense individuelle de la vie privée, Morozov propose de faire des données personnelles un ‘bien public’ et de les faire relever du ‘domaine public’. Il ne pense pas « qu’on puisse régler tous les problèmes que posent les géants du net en utilisant les outils traditionnels de régulation du marché, c’est-à-dire en leur faisant payer des taxes et en mettant en place des lois anti-trust ». Il préconise même d’accélérer le processus d’automatisation et d’analyse des données, car tout n’est pas négatif. Si les cancers pourront bientôt être dépistés grâce aux données, cela ne devrait pas se faire en donnant autant de pouvoir à des entreprises de la Silicon Valley ! Un système dans lequel les données appartiennent à la communauté permet à tout un chacun de se saisir de ces données pour en faire quelque chose, même au niveau local. E. Morozov préconise « un système hybride empruntant à la fois des éléments à la domanialité publique et à la propriété intellectuelle, tout en s’inspirant de certains mécanismes des licences libres ».

Cette hybridation entre protection personnelle et usage collectif se retrouve dans le point de vue du sociologue Antonio Casilli qui défend dans un article du Monde avec Paola Tubaro, l’idée que « la défense de nos informations personnelles ne doit pas exclure celle des travailleurs de la donnée ». Pour ces chercheurs « Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès. ». C’est pourquoi plutôt que la protection individuelle des données, Casilli et Tubaro défendent une négociation collective contre des services. Lionel Maurel et Laura Aufère développent cette approche dans un post très détaillé de S.I.Lex.  Ces chercheurs prônent une protection sociale au sens large du terme, car « si les données sont produites dans le cadre d’activités assimilables à de nouvelles formes de travail, alors ce sont des mécanismes de protection sociale enracinés dans le droit social qu’il convient de déployer pour garantir les droits des personnes. ». Ils préconisent de se doter de moyens adéquats pour engager ces négociations dont les termes restent encore dictés par le cadre imposé par les plateformes. Dans cet article, repris d’ailleurs par Libération, les chercheurs dessinent les contours de ce nouveau droit social du 21e s. Jusqu’à présent, la protection des données était restreinte au niveau individuel. Comme le soulignent la juriste Antoinette Rouvroy et Valérie Peugeot de l’association Vecam, que ce soit pour l’obligation de consentement que pour la portabilité des données, aussi bien la CNIL que le RGPD se concentrent trop sur le niveau individuel. D’où l’importance de « mobiliser un nouvel imaginaire pour construire un cadre de négociation collectives sur les données ». th-300x1000-rgpd.jpg

Rochfeld, Judith ; Farchy, Joëlle ; Forteza, Paula ; Peugeot, Valérie. - « Les internautes réclament un usage moins opaque et une maîtrise de leurs données personnelles ». Tribune. – Le Monde, 07/02/18

Loi données personnelles : dans l’apathie des débats, une envolée néo-libérale absurde ! - La Quadrature du Net, 07/02/18

Courgnaud-Del Ry, Martine. – Des services numériques communs émergent enfin sur tout le territoire. – Gazette des communes, 07/02/18

Guillaud, Hubert. – Pourquoi mes données personnelles ne peuvent pas être à vendre ! – Internet Actu, 06/02/18

Données personnelles : le projet de loi qui va mieux nous protéger. – La Dépêche, 06/02/18

Assemblée nationale. – Société : protection des données personnelles – Projet de loi déposé le 13 décembre 2017- discussion 06-08/02/18/Paula Forteza, Rapporteure.

Wiggleworth, Robert (FT). – Big data : les données numériques peuvent-elles révolutionner l’action politique ? – Nouvel Economiste, 06/02/18

Collectif. – Nos « données personnelles » nous appartiennent : monétisons-les ! - Le Monde, 05/02/18

Casilli, Antonio ; Jeanticou, Romain.  – La domination des géants du numérique est-elle un nouveau colonialisme ? Entretien. – Télérama, 05/02/18

Abiteboul, Serge ; Dowek, Gilles. – « La propriété des données est une fausse bonne idée ». – Le Monde, 05/02/18

Maurel, Lionel ; Aufrère, Laura. – Pour une protection sociale des données personnelles. – S.I.Lex, 05/02/18

Nitot, Tristan. – Données personnelles et droit de vendre des organes humains. – Standblog, 02/02/18

Lévêque, Rémy. – « Facebook nous prend en otage ». – Usbek & Rica, 02/02/18

Parapadapis, George. – RGPD, de l’incertitude aux solutions pratiques. – Informatique News, 31/01/18

Revendre ses données « personnelles », la fausse bonne idée. – Mais où va le web ?, 29/01/18

Ertzscheid, Olivier. – Faut pas prendre les usagers des GAFAM pour des datas sauvages. – Affordance.info, 28/01/18

Pour une patrimonialité des données : Rapport. – Mes data sont à moi/Collectif data. – Génération libre.eu, 25/01/18

Naughton, John. – Who’s doing Google and Facebook dirty work?- The Guardian, 24/01/18

Casilli, Antonio ; Tubaro, Paola. – La vie privée des travailleurs de la donnée (Le Monde, 22/01/18) – Antonio A. Casilli

Mallat, Stéphane. – Sciences des données : leçon inaugurale (vidéo). – Collège de France, 11/01/18

Schmitt, Fabienne ; Madelaine, Nicolas. – Gaspard Koenig : « Chaque citoyen doit pouvoir vendre ses données personnelles ». – Les Echos, 07/01/18

Rey, Olivier ; Rouvroy, Antoinette. – Données, savoir et pouvoir (Table ronde). – PhiloInfo, décembre 2017 (vidéo).

Austen, Ian. – City of the Future? Humans, not technology, are the challenge in Toronto. – The New York Times, 29/12/17

Calimaq (Lionel Maurel). – Evgeni Morozov et le « domaine public » des données personnelles. – S.I.Lex, 29/10/17

 

Evolution des bibliothèques : où en est-on ?

4175783446_7e32581cf5_bLa fin des bibliothèques, souvent annoncée (presque autant que la fin du travail !), ne semble pas  encore réalisée. Au contraire, la dernière Enquête sur les publics et les usages des bibliothèques municipales du Ministère de la culture indique une augmentation de la fréquentation des bibliothèques publiques (40% des Français de plus de 15 ans contre 35% en 2005). Si toutes les bibliothèques ne sont pas devenues des ‘learning centres’ ou des ‘leisure centres’ comme dans d’autres pays, un certain nombre de mutations sont à l’œuvre, aussi bien dans les bibliothèques universitaires et de recherche que dans les BM et les médiathèques grand public.

Ces évolutions concernent autant l’offre d’activités des bibliothèques que les transformations plus profondes des métiers et des pratiques de l’information-documentation.

L’innovation est le maître-mot, comme le rappelle Clémence Jost dans Archimag en évoquant le thème central du Congrès de l’ABF en 2016 « L’innovation en bibliothèques ». Pour repenser la bibliothèque, Christine Tharel-Douspis, cite dans le BBF la « Bibliothèque en [r]évolution », thème de la Journée Régionale de la Commission lecture publique de Mobilis organisée en partenariat avec l’ENSSIB. Au programme, réseaux sociaux, usages différents et mouvants, BiblioRemix, co-construction, design thinking, expérience utilisateur, etc.

Diversification et offre de pratiques innovantes

Un certain nombre de bibliothèques ont introduit de nouveaux outils ou de nouvelles pratiques à destination des publics. Outre les incontournables ‘fablabs’, on trouve aussi :

  • Un kiosque qui distribue de courtes nouvelles rédigées par les étudiants à la Penn State University Library
  • Des « feuilletoirs» numériques (écrans tactiles insérés dans les rayonnages donnant accès aux 132 000 documents des collections en magasins) à la Bibliothèque Alexis de Toqueville à Caen
  • Des animations de réalité virtuelle avec casques à la Médiathèque Federico Fellini de Montpellier et à la bibliothèque de la Manufacture de Nancy FabLab
  • « Les Yeux docs », plateforme de vidéos documentaires à la BPI
  • Labo2 : laboratoire des usages numériques à la BM de Nantes : écriture, jeux vidéo, créations numériques, outils cartographiques
  • Une « grainothèque» à la BM Aimé Césaire de Villeneuve-La-Garenne : chacun peut apporter son sachet de graines dans un espace dédié où d’autres « semeurs » peuvent se servir gratuitement.
  • Un concours de « Bibtubeurs» à la BM de Bègles où de jeunes lecteurs réalisent des « Booktubes » : petite vidéo résumant un livre que l’on veut partager avec d’autres lecteurs. Donner en 5 minutes envie de lire le livre et apprendre à maîtriser les bases techniques de la réalisation vidéo.
  • La plateforme de photos Instagram d’étudiants sur des livres ou des activités de la bibliothèque. Comme La New York Public Library des d’autres BU américaines, la bibliothèque de la « London School of Economics” lance sa plateforme Instagram pour sa « Review of Books ».

Comme le souligne l’enquête sur les bibliothèques municipales « l’usage des équipements [de lecture publique] évolue également : autrefois axé sur l’emprunt et le livre, il s’est fortement diversifié, en lien avec la richesse des services proposés par les bibliothécaires, sur place, en ligne et hors les murs ».

Les transformations en profondeur des métiers de l’information et de la 6232096-9311528documentation

L’impact du numérique et de la communication n’est pas récent dans ces métiers et remonte bien à plus d’une trentaine d’années, mais les mutations se font surtout sentir depuis une dizaine d’années. Elles se traduisent par un certain nombre de transformations dans la vie professionnelle du domaine.

  • Mise à jour de la terminologie en sciences et techniques de l’information (Archives 21)
  • Le rôle des bib-docs dans la lutte contre la désinformation et les Fake news. L’importance de la formation à l’’information literacy’ dans la construction des savoirs.
  • La contribution à l’encyclopédie Wikipédia, aussi bien en tant que professionnel avec l’évènement 1Bib1Ref (Un bibliothécaire, une référence), qu’en tant que médiateur pour faire connaître cette entreprise « Creative common » aux lecteurs. Comme le souligne Sylvain Machefert, auteur de ce chapitre, « Wikipédia peut aussi être le point de départ à une sensibilisation du public aux questions en lien avec le droit d’auteur », en raison de sa licence libre.
  • Le rôle croissant de la communication interne au sein de l’institution, notamment à travers les outils collaboratifs et les réseaux sociaux d’entreprises, comme Slack ou Teams.
  • Le rôle des bibliothèques de recherche dans le développement des Humanités numériques. Le rapport des Research Libraries UK souligne le rôle que pourraient avoir ces bibliothèques dans la création, l’archivage, la curation et la préservation d’outils pour la recherche en Humanités numériques. Le RLUK veut comprendre le rôle joué par ces bibliothèques dans la représentation numérique pour identifier les zones spécifiques à valoriser et aussi pour faciliter le partage des bonnes pratiques. 497671-rea-197588-011-580x310
  • Les nouvelles appellations des métiers de la documentation. Comme le relève E. Barthe dans son blog, cité par H. Girard dans la Gazette des Communes, le mot documentaliste, tel que le définit le code du Répertoire opérationnel des métiers et des emplois (ROME), ne correspond plus à la réalité du métier. Depuis le début des années 2000, on a vu émerger des knowledge managers, des gestionnaires de bases de données et de ressources numériques, des community managers et autres webmasters … Ces nouveaux métiers qui portent aussi sur la gestion des documents et de l’information n’apparaissent pas dans le code ROME 1601. Or, on trouve de nombreux emplois et postes pour ces dénominations … Cette évolution des métiers a été cartographiée par l’ADBS en 2013. Mais comme le remarque Archimag dans son 2e Baromètre sur l’emploi et le compétences (2016), d’autres compétences complémentaires sont nécessaires, comme le numérique ou la communication.
  • L’importance de la présence des bibliothèques sur les réseaux sociaux. Les bibliothèques se sont majoritairement investies dans les deux principaux réseaux sociaux Facebook et Twitter où se retrouvent la plupart des utilisateurs. Mais comme on l’a vu plus haut, certaines bibliothèques choisissent de participer à des activités plus ciblées sur certains réseaux, comme Instagram ou YouTube pour développer l’aspect prescripteur des lecteurs. Sur les réseaux sociaux dédiés aux livres qui remontent aux années 1990, on est passé des pionniers (Zazieweb), aux start-ups et à la professionnalisation (Babélio) pour atteindre une certaine concentration avec la pérennisation de certains sites (Sens critique) et une polarisation de la prescription avec la quasi disparition de la ‘longue traîne’. Comme le souligne Louis Wiart, dont l’étude est citée par Christine Tharel-Douspis dans son article du BBF, les réseaux sociaux ont un effet de caisse de résonnance : les best-sellers et les livres les plus cités concentrent le plus de visibilité, tandis que les catégories intermédiaires sont moins représentées … « Les réseaux sociaux ne bouleversent pas les champs des pratiques, mais fortifient le lien entre professionnels et usagers ».
  • Le « BiblioRemix » et le « nouveau paradigme de la participation ». Cette démarche veut accompagner l’évolution des bibliothèques vers le ‘3e lieu’ et rompre avec l’image stéréotypée de ces établissements. Elle implique la participation du public dans une démarche de décision et de gouvernance plus citoyenne. Il s’agit de repenser la bibliothèque avec les usagers, de co-concevoir les politiques publiques. Avec BiblioRemix, on passe du service public aux services aux publics. De nombreux exemples de projets sont cités dans l’article du BBF, dont les 4C aux Champs libres à Rennes (Création, collaboration, connaissance et citoyenneté).

Ces différentes tendances dessinent une nouvelle configuration des bibliothèques, où professionnels et usagers se retrouvent dans des pratiques où l’information passe par différents canaux comme la communication interne et extérieure, la formation, la participation, ou des outils comme les humanités numériques, la curation et l’échange aussi bien « in real life » que sur les réseaux sociaux.

communs

Mollett, Amy ; Mc Donnell, Anthony. – Five ways libraries are using Instagram to share collections and draw public interest. – Impact of Social Sciences, 16/04/14

Enquête sur les publics et les usages des bibliothèques municipales en 2016. – Ministère de la Culture et de la Communication – Livre et lecture, 16/06/16

Barclay, Donald A. – The challenge facing libraries in an era of fake news. – The Conversation, 05/01/17

Jost, Clémence. - Innovation : les bibliothèques, laboratoires de réinvention. – Archimag, 02/05/17

Machefert, Sylvain. – “Wikipédia et bibliothèques : agir en commun” dans Communs du savoir et bibliothèques/Lionel Dujol. – Paris, Cercle de la Librarie, 2017. Via Hal-archives ouvertes, 31/05/17

Tharel-Douspis, Christine. « Bibliothèque en (r)évolution ». – Bulletin des bibliothèques de France  n° 11. – 23/06/17

Kamposiori, Christina. – The role of Research Libraries in the creation, archiving, curation, and preservation of tools for the Digital Humanities. RLUK Report. – Research Library UK, cop. July 2017. Pdf.

La communication interne en bibliothèque : expérimentation de Teams, le Slack de Microsoft. – Hortensi-us, 15/07/17

Girard, Hélène. – Documentaliste : le poids du mot face aux mutations des fonctions.La Gazette des communes, 03/08/17

Enis, Matt/ – Penn State Libraries launch short stories dispensers. – Library Journal, 04/08/17

Ducharme, Daniel. – Un projet de mise à jour de la terminologie de base en sciences de l’information. – Archives 21, 15/08/17

L’inventivité en bibliothèque : les bibtubeurs, le concours de Booktube. – Actualitté, 29/08/17

Dillaerts, Hans.- Créer, gérer et animer un dispositif de Fab Lab au sein d’une bibliothèque publique : entretien avec Julien Amghar, créateur de l’espace Kénéré le Lab. – DLIS.Hypothèses.org, 06/09/17

 

 

Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? I – Publications en libre accès

actu_edition-scientifique-passe,-present-et-perspectives_22_2000_2000_MAX_2b768Deux dispositions, adoptées dans le cadre du Projet de loi numérique vont sensiblement changer le travail des chercheurs en France. Elles concernent, d’une part la publication en libre accès d’articles scientifiques dans certaines conditions, d’autre part le traitement et la fouille automatique de données dans un corpus constitué.

Des parlementaires déterminés ont bravé l’opposition des éditeurs et même d’une partie du gouvernement pour faire passer certains amendements !

L’article 17 de la future loi pour une République numérique permet aux auteurs dont les travaux sont financés à hauteur de 50% sur fonds publics de mettre gratuitement en ligne leurs articles, au terme d’un délai maximum de de 6 mois après la première publication (12 mois pour les Humanités/SHS), même si l’auteur a accordé l’exclusivité à un éditeur ! Ce droit s’étend aussi à d’autres publications comme les actes de congrès et de colloques ainsi que les recueils de mélange. Les données associées aux articles sont aussi concernées. Comme le souligne Axelle Lemaire sur France Inter, citée par Actualitté « La recherche, si elle n’est pas ouverte, si elle n’est pas internationale, si elle n’est pas partagée avec la communauté des chercheurs la plus élargie possible, eh bien elle ne rayonne pas. Donc, moi je me pose la question : est-ce bien le gouvernement qui se veut le fossoyeur de la recherche en 2016, lorsqu’il cherche à étendre le périmètre d’influence des chercheurs, ou sont-ce les éditeurs ? »

En matière de données de la recherche, une série d’amendements a été adoptée en faveur de la fouille automatique de texte et de données (TDM, Text and Data Mining) contre l’avis du gouvernement et même du rapporteur ! Comme le fait remarquer Andrea Fradin dans son article sur l’Obs/Rue 89, malgré l’avènement du Big data et de ses outils de traitement, il était jusqu’alors impossible pour les chercheurs d’extraire automatiquement des mots ou des données d’un corpus de documents informatisés. Avec cet amendement, la France devance même l’UE en la matière, celle-ci n’ayant pas encore statué sur la question. Axelle Lemaire s’était d’ailleurs abritée derrière cet argument pour ne pas prendre parti, préconisant d’attendre la directive européenne …

Ces deux dispositions vont permettre à la recherche française d’être moins dépendante du lobby de l’édition scientifique. En effet, comme le rappelle Pierre Carl Langlais sur son blog Hôtel Wikipedia, « dans l’édition scientifique, les auteurs ne sont jamais payés (ils paient même pour être publiés) ».open-access-button_logo

Libre accès : voie verte, voie dorée … Ou en diamant !

La voie dorée, c’est la stratégie que certains éditeurs ont trouvé pour répondre au mouvement du libre accès (Open Access Initiative) lancé en 1996 : obliger les chercheurs à payer pour voir leurs travaux publiés … Et les lecteurs pourront y accéder gratuitement ! La ‘voie dorée’ (gold open access) se positionne par rapport à la ‘voie verte’ (green open access) en mettant en avant la qualité d’une édition scientifique professionnelle avec surtout la sélection et l’évaluation des articles par des spécialistes (‘peer review’). Tout n’est pas à condamner à priori dans ce modèle et certains auteurs y trouvent leur compte … Mais il existe des éditeurs qui sont de véritables prédateurs : c’est ce que démontre Jeffrey Beall, bibliothécaire chargé des publications en ligne et professeur associé à l’Université de Denver, Colorado dans une interview à Scholarly Kitchen. Contacté par de nombreux éditeurs ‘gold’, il s’est rendu compte, que pour certains « leur mission n’était pas de promouvoir et rendre disponibles les travaux de recherche mais plutôt d’exploiter le modèle de gold open access ‘auteurs-payants’ ». Pour lutter contre cette déviance et permettre aux chercheurs de choisir les revues pour leurs publications en connaissance de cause, Beall a publié une liste noire de ces éditeurs.

Les chercheurs déposent de plus en plus leurs travaux sur des plateformes de partage comme Academia.edu ou ResearchGate. Mais ces sites gratuits ne semblent pas présenter toutes les garanties de sécurité et de sérieux nécessaires à des publications scientifiques … 497671-rea-197588-011-580x310

Pour dépasser ces problèmes et les conflits d’intérêt qu’ils pourraient occasionner, le Comité des sciences sociales de Science Europe, propose une « voie de diamant », ou plutôt un ‘engagement de diamant comme le souligne Marin Dacos dans son post sur Blogo-numericus. Avec cet engagement les « productions scientifiques seront nativement numériques et nativement en accès ouvert, sans frais à payer pour l’auteur (APC : Articles Processing Fees) ». Pour cela les auteurs devront demander aux éditeurs l’autorisation de déposer leur publication dans une archive ouverte sous la forme de ‘postprint’ (version auteur acceptée et revue par les pairs avant correction et mise en page par l’éditeur). Les éditeurs gardent ainsi une certaine marge dans leurs publications. Marin Dacos regrette que ce dispositif ne concerne que les archives ouvertes, comme SPIRE de Sciences Po, et ne prend pas en compte les plateformes de publications comme Revues.org ou OpenEditionBooks. Sonia Livingstone, professeur en media et communication à London School of Economics (LSE), interviewé sur The Impact Blog, apprécie beaucoup la facilité et le professionnalisme des archives ouvertes et notamment LSE Rechearch Online, le dépôt institutionnel de la LSE. Elle y dépose toutes sortes de travaux : articles, mais aussi rapports de recherche, questionnaires, chapitres d’ouvrages, etc. La chercheuse préfère aussi déposer la version ‘postprint’, prête à être publiée. Et si ses articles sont encore sous paywall (embargo d’un ou deux ans) chez un éditeur commercial, les résultats d’une recherche sur Google Scholar affichent les PDF disponibles dans le dépôt de la LSE.

Martin Haspelmath a une autre vision pour cet engagement dans son post sur Free Science Blog ; il part d’abord d’un constat : le mouvement open access stagne. Malgré le fait qu’un sixième de toutes les publications est en libre accès, la majorité des abonnements (payants) est stable. Les experts en OA n’en cherchent pas la raison. Pourtant l’explication est simple, personne n’a envie que ça change : les éditeurs font des bénéfices avec leurs abonnements et les chercheurs ont besoin des éditeurs pour publier dans des revues prestigieuses pour leur carrière … ! Or les publications scientifiques ne sont pas un service qu’on peut déléguer à un prestataire extérieur (outsourcing), elles sont une partie intégrale du processus scientifique. Ce sont seulement quelques aspects techniques comme la mise en page ou l’hébergement qui peuvent sous-traités à des fournisseurs extérieurs. Ce que propose ce chercheur, c’est que les pouvoirs publics et les universités financent des éditions universitaires plutôt que d’arroser les maisons d’éditions commerciales. Chaque éditeur institutionnel pourrait créer un bouquet de revues prestigieuses et les financer comme on paye pour le personnel et les bâtiments de la recherche. Les lecteurs et les auteurs n’auraient rien à payer pour ces revues en accès libre ‘diamant’. Les financeurs tireront profit de ces investissements de la même façon qu’ils tirent profit de la recherche : en accroissant leur prestige !

Comme le souligne Sonia Livingstone, « tous les chercheurs doivent repenser leur attitude en matière de publications scientifiques … Je me réjouis de la lutte (encore incertaine) entre la propriété [intellectuelle] et l’accès au savoir ».

access-open-e1367915910684

Dacos, Marin. – Un engagement de diamant pour l’open access : position du Comité des sciences sociales de Science Europe. – Blogus numéricus, 18/08/15

Contribution de l’ABDU à la consultation nationale « Ambition sur le numérique » : TDM et open access. – ABDU, 09/15

Livingstone, Sonia. – Five minutes with Professor Sonia Livingstone on the benefits of open access and institutional repositories : entretien. – Impact of Social Sciences, 20/10/15

Lau-Suchet, Soliné. – Les enjeux de la science ouverte : retour sur les 6es journées « open access » (1/4) #OA. – Bulac, 23/10/15

« Open access » pour les revues scientifiques : il faut plusieurs modèles. – The Conversation, 10/11/15

Projet de loi pour une République numérique. – Assemblée nationale, 09/12/15

Report on Berlin 12 Open Access Conference. – Association of Research Libraries, 18/12/15

Haspelmath, Martin. - How to switch Quickly to diamond open access: the best journals are free for authors and readers – Free Science Blog, 28/12/15

Clavey, Martin. – Publications scientifiques : l’open access va entrer dans la loi. – Educpros, 09/12/15

Archives ouvertes et licences Creative Commons : des synergies à conforter. – S.I.Lex, 19/01/16

Mazin, Cécile. – Axelle Lemaire : Le gouvernement, fossoyeur de la recherche ou les éditeurs. – Actualitté, 20/01/16

Langlais, Pierre-Carl. – Vite, une loi pour garantir l’accès aux connaissances. - Hôtel Wikipédia – L’Obs-Rue 89, 20/01/16

La CPU et le CNRS demandent la libre diffusion des publications scientifiques et des fouilles de données à la mesure des enjeux scientifiques. – CNRS : communiqués de presse, 21/01/16

Academic social networks and Open Access: French Researchers at the Crossroads. – InfoDoc Microveille, 24/01/16

Esposito, Joseph. – An Interview with Jeffrey Beall. – Scholarly Kitchen, 08/02/16

 

 

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Service(s) aux usagers : une innovation en bibliothèque qui remonte à un siècle !

Le ou les « service(s) aux usagers » (SAU : département auquel j’appartiens à Bibliothèque de Sciences Po) fait partie des dernières préconisations en matière d’activités des bibliothèques. Ils se retrouvent, par exemple au cœur des interventions de la Journée d’étude de l’ADBS, lors de l’i-Expo 2012.

Or, on retrouve cette préoccupation dans l’ouvrage d’Eugène Morel (1869-1934), « La Librairie publique », datant de 1908 et cité dans l’article de Lydie Ducolomb « Eugène Morel et la section des bibliothèques moderne : une réflexion sur la formation professionnelle des bibliothécaires au début du XXe siècle », publié dans le BBF de février 2012.
Pour ce bibliothécaire visionnaire « Il faut exciter sans cesse le public, le fournir de renseignement de toute sorte, chercher pour lui […], suivre l’actualité, dresser à chaque moment l’état des ressources de la librairie sur les sujets les plus diveers : une guerre, des tarifs douaniers, une loi sociale, une invention nouvelle … »

On retrouve là les services « push » que les bibliothèques et centres de documentation peuvent mettre au service de touts les catégories de lecteurs : jeunes lecteurs ou étudiants grâce aux réseaux sociaux ou blogs, dossiers documentaires ; services au chercheurs aussi, comme il en ressort dans l’article d’Archimag de Juin 2012 « Chercheurs, technologies et bibliothèques universitaires : questions d’usages ». Guillaume Nuttin y interroge trois responsables sur les besoins des chercheurs en information scientifique et technique (IST). Jean-Michel Barbiche, conservateur à la Bibliothèque de l’Ecole Centrale de Paris souligne « La qualité d’une bibliothèque ne se mesure pas à la quantité de documents qu’elle propose, mais à l’aune des services proposés autour des ressources ».
Odile Hologne, directrice déléguée à l’Information scientifique et technique à l’INRA explicite cette révolution copernicienne de l’activité documentaire « Nous avons repositionné complètement l’offre de services en IST pour les scientifiques : veille, bibliométrie, gestion des connaissances. Au lieu de nous positionner sur la gestion du stoock de documents, nous nous orientons sur l’analyse de l’information ».
Mais, comme le fait remarquer Ghislaine Charton, professeure à L’INTD « les chercheurs, dans leur grande majorrité, ne veulent pas être formés, faute de temps ou à cause d’autres priorités liées à leurs recherches. […] Il faut lever les barrières techniques et mmultiplier les services d’accompagnement de l’usager, en présentiel ou à distance ».

La formation des utilisateurs devient ainsi une des principales activités des professionnels de l’information qui retrouvent là leur mission de médiation.

Ce sont ces nouvelles compétences des « bib/docs » qu’explore Claudine Masse, Directrice de l’EBD, dans sa contribution « Nouveaux territoires pour les professionnels de l’information : l’évolution des compétences » Journée d’étude de l’ADBS, i-Expo 2012.
Elle insiste sur les compétences à acquérir ou approfondir dans le cadre de son école. Outre le management et la gestion de projet, l’architecture de l’information, la gestion et la production de contenus, les futures bibliothécaires et documentalistes devront acquérir des compétences dans la veille et des compétences transverses : langue (anglais), informatique, travail en équipe, communication écrite et orale.
L’exploitation de ces compétences permettra une maîtrise des bases de l’information-documentation (gestion et recherche documentaire, traitement, produits et services doc.) mais aussi le développement d’une expertise : architecture de l’information, veille, conduite de projet, archive et record management, communication/marketing, etc.

Ces expertises se retrouvent dans l’analyse de Loïc Lebigre à cette même journée d’étude à i-Expo « Vers un observatoire ADBS des fonctions « information » : opportunités et enjeux ».
De nouvelles fonctions émergen t pour les professionnels de l’information à partir du contexte des évolutions technologiques et sociétales :
– la fonction de « Coordination » pour les pratiques collaboratives
– Celle d' »éditorialisation » (curation) et d' »Analyse expertise métier » devant la surabondance des données accessibles et raccourcissement des cycles (R&D, production, valorisation)
– La « Maîtrise d’usage et gouvernance du SI » face à l’innovation technologique permanente et la diversité des solutions mobilisables.

Dans sa communication « Valeurs ajoutée des médiateurs » à cette même journée d’étude, Ghislaine Chartron identifie quatre pôles de compétences pour les professionnels de l’information : Gestion-Qualité ; Informatique ; Performance de l’activité principale et Communication-formation.

Dans la conclusion de son article, Lydie Ducolomb souligne que « l’héritage d’Eugène Morel [consiste] en une conception globale du rôle du bibliothécaire dans la société : informer, communiquer, rendre service, permettre l’accès de tous à la culture »

Table ronde « Nouveaux territoires pour les professionnels de l’information » animée par Elisabeth Gayon, présidente de l’ADBS, sur le salon i-expo 2012 – Journée d’étude, 14 juin 2012

Ducolomb, Lydie. – Eugène Morel et la section des bibliothèques modernes : une réflexion sur la formation professionnelle des bibliothécaires au début du XXe siècle ». – Bulletin des bibliothèques de France. – (20012/02)t.57:n°1, p.35-38

Nuttin, Guillaume. – Chercheurs, technologies et bibliothèques universitaires : questions d’usages. – Archimag. – (2012-06)n°255, p. 21-22.

Projet Istex : Une plateforme de ressources documentaires en ligne via des licences nationales

Porté par l’Université de Lorraine pour l’ensemble des universités, le projet ISTEX (Initiative en Information Scientifique et Technique) a été retenu dans le cadre du programme des « investissements d’avenir ».
Associant la CPU, le consortium COUPERIN, L’INIST et l’ABES, ce projet financé à hauteur de 67 millions d’euro vise à

· donner accès à un corpus de ressources documentaires acquises dans le cadre d’un programme volontariste d’achat de licences nationales,

· agréger ces ressources au sein d’une plateforme nationale accessible à tous les établissements, permettre la personnalisation en fonction des thématiques de formation et de recherche de chacun : chaque Idex (Initiative d’excellence) pourra ainsi se confectionner un portail spécifique, à partir du portail national accessible à tous,

· héberger sur le territoire des contenus scientifiques numériques dans le but d’offrir à la communauté d’enseignement supérieur et de recherche des services à forte valeur ajoutée

L’accès à la plateforme ne sera pas limitée aux établissements membres d’un projet d’Idex, mais à toutes les universités. Comme le souligne la « Lettre de la CPU » du 27 octobre 2011, ce « portail d’exploitation sophistiqué [..] constitue la vraie valeur ajoutée et rend le projet très compétitif au plan international ».

Michel Vajou, dans la « Dépêche du GFII » du 7 novembre se demande si ce programme d’investissement d’avenir va permettre l’émergence d’une « Agence nationale de l’Information scientifique et technique » qui jouerait en France le rôle du JISC (Joint Information System Comitee) au Royume Uni. Outre l’accès au réseau Janet (équivalent de Renater), cet organisme met à la disposition des établissements d’enseignement supérieur et de recherche des ressources documentaires numériques et une expertise à travers des services de spécialistes.
Dans l’analyse de la Dépêche, Michel Vajou essaie aussi de prévoir comment vont s’articuler les missions des différents acteurs fédérés dans ce projet : CPU, ABES, Couperin et INIST-CNRS.


Le projet ISTEX : mutualiser l’accès à la connaissance
CPU Infos, Lettre du 27/10/11

ISTEX : des licences nationales pour les ressources numériques par Christelle di Pietro, ENSSIBrèves, 07/11/11

ISTEX : Vers une plate-forme nationale d’accès à l’information scientifique et technique ? par Michel Vajou, La Dépêche du GFII, 07/11/11

Tablettes et liseuses : quels usages pour les étudiants ?

Avec son projet de tablettes à 1 euro, le Ministre Laurent Wauquiez veut introduire l’usage des tablettes dans l’enseignement supérieur. Les étudiants intéressés disposeraient ainsi de tablettes tactiles 3G+ qui leur reviendraient à 730 euros au bout de deux ans.
Deux tablettes avaient été retenues par l’opérateur Orange qui a répondu à l’appel d’offre du Ministère : l’incontournable iPad 2 d’Apple et le Galaxy Tab de Samsung.
Critiqué pour avoir favorisé des produits étrangers, le Ministère a aussi accordé son soutien à une deuxième offre, où le fabricant français Archos forme un tandem avec l’opérateur Bouygues Telecom pour une tablette avec forfait internet 3G + à 0,66 euro par jour ! Et dans ce cas, la clé 3G, facilement amovible (ce qui est impossible sur un iPad), peut aussi être utilisée sur un ordinateur portable.
Précisément, l’intérêt de la connexion 3G ne paraît pas évident non plus avec la multiplication des bornes wifi dans les universités et les lieux publics.

Mais la question fondamentale porte plutôt sur l’utilisation de ce nouvel équipement par les étudiants.
Lorsque l’on examine l’utilisation que les Français font des tablettes, ce qui ressort c’est l’usage privé et personnel (74%) de ce matériel !
On peut difficilement effectuer un travail universitaire ou autre sur une tablette et quant à la dimension nomade de ce nouveau jouet, elle se partage entre le salon (85%) et la chambre (69%) de l’utilisateur !
Les usages les plus fréquents de la tablette recouvrent, avec quelques différences (pas de téléphone GSM), les utilisations des téléphones mobiles : surfer sur l’internet, consulter l’actualité, rechercher des informations pratiques, consulter et répondre à ses mails, etc. La taille de la tablette (7 ou 10 pouces) permet de mieux profiter des vidéos, des jeux et des magazines.
Mais en ce qui concerne la lecture des livres numériques, on pourrait se demander si des « liseuses » de type Kindle (Amazon) ne seraient pas plus adaptées aux besoins des étudiants ? Elles sont, il est vrai, limitées au noir et blanc de l’encre électronique, mais si l’objectif est de faire lire les étudiants avec des terminaux mobiles, les liseuses disposent de plus d’atouts : lisibilité en plein jour tout en préservant les yeux des utilisateurs, grande sobriété de consommation énergétique, et surtout, prix beaucoup plus abordable (à partir de 100 euros) !
Bien sûr, les étudiants ne pourraient pas visionner des e-cours ni jouer à des jeux sérieux (?), mais ils auraient la possibilité de partager leurs annotations ou des signets pour retrouver les pages-clés dans une bibliographie !

Personne ne peut prédire aujourd’hui les usages qui seront faits de ces nouveaux outils. Lors de la popularisation du téléphone, certains prévoyaient que sa principale utilisation serait l’écoute d’enregistrements de musique ; cette prédiction s’est réalisée … près d’un siècle plus tard !

Des tablettes numériques à un euro par jour pour les étudiants. – Portail du Gouvernement, 05/10/11

En partenariat avec le Ministère de l’Enseignement supérieur et de la Recherche, Bouygues Telecom et Archos proposent aux étudiants la première tablette avec forfait internet 3G+ à 0,66E par jour. – Communiqué de presse, Archos – Bouygues Telecom, 14/10/11

Méli, Benoît. – Comment les Français utilisent les tablettes ? – Journal du Net , 12/10/11

Maussion, Catherine. – Tablettes à 1 euro : Archos dénonce Orange. – Ecrans – Libération.fr, 04/10/11

Auffray, Christophe. – Archos et Bouygues Telecom répliquent avec une tablette à 0,66 euro par jour. ZDnet.fr, 14/10/11

Charles, Frédéric. – Et pourquoi ne pas déployer les liseuses Kindle d’Amazon en entreprise ? Green SI – ZDnet, 01/10/11

Guillaud, Hubert. – Le Lire et l’écrire : clôture, glissement et déconnexion. – La Feuille – Blogs Le Monde.fr, 15/10/11

Qui a peur des bibliothécaires en grève ? Le désamour des étudiants pour les BU des deux côtés de l’Atlantique

Sûrement pas les étudiants qui désertent de plus en plus les bibliothèques des campus d’Amérique du Nord … et de France !
C’est ce qu’explique « Annnoyed Librarian » dans le billet « If Striking Librarians Fell in the Forest … » sur le site du « Journal of Library.com ». En faisant référence à la grève menée la semaine précédente à la bibliothèque de l’University of Western Ontario (Canada), ce professionnel se pose la question de la gêne que cette manifestation pourrait occasionner, à part celle de la circulation au milieu du campus, en raison du piquet de grève …
En effet, le fait que certains services de référence ne soient pas assurés ne devrait pas perturber outre mesure les rares utilisateurs des « Reference Desk », déjà en voie de disparition dans certaines grandes BU américaines (cf le post consacré à ce sujet en juin dernier). D’autant que l’on assigne de plus en plus aux bibliothécaires des sujets sur lesquels ils/elles ne sont pas spécialisés … Aujourd’hui, on voit de plus en plus de scientifiques avoir la responsabilité d’un secteur des « Humanités » (lettres et sciences humaines), alors qu’auparavant c’était plutôt le contraire !

Mais en fait, cela n’a aucune importance, car comme l’affirme l’article « What Students don’t Know » de Steve Kolowich sur « Inside Higher Ed », les étudiants n’ont aucune idée de ce que les bibliothécaires peuvent leur apporter dans leur recherche documentaire … L’idée que les bibliothécaires sont experts sur des sujets universitaires ne leur vient même pas à l’esprit. Pour la plupart des étudiants, le personnel des bibliothèques ne sert qu’à orienter dans les différentes salles (en accès direct).

Pour analyser ces pratiques, les professionnels de cinq BU de l’Illinois, ne se sont pas contentés des enquêtes habituelles, ils ont embauché deux anthropologues sur le projet ERIAL (Ethnographic Research in Illinois Academic Libraries). Les résultats, qui seront publiés par l' »American Library Association », dépassent les plus mauvaises prédictions. Seuls 30% des étudiants interrogés sont capables de mener une recherche documentaire correcte …;-( Et le mythe des « digital natives » en prend un coup ! Ces enfants de l’internet ne savent pas plus rechercher dans Google de façon pertinente … Mais les enseignants et les bibliothécaires sont aussi responsables de cet état de fait, car ils se mettent rarement au niveau de l’étudiant pour lui enseigner les bases de la recherche documentaire.

Cette ignorance et cette méconnaissance se retrouvent de ce côté-ci de l’Atlantique. C’est ce que révèle le mémoire de l’ENSSIB de Laurence Jung « Je ne travaille jamais en bibliothèque ». Enquête auprès d’étudiants non fréquentants ou faibles fréquentants. Michèle Battisti le cite dans son compte-rendu de l’Université d’été du GFII dans Paralipomènes pour évoquer l’importance de la médiation en bibliothèque.
Cette enquête sociologique analyse les représentations de la bibliothèque de ce « non public » qui représente plus de 13%% des étudiants (2006). La plupart de ceux qui fréquentent les bibliothèques les utilisent de plus en plus comme des « lieux de travail », calmes et silencieux. C’est d’ailleurs cet aspect ‘quasi religieux’ qui rebutent certains …

A l’autre bout du cursus universitaire, les chercheurs ont aussi déserté la bibliothèque physique, depuis qu’ils ont découvert la bibliothèque numérique ! L’un d’eux ignore même que c’est la BU qui gère ses abonnements en ligne !

Il est encore temps de récupérer cette désaffection, notamment en travaillant en amont avec les enseignants sur les disciplines. L’étude montre, en effet, que les variations d’utilisation des BU dépendent des sujets étudiés. Alors que les étudiants en sciences n’ont besoin de consulter aucun document jusqu’au master, les étudiants en lettres – qui sont souvent des étudiantes – sont « obligées » d’aller à la bibliothèque consulter ou emprunter des documents. Mais ceci est encore une exception française, car dans les pays anglo-saxons, les étudiants en sciences sont très tôt formés à la recherche documentaire.

EBooks : avenir du livre, fin de l’œuvre, système clos ou univers ouvert … (1ère partie)

Les ebooks et la numérisation des ouvrages annoncent-ils vraiment la fin du livre, comme on aime à le répéter depuis plus d’une décennie ?

Le « Livre du futur » (et non le futur du livre …) a figuré parmi les enjeux traités au dernier Congrès de l’IFLA à San Juan (Porto Rico). Il a été au centre d’un débat entre éditeurs, auteurs et bibliothécaires lors d’une session rapportée par Silvie Delorme, Directrice de la BU de Laval au Québec, dans son blog IFLA 2011 Laval. Comme le modèle économique de ce nouveau support n’est pas encore opérationnel, même les éditeurs (les ‘gros’ et les ‘spécialisés’) ne sont pas d’accord entre eux sur les accès simultanés. Quant aux bibliothèques, « elles devront devenir des points d’accès plutôt que des lieux de conservation » …

C’est aussi l’objet du Colloque international qui se tient les 5 et 6 septembre 2011 à Rio-de-Janeiro (Brésil) « E-Books et démocratisation de l’accès. Modèles et expériences de bibliothèques ». Le post « Évolution ou révolution » sur le site Rioscope.com.br pose la question « Comment les bibliothèques peuvent-elles continuer à jouer leur rôle traditionnel avec l’énorme augmentation de l’usage de Smartphones, iPads, Tablet-PCs et e-Readers portables? »

Ce qui ne rassure pas, par ailleurs les bibliothécaires, comme « New Jack Librarian » dans le post « Cassandra and the future of libraries without librarians » qui appréhende l’avenir de la bibliothèque sans bibliothécaires. Cette situation est surtout la conséquence des coupes sombres que subissent les BU américaines en raison des restrictions budgétaires. Les effectifs de certaines bibliothèques fondent, d’après ce post, et ce d’autant plus que certaines ne disposent pas d’une autonomie de recrutement par rapport aux universités dont elles dépendantes …

Mais la seconde raison avancée par New Jack est bien la numérisation croissante des ressources documentaires et plus particulièrement l’acquisition de « bouquets » de revues et bientôt de livres numériques, grâce à des consortiums de bibliothèques. Le travail de sélection et de gestion des collections réalisé jusqu’à présent par les bibliothécaires va bientôt être externalisé vers des sociétés comme « Proquest ».

Avec les bibliothèques numériques gérées par des tiers, la Bibliothèque universitaire risque de représenter plus un coût qu’un investissement pour ses institutions de tutelle. Les bibliothécaires doivent pouvoir répondre à ce défi, notamment à travers des services aux publics (étudiants, enseignants, chercheurs) et démontrer que leur travail incarne aussi bien les valeurs de la bibliothèque, que celles de l’enseignement et de la recherche et de la communauté universitaire.

Staypressed theme by Themocracy