Posts tagged: Professionnels de l’information

Evolution des bibliothèques : où en est-on ?

4175783446_7e32581cf5_bLa fin des bibliothèques, souvent annoncée (presque autant que la fin du travail !), ne semble pas  encore réalisée. Au contraire, la dernière Enquête sur les publics et les usages des bibliothèques municipales du Ministère de la culture indique une augmentation de la fréquentation des bibliothèques publiques (40% des Français de plus de 15 ans contre 35% en 2005). Si toutes les bibliothèques ne sont pas devenues des ‘learning centres’ ou des ‘leisure centres’ comme dans d’autres pays, un certain nombre de mutations sont à l’œuvre, aussi bien dans les bibliothèques universitaires et de recherche que dans les BM et les médiathèques grand public.

Ces évolutions concernent autant l’offre d’activités des bibliothèques que les transformations plus profondes des métiers et des pratiques de l’information-documentation.

L’innovation est le maître-mot, comme le rappelle Clémence Jost dans Archimag en évoquant le thème central du Congrès de l’ABF en 2016 « L’innovation en bibliothèques ». Pour repenser la bibliothèque, Christine Tharel-Douspis, cite dans le BBF la « Bibliothèque en [r]évolution », thème de la Journée Régionale de la Commission lecture publique de Mobilis organisée en partenariat avec l’ENSSIB. Au programme, réseaux sociaux, usages différents et mouvants, BiblioRemix, co-construction, design thinking, expérience utilisateur, etc.

Diversification et offre de pratiques innovantes

Un certain nombre de bibliothèques ont introduit de nouveaux outils ou de nouvelles pratiques à destination des publics. Outre les incontournables ‘fablabs’, on trouve aussi :

  • Un kiosque qui distribue de courtes nouvelles rédigées par les étudiants à la Penn State University Library
  • Des « feuilletoirs» numériques (écrans tactiles insérés dans les rayonnages donnant accès aux 132 000 documents des collections en magasins) à la Bibliothèque Alexis de Toqueville à Caen
  • Des animations de réalité virtuelle avec casques à la Médiathèque Federico Fellini de Montpellier et à la bibliothèque de la Manufacture de Nancy FabLab
  • « Les Yeux docs », plateforme de vidéos documentaires à la BPI
  • Labo2 : laboratoire des usages numériques à la BM de Nantes : écriture, jeux vidéo, créations numériques, outils cartographiques
  • Une « grainothèque» à la BM Aimé Césaire de Villeneuve-La-Garenne : chacun peut apporter son sachet de graines dans un espace dédié où d’autres « semeurs » peuvent se servir gratuitement.
  • Un concours de « Bibtubeurs» à la BM de Bègles où de jeunes lecteurs réalisent des « Booktubes » : petite vidéo résumant un livre que l’on veut partager avec d’autres lecteurs. Donner en 5 minutes envie de lire le livre et apprendre à maîtriser les bases techniques de la réalisation vidéo.
  • La plateforme de photos Instagram d’étudiants sur des livres ou des activités de la bibliothèque. Comme La New York Public Library des d’autres BU américaines, la bibliothèque de la « London School of Economics” lance sa plateforme Instagram pour sa « Review of Books ».

Comme le souligne l’enquête sur les bibliothèques municipales « l’usage des équipements [de lecture publique] évolue également : autrefois axé sur l’emprunt et le livre, il s’est fortement diversifié, en lien avec la richesse des services proposés par les bibliothécaires, sur place, en ligne et hors les murs ».

Les transformations en profondeur des métiers de l’information et de la 6232096-9311528documentation

L’impact du numérique et de la communication n’est pas récent dans ces métiers et remonte bien à plus d’une trentaine d’années, mais les mutations se font surtout sentir depuis une dizaine d’années. Elles se traduisent par un certain nombre de transformations dans la vie professionnelle du domaine.

  • Mise à jour de la terminologie en sciences et techniques de l’information (Archives 21)
  • Le rôle des bib-docs dans la lutte contre la désinformation et les Fake news. L’importance de la formation à l’’information literacy’ dans la construction des savoirs.
  • La contribution à l’encyclopédie Wikipédia, aussi bien en tant que professionnel avec l’évènement 1Bib1Ref (Un bibliothécaire, une référence), qu’en tant que médiateur pour faire connaître cette entreprise « Creative common » aux lecteurs. Comme le souligne Sylvain Machefert, auteur de ce chapitre, « Wikipédia peut aussi être le point de départ à une sensibilisation du public aux questions en lien avec le droit d’auteur », en raison de sa licence libre.
  • Le rôle croissant de la communication interne au sein de l’institution, notamment à travers les outils collaboratifs et les réseaux sociaux d’entreprises, comme Slack ou Teams.
  • Le rôle des bibliothèques de recherche dans le développement des Humanités numériques. Le rapport des Research Libraries UK souligne le rôle que pourraient avoir ces bibliothèques dans la création, l’archivage, la curation et la préservation d’outils pour la recherche en Humanités numériques. Le RLUK veut comprendre le rôle joué par ces bibliothèques dans la représentation numérique pour identifier les zones spécifiques à valoriser et aussi pour faciliter le partage des bonnes pratiques. 497671-rea-197588-011-580x310
  • Les nouvelles appellations des métiers de la documentation. Comme le relève E. Barthe dans son blog, cité par H. Girard dans la Gazette des Communes, le mot documentaliste, tel que le définit le code du Répertoire opérationnel des métiers et des emplois (ROME), ne correspond plus à la réalité du métier. Depuis le début des années 2000, on a vu émerger des knowledge managers, des gestionnaires de bases de données et de ressources numériques, des community managers et autres webmasters … Ces nouveaux métiers qui portent aussi sur la gestion des documents et de l’information n’apparaissent pas dans le code ROME 1601. Or, on trouve de nombreux emplois et postes pour ces dénominations … Cette évolution des métiers a été cartographiée par l’ADBS en 2013. Mais comme le remarque Archimag dans son 2e Baromètre sur l’emploi et le compétences (2016), d’autres compétences complémentaires sont nécessaires, comme le numérique ou la communication.
  • L’importance de la présence des bibliothèques sur les réseaux sociaux. Les bibliothèques se sont majoritairement investies dans les deux principaux réseaux sociaux Facebook et Twitter où se retrouvent la plupart des utilisateurs. Mais comme on l’a vu plus haut, certaines bibliothèques choisissent de participer à des activités plus ciblées sur certains réseaux, comme Instagram ou YouTube pour développer l’aspect prescripteur des lecteurs. Sur les réseaux sociaux dédiés aux livres qui remontent aux années 1990, on est passé des pionniers (Zazieweb), aux start-ups et à la professionnalisation (Babélio) pour atteindre une certaine concentration avec la pérennisation de certains sites (Sens critique) et une polarisation de la prescription avec la quasi disparition de la ‘longue traîne’. Comme le souligne Louis Wiart, dont l’étude est citée par Christine Tharel-Douspis dans son article du BBF, les réseaux sociaux ont un effet de caisse de résonnance : les best-sellers et les livres les plus cités concentrent le plus de visibilité, tandis que les catégories intermédiaires sont moins représentées … « Les réseaux sociaux ne bouleversent pas les champs des pratiques, mais fortifient le lien entre professionnels et usagers ».
  • Le « BiblioRemix » et le « nouveau paradigme de la participation ». Cette démarche veut accompagner l’évolution des bibliothèques vers le ‘3e lieu’ et rompre avec l’image stéréotypée de ces établissements. Elle implique la participation du public dans une démarche de décision et de gouvernance plus citoyenne. Il s’agit de repenser la bibliothèque avec les usagers, de co-concevoir les politiques publiques. Avec BiblioRemix, on passe du service public aux services aux publics. De nombreux exemples de projets sont cités dans l’article du BBF, dont les 4C aux Champs libres à Rennes (Création, collaboration, connaissance et citoyenneté).

Ces différentes tendances dessinent une nouvelle configuration des bibliothèques, où professionnels et usagers se retrouvent dans des pratiques où l’information passe par différents canaux comme la communication interne et extérieure, la formation, la participation, ou des outils comme les humanités numériques, la curation et l’échange aussi bien « in real life » que sur les réseaux sociaux.

communs

Mollett, Amy ; Mc Donnell, Anthony. – Five ways libraries are using Instagram to share collections and draw public interest. – Impact of Social Sciences, 16/04/14

Enquête sur les publics et les usages des bibliothèques municipales en 2016. – Ministère de la Culture et de la Communication – Livre et lecture, 16/06/16

Barclay, Donald A. – The challenge facing libraries in an era of fake news. – The Conversation, 05/01/17

Jost, Clémence. - Innovation : les bibliothèques, laboratoires de réinvention. – Archimag, 02/05/17

Machefert, Sylvain. – “Wikipédia et bibliothèques : agir en commun” dans Communs du savoir et bibliothèques/Lionel Dujol. – Paris, Cercle de la Librarie, 2017. Via Hal-archives ouvertes, 31/05/17

Tharel-Douspis, Christine. « Bibliothèque en (r)évolution ». – Bulletin des bibliothèques de France  n° 11. – 23/06/17

Kamposiori, Christina. – The role of Research Libraries in the creation, archiving, curation, and preservation of tools for the Digital Humanities. RLUK Report. – Research Library UK, cop. July 2017. Pdf.

La communication interne en bibliothèque : expérimentation de Teams, le Slack de Microsoft. – Hortensi-us, 15/07/17

Girard, Hélène. – Documentaliste : le poids du mot face aux mutations des fonctions.La Gazette des communes, 03/08/17

Enis, Matt/ – Penn State Libraries launch short stories dispensers. – Library Journal, 04/08/17

Ducharme, Daniel. – Un projet de mise à jour de la terminologie de base en sciences de l’information. – Archives 21, 15/08/17

L’inventivité en bibliothèque : les bibtubeurs, le concours de Booktube. – Actualitté, 29/08/17

Dillaerts, Hans.- Créer, gérer et animer un dispositif de Fab Lab au sein d’une bibliothèque publique : entretien avec Julien Amghar, créateur de l’espace Kénéré le Lab. – DLIS.Hypothèses.org, 06/09/17

 

 

Fake news, désinformation, post-vérité : quel rôle pour les professionnels de l’information ?

truth-lies-wallpaper__yvt2-550x412La victoire de Donald Trump à l’élection présidentielle aux Etats-Unis a fait émerger une nouvelle notion dans l’univers des actualités et de l’information : l’idée de ‘vérité alternative’. Dès son installation à la Maison Blanche, une polémique s’est développée autour du nombre de participants à la cérémonie d’investiture du Président : comme le rappelle l’article du Guardian, Kellyanne Conway conseillère à la Maison Blanche a défendu la version du porte-parole du Président Sean Spicer , « la plus importante cérémonie d’investiture en terme d’audience » en déclarant que celle-ci se basait sur des ‘faits alternatifs’ (alternative facts). Depuis, la ‘post-vérité’ triomphe aux Etats-Unis dans une atmosphère quasi-orwellienne où la « majorité des journalistes sont malhonnêtes » …

La fabrique des fake news et la contre-offensive des médias

L’utilisation des réseaux sociaux et de certains médias pour répandre ces faits alternatifs (« Le Pape François soutient D. Trump ») a été particulièrement importante lors de cette campagne électorale comme lors de la campagne pour le ‘Brexit’. On leur a surtout reproché l’usage de robots logiciels et d’intelligence artificielle (‘bots’) pour manipuler les électeurs. Mais comme le souligne le sociologue Antonio Casilli dans sa conférence sur Infobésité et fake News et algorithmes politiques (Numa, Paris) : aujourd’hui, les entreprises de désinformation sur le net sont loin d’utiliser uniquement des algorithmes et autres ‘chatbots’ pour influencer les internautes. Si Facebook a effectivement utilisé un effet de ‘bulle de filtre’ en faisant circuler un même type d’information à l’intérieur d’un cercle d’amis, (si quelqu’un est de droite, il ne va voir que des informations venant de la droite), la plupart des ‘Likes’ et retweets ont été effectués par des humains dans des ‘usines à click’ de pays émergents (Philippines, Mexique,etc.). Ce ‘digital labor’, comme le Mechanical Turk d’Amazone, est payé quelques centimes le click, un peu plus pour les femmes au foyer de l’Amérique profonde … !

A la veille de l’élection présidentielle en France, un certain nombre de médias et géants du Net se posent la question de vérification des informations. Plusieurs initiatives ont vu le jour depuis quelques semaines pour décrypter ces attaques, notamment le Décodex, outil mis au point par le Monde, mais aussi une alliance de plusieurs médias français avec Facebook et Google. Vreuz0Z4aYsXhAor0wG05Tl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9

Que valent ces outils et peut-on véritablement dénicher les fausses informations qui se multiplient sur la Toile ? Déjà un certain nombre de critiques sont portées à l’égard du Décodex. En cherchant à labelliser la crédibilité des médias en fonction de points de vue subjectifs (Valeurs actuelles a pignon sur rue, tandis que Fakir est une feuille militante), cet outil effectue un biais comme le souligne Vincent Glad dans son article dans Libération : « le Monde se donne le rôle de censeur et de vérificateur du web, de CSA de l’information en ligne ». C’est aussi le point de vue de SavoirCom1, cité par Blog Univesrdoc, blog de veille des chefs de projets à l’INTD-CNAM  « Le collectif SavoirComun1 (1) – un groupement de bibliothécaires engagé pour les libertés à l’ère numérique et la libre dissémination des savoirs – ne dénigre pas l’utilité de Décodex dans le contexte actuel, mais partage son inquiétude sur ce type d’application d’évaluation, qui gérée par des plate-formes privées, voire par l’Etat pourrait amener à des formes de censure. ». Le Monde par la voix de Samuel Laurent (Les Décodeurs) s’est engagé pour sa part à faire évoluer son outil, notamment en distinguant les informations factuelles des commentaires. Mais si certaines mesures ont été prises concernant les sites d’opinion (Les crises, Valeurs actuelles), apparemment cela n’a pas empêché la requalification d’un site comme Doctissimo auparavant classé en orange (site imprécis, ne citant pas ses sources), et passé en vert le 21 février … Serait-ce parce que le groupe Le Monde et Doctissimo lançaient ce jour-là le magazine Sens et Santé (voir Les Echos) comme le souligne Olivier Berruyer dans Les Crises ?

La désinformation dans l’histoire

L’IFLA, de son côté, nous rappelle que ce travail de vérification et de filtrage de l’information est le propre de professionnels de l’information avec son infographie, en collaboration avec Wikipedia, « How to spot fake news »  posté sur Facebook et twitter et explique sur son blog comment les bibliothèques peuvent aider leurs utilisateurs à trouver des faits qui ne sont pas alternatifs … L’exemple de Wikipedia avec ses millions d’utilisateurs qui vérifient les articles peut être une garantie de bonnes pratiques informationnelles tout comme les ‘peer reviews’ des revues scientifiques. Le rôle historique des bibliothécaires dans l’’information literacy’ (formation à l’information) est aussi rappelé dans l’article de Donald Barclay de Conversation « The Challenge facing libraries in the era of fake news ». La désinformation n’a pas commencé avec les réseaux sociaux. Barclay cite le cas de la campagne menée par l’industrie du tabac dans les années 1960 qui s’appuyant aussi bien sur la presse populaire que sur des pseudo-revues scientifiques, sans parler du soutien de Barry Goldwater qui assimilait la dénonciation des effets du tabac sur la santé à un complot communiste !

media_image3Antonio Casilli a aussi rappelé que la manipulation de l’information ne date pas d’hier : la propagande, largement utilisée au 20e siècle, a été créée par l’Eglise catholique au 15e siècle (De propaganda fidei : sur la propagation de la foi) ! Le reste des fausses nouvelles passaient par la littérature de colportage et les complots, souvent en lien avec des puissances surnaturelles, se retrouvaient dans les écrits apocryphes et les mystères ….

Depuis les années 1970, la complexification des sources et des supports de l’information (bases de données, microfilms, informatisation), a rendu crucial le rôle des bibliothécaires universitaires pour former l’esprit critique des étudiants. Cette formation ne se limite plus à localiser des ouvrages ou des documents sur des étagères, mais à » identifier, organiser et citer des informations ». Aujourd’hui avec le foisonnement de l’internet, il ne suffit plus aux étudiants de savoir distinguer une revue scientifique comme Nature d’un magazine grand public, ils doivent différencier les articles de périodiques véritablement scientifiques de ceux de revues ‘prédatrices’ ou pseudo-scientifiques … Sans parler des données et des résultats faussés par les chercheurs eux-mêmes !

Un défi pour les professionnels de l’information

Devant l’incertitude qui entoure la fiabilité des données et dans un environnement universitaire de plus en plus changeant, où les étudiants sont plus souvent créateurs de nouveaux savoirs que consommateurs d’information, l’ACRL (Association américaine de bibliothèques de recherche) a lancé son « Framework for Information Literacy in Higher Education », cette charte pour la formation à l’information dans l’enseignement supérieur reconnaît que l’évaluation de l’information n’est pas une chasse au trésor ou les ressources identifiées seraient ‘bonnes’ ou ‘mauvaises’. L’autorité est construite et contextuelle et fait appel aux enseignants et aux bibliothécaires pour une approche de l’autorité et de la crédibilité à partir du contexte de l’information et non pas dans l’absolu. Pour D. Barclay cette position est beaucoup plus stimulante pour les étudiants que d’accepter l’autorité d’une source sans discussion ou de réfuter toute autorité comme anachronique au nom de la post-vérité !

C’est une approche semblable qu’a pris le Collectif SavoirCom1 en considérant la question de l’information sous l’angle des ‘Communs de la connaissance’ : en prenant l’exemple de Wikipédia, il montre qu’»un espace de publication constitué comme un commun résiste mieux aux fausses informations ». Le collectif veut favoriser l’émergence d’une communauté de ‘vigilance informationnelle autour du Décodex » : elle permettrait que les outils de vérification soient eux-même vérifiables, que les règles de contribution et de régulation soient clairement énoncées, que les sites évalués puissent faire appel de leur évaluant en démontrant leur mode d’élaboration et de transmission de l’information et enfin que les acteurs de l’information (organes de presse ou prestataires de services informationnels) s’impliquent dans la formation aux médias et à l’information des citoyens. On retrouve ici l’importance de la co-construction de l’information et du contexte prôné par l’ACRL dans son Framework.

 

Framework for Information Literacy for Higher Education/Association  of College & Research Libraries. - Ala.org, 11/01/16

Swaine, Jon. – Donald Trump’s team defends ‘alternative facts’ after widespread protests. – The Guardian, 22/01/17

L’annuaire des sources du Décodex : mode d’emploi/Les Décodeurs.Le Monde, 23/01/17

Dorf, Michael C. ; Tarrow, Sidney. – Stings and scams: ‘Fake news’, the First Amendment and the New Activist Journalism. – Cornell Legal Studies Research Paper n°17602, 26/01/17

Alternative Facts and Fake News : Verifiability in the Information Society. - Library Policy and Advocacy Blog [IFLA Blog], 27/01/17

How to spot fake news ? IFLA in the post-truth society. – Ifla.org, 01/02/17

Delcambre, Alexis ; Leloup, Damien. - La traque ardue des « fake news ». – Le Monde, 02/02/17

Yeh, Alexandra.- Les citoyens n’ont jamais été aussi méfiants envers les médias.Méta-média, 03/02/17

Glad, Vincent. – Qui décodera les décodeurs ? De la difficulté de labelliser l’information de qualité. – Libération, 03/02/17

Barclay, Donald A. – The Challenge facing libraries in an era of fake news. – The Conversation, 05/02/17

Bounegru, Liliana. - Three ways in which digital researchers can shed light on the information politics of the post-truth era. – Impact of Social Sciences, 06/02/17

Ertzscheid, Olivier. – La vie en biais. – Affordance.info, 07/02/17

Controverses autour du Décodex, un outil contre la désinformation ?Docs pour Docs, 07/02/17

Seabright, Paul. – Les « fake news », « quelques gouttes d’eau dans une cascade de propagande ». – Le Monde, 08/02/17

Decodex : on s’engage dans une guerre contre les ‘fake news’. S. Laurent (Le Monde), F. Ruffin (Fakir), L. Merzeau (SavoirCom1) débattent. – Arrêt sur image, 10/02/17

Lacour, Sophie. - Image, ma belle image, montres-tu la vérité ? – Usbek & Rica, 10/02/17

Manach, Jean-Marc. - Il est trop tard pour s’alarmer d’une cyber-guerre électorale. - Slate, 14/02/17

« Fake news » : les profs américains ajoutent l’éducation à l’information dans leurs cours. – VousNousIls, 15/02/17

Décodex, la controverse. – Blog UniversDoc, 20/02/17

[Tellement prévisible] Décodex victime d’un conflit d’intérêts patents …Les-crises.fr, 21/02/17

 

 

 

Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

France vs Union européenne : Quelle évolution pour le droit d’auteur ?

llc_droit_d_auteurLa Commission européenne avait lancé début 2014 une consultation sur la modernisation du droit d’auteur (cf Prospectibles). Parmi les propositions qui serviront de base à la nouvelle directive se trouve le rapport au Parlement européen de la jeune eurodéputée allemande du Parti Pirate (apparenté écologiste) Julia Réda.

Ce rapport qui sera soumis au vote fin mai a été présenté au Sénat le 3 avril par Julia Reda elle-même. Un des principaux objectifs de ce rapport est l’harmonisation du droit d’auteur au sein de l’Union européenne et aussi une mise à jour de ce droit dans le contexte de la société numérique, la dernière directive datant de 2001 (avant Facebook et YouTube) …

Cet « aggiornamento » voudrait pouvoir accorder plus de choix aux utilisateurs sans pour autant réduire les prérogatives des auteurs.

En effet, si la directive 2001 s’applique à l’ensemble des membres de l’UE, chaque pays dispose d’exceptions différentes. Par exemple, dans le cas de l’entrée dans le domaine public : « Le petit prince » d’Antoine de Saint-Exupéry, disparu en 1944, devrait être partout dans le domaine public (70 ans après la disparition de l’auteur) … Sauf en France, où Saint-Exupéry, héro de guerre, dispose de 30 ans de plus … !

Le rapport fait déjà l’objet de 550 amendements et d’un intense lobbying, notamment de la part d’organismes français, soutenus par la Ministre de la Culture Fleur Pellerin. « La position de la France devrait être simple à établir : ne pas accepter le principe de la réouverture de cette directive tant que la nécessité réelle des solutions existantes n’a pas été démontrée » : c’est la conclusion du rapport du juriste Pierre Sirinelli, présenté le 18 novembre au Conseil supérieur de la propriété littéraire et artistique.

On comprend que les ayants-droit s’inquiètent de cette réforme : le Commissaire européen au numérique Günther Oettinger, ayant déclaré le sujet prioritaire et sa volonté de « libérer la créativité » et briser les barrières nationales, confortant sur ce point le projet de ‘marché unique numérique’ du Président de la Commission Jean-Claude Juncker.copyright

Si l’on comprend bien les préoccupations des syndicats d’auteurs et de créateurs qui ne désirent pas un ‘nivellement par le bas’ de la diversité culturelle européenne où l’on favorise les « tuyaux » au détriment des contenus (JM Cavada), il faut reconnaître qu’avec l’internet le consommateur culturel est devenu transfrontalier. Il peine à comprendre pourquoi il peut avoir accès à certains contenus (presse, revues, réseaux sociaux) partout, (ou du moins dans les pays où la censure ne sévit pas) et pas à d’autres (films, séries, programmes TV) en fonction de réglementations spécifiques de chaque pays …

Les propositions du Projet de Rapport Reda

  • Reconnaissance de la nécessité d’une protection juridique pour les auteurs et créateurs et interprètes et aussi pour les producteurs et éditeurs dans la commercialisation des œuvres. Amélioration de la position contractuelle des auteurs par rapport aux intermédiaires.
  • Introduction d’un titre européen unique du droit d’auteur qui s’appliquerait directement et uniformément dans l’ensemble de l’UE pour pallier le manque d’harmonisation de la directive 2001/29 CE
  • Poursuite de la suppression des obstacles à la réutilisation des informations du secteur public en exemptant les œuvres du secteur public de la protection du droit d’auteur.
  • Protection des œuvres du domaine public, par définition non soumises au droit d’auteur et qui devraient pouvoir être utilisées et réutilisées sans obstacles techniques ou contractuels.
  • Harmonisation de la durée de protection du droit d’auteur qui ne dépasse pas les normes internationales fixées dans la Convention de Berne (50 ans après le décès de l’auteur).
  • Exceptions et limitations : harmonisation des exceptions ; rendre obligatoires les exceptions facultatives (droit à la citation, copie privée) ; création de nouvelles exceptions : représentation (photos ou vidéos) d’œuvres d’arts ou de monuments sur internet ; prêt numérique (e-books) pour les bibliothèques ; extension du droit de citation (vidéo). Suppression des limitations territoriales (audiovisuel ; chronologie des médias). Les droits se négocieraient au niveau européen plutôt qu’au niveau national.

Rien de très révolutionnaire dans ces propositions, si ce n’est la volonté d’étendre à l’ensemble de l’Union des lois qui existent pour certains Etats-membres. Comme l’explique Julia Reda sur son blog « Nous devons promouvoir la diversité culturelle. Mais la diversité culturelle n’est pas la même chose qu’une diversité de lois. »

Une des principales critiques contre ce projet est que la suppression des limites territoriales serait une porte ouverte pour les GAFA et autres multinationales américaines comme Netflix qui profiteraient d’un copyright unique européen pour imposer leurs conditions aux créateurs et éditeurs. Ces entreprises sont déjà bien installées sur le web européen et profitent plus de la manne publicitaires que les acteurs traditionnels (médias, éditeurs). C’est cette part grandissante des « intermédiaires techniques » qui ne soutiendraient pas assez la création que dénonce le rapport Sirinelli, commandé par le Ministère de la culture pour défendre le point de vue français dans cette réforme du droit d’auteur. Ce rapport voudrait pouvoir surtout renforcer le droit d’auteur et réduire les exceptions. Il s’oppose également au « fair use » à l’américaine qui serait une ‘liste ouverte d’exceptons’. En revanche, l’exception de copie privée devrait être rendue obligatoire pour le paiement de la redevance dans les pays qui y sont encore opposés. Le rapport demande aussi un réexamen de la directive sur le commerce électronique.droitsdauteurs2

En effet, pour ses détracteurs, le projet Reda ne s’attaque pas assez au problème du piratage et de la contrefaçon … Et le fait que la rapporteure est membre du Parti Pirate n’arrange pas les choses !

Mais les acteurs français ne sont pas tous contre la réforme du droit d’auteur. Les bibliothécaires et les chercheurs soutiennent l’idée d’un ‘fair copyright’ qui permet les exceptions pédagogiques et le prêt numérique. Contrairement à ce que soutenait Lionel Maurel au lendemain du Congrès de l’IFLA dans son blog S.I.Lex, les professionnels de l’information ne se limitent pas à défendre les exceptions. L’Interassociation Archives Bibliothèques Documentation (IABD) soutient le London Manifesto des bibliothécaires britanniques en affirmant : « Une législation sur le droit d’auteur équilibrée (fair copyright) à travers l’Europe sont des droits essentiels.  Sans eux, nous ne parviendrions pas à soutenir efficacement la recherche, l’innovation et la croissance et nous entraverions l’ambition d’un marché unique du numérique. ».

Les préconisations des bibliothécaires français et britanniques sont assez proches du rapport Reda : harmonisation des exceptions, normes ouvertes, droit de prêt numérique, harmonisation de la durée de protection, droit d’acquérir une licence d’utilisation, droit d’explorer (fouille de textes) : analyse informatique des ouvrages pour les bibliothèques, droits pour les personnes handicapées : ratification du Traité de Marrakech, droits d’usages transnationaux, numérisation de masse, etc.

On retrouve ces préoccupations chez les chercheurs, comme dans la présentation d’Eric Verdeil à l’Ecole doctorale SHS de Lyon « Publications scientifiques en sciences humaines et sociales à l’ère du numérique : enjeux pour les chercheurs » : valorisation du ‘fair use’, copyleft et Creative Commons.

On est encore loin d’avoir épuisé les domaines d’application du droit d’auteur : les impressions 3D font partie des prochains défis : les sénateurs viennent finalement de décider que les imprimantes 3D ne seraient pas soumises à la redevance pour copie privée … ! En revanche, les tracteurs ‘connectés’ (cf le dernier post d’Affordance) vont devoir embarquer des DRM dans les codes informatiques qui les font fonctionner et empêcher les utilisateurs de ‘bidouiller’ pour les dépanner !

copyright1

IFLA 2014 : les bibliothèques et le piège des exceptions. – S.I.Lex, 29/09/14

Günter Oettinger promet une réforme du droit d’auteur d’ici deux ans.Euractiv, 30/09/14

Rapport de la mission sur la révision de la directive 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Pierre Sirinelli – Conseil supérieur de la propriété littéraire et artistique, octobre 2014

Mon rapport sur le droit d’auteur dans l’UE. - Julia Reda, 16/12/14

Rees, Marc. – Fleur Pellerin aiguise ses armes pour défendre les ayants droits à Bruxelles. – NextInpact, 13/01/15

Projet de rapport sur la mise en œuvre de la directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Julia Reda – Parlement européen ; Commission des affaires juridiques, 15/01/2015

Un rapport parlementaire plaide pour le détricotage du droit d’auteur. – Euractiv, 20/01/15

Rees, Marc. – Rapport Reda : la commission ITRE veut concilier anciens et modernes. – NextInpact, 03/03/15

La mobilisation sur le droit d’auteur devrait étendre le champ de la réforme en cours. – Euractiv, 13/03/15

Gary, Nicolas. – Auteurs et éditeurs : les relations empirent en France. – Actualitté, 20/03/15

The London Manifesto : Time for reform ? – 1709 Blog, 01/03/15

La culture européenne n’est pas confinée aux frontières nationales – n’utilisons pas le droit d’auteur pour la forcer à l’être (discours au Sénat). – Julia Reda, 04/04/15

L’IABD soutient le London Manifesto qui prône une réforme européenne du droit d’auteur favorable aux bibliothèques, aux archives et aux services de documentation. – IABD, 04/94/15

Gary, Nicolas. - IABD : pour une législation équilibrée du droit d’auteur, le fair copyright. – Actualitté, 06/04/15

Langlais, Pierre-Carl. – Le droit d’auteur ne fait vivre qu’une minorité d’artistes. – L’Obs, 08/04/15

Verdiel, Eric. – Publications scientifiques en sciences humaines et sociales à l’heure du numérique : enjeux pour les chercheurs. – Lyon, Ecole doctorale SHS, session 2015 [Slideshare]

Rees, Marc. – Pas de taxe copie privée pour les imprimantes 3D. – NextInpact, 27/04/15

Du Digital labor au copytalisme. – Affordance.info, 28/04/15

 

Lire, écrire à l’ère numérique – 2 – Ecriture et éditorialisation

La grammatologie

84135761_oComme il a été évoqué dans le post précédent, l’écriture est très liée au dispositif de lecture. L’écriture n’est pas la transcription fidèle de la parole pleine sur un support, ce n’est pas une simple reproduction du langage. C’est ce que Derrida explique dans la De la Grammatologie[1]  « La brisure [de l’écriture] marque l’impossibilité pour un signe, pour l’unité d’un signifiant et d’un signifié, de se produire dans la plénitude d’un présent et d’une présence absolue ». Cette distance de l’écriture par rapport au langage et à la pensée, va être traduite par la notion de ‘trace’ : « cette trace est l’ouverture de la première extériorité en général […] : l’espacement ». Derrida arrive ensuite à la notion de ‘gramme’ (que l’on retrouve dans ‘programme’ « Depuis l’’inscription génétique’ et les ‘courtes chaînes’ programmatiques réglant le comportement de l’amibe ou de l’annélide jusqu’au passage au-delà de l’écriture alphabétique de l’ordre du logos et d’un certain homo sapiens, la possibilité du gramme structure le mouvement de son histoire ». On retrouve ici l’idée de codage spécifique de certaines aires neuronales que le neuropsychologue Stanislas Dehaene avait identifié pour la lecture. C’est ce que souligne aussi Christian Fauré dans son post Généalogie d’un lecteur : L’écriture est une ‘grammatisation’ (le codage) d’un message et la lecture, la ‘dégrammatisation’. En lisant, on écrit aussi dans le cerveau, on décode ce qui est tracé sur le support. Si on n’effectuait pas ce processus de décodage, on lirait comme une ‘tête de lecture’, sans rien comprendre … ! Ou tout au moins en ne comprenant que très partiellement …. traces

La lecture, surtout dans un environnement scientifique, s’accompagne souvent d’écriture, soit sur le support lui-même, annotations, surlignages, soit sur un autre support : fiche de lecture, notice, etc. Ces balisages divers signalent que la lecture a dépassé le stade alphabétique pour atteindre un stade cognitif : tri, sélection. Comme le fait remarquer Christian Fauré, peu importe si on ne relit pas ses propres annotations, car « souligner un livre c’est aussi et en même temps écrire dans son cerveau ». Ces gribouillis si souvent réprimés par les éducateurs et les bibliothécaires – c’est vrai qu’ils endommagent les ouvrages – vont retrouver une nouvelle vie avec le numérique ! Les lecteurs ‘écrivants’ d’aujourd’hui vont aussi pouvoir partager leurs commentaires avec d’autres lecteurs comme dans les bibliothèques du Moyen-Age où chaque clerc ajoutait son commentaire dans la marge ! La différence, c’est que l’on peut les faire apparaître ou disparaître en fonction des besoins.

Dans l’environnement numérique des e-books, chaque lecteur peut conserver ses annotations sur la plateforme de lecture en ligne. De même, de nombreux outils existent pour catégoriser et annoter les articles et blogs sur la Toile. C’est ce qui me permet d’écrire moi-même ce post à partir de tous les articles que j’ai recensé sur Diigo à partir du tag ‘écriture’moleskine_ecriture_infinie_698

L’éditorialisation du web

Le grammatologue allemand Ulmer appelle cette nouvelle compétence ‘electracy’, electronic literacy. C’est pourquoi l’écriture dans l’environnement numérique ne peut être la reproduction à l’identique de l’œuvre numérisée, comme c’est le cas aujourd’hui des e-books et des revues en ligne. C’est l’objet de la série de séminaires organisés depuis 2011 par l’IRI au Centre Georges Pompidou « Ecritures numériques et éditorialisation ». Dominique Cardon et Audrey Laplante démontrent dans une de ces conférences comment fonctionne le dispositif d’éditorialisation de contenus sur le web. Grâce à une structuration des données par des algorithmes, l’internaute les atteint après un ‘parcours de lecture’. Il ne se trouve pas directement en relation avec les producteurs de contenus. La plupart du temps, il doit passer par les algorithmes des moteurs de recherche (PageRank de Google) ou des réseaux sociaux (EdgeRank de Facebook).

L’écriture sur le web passe aussi par les différentes sortes de messageries (mels, messageries instantanées, microblogging) qui permettent aux individus d’exprimer leurs opinions et leurs sentiments sur toutes sortes d’informations et d’évènements. Et ce, pas seulement au moyen d’écriture alphabétique mais aussi à travers plusieurs autres médias : infographies, photos, vidéos, etc.

Avec les sites web, blogs et réseaux sociaux, l’écriture n’est plus réservée aux seuls professionnels, journalistes ou spécialistes en communication des entreprises ou des organismes publics. Chacun peut devenir rédacteur ou éditeur de son propre contenu … Malgré l’importance et l’omniprésence des images, fixes ou animées, les jeunes n’ont jamais autant écrit qu’en ce début de 21e siècle !

De plus, des outils dédiés (Framapad) permettent de plus en plus une écriture collaborative, qui va de l’administration à la recherche (compte rendus de réunions, de colloques) à la fiction (cadavres exquis, romans collectifs).

Toutes ces activités laissent évidemment des traces sur les réseaux. Nous retrouvons donc ici la notion-clé de l’écriture théorisée par Derrida : la ‘trace’. Ce sont ces traces qui vont alimenter aussi bien la surveillance des « Big brothers » dictatoriaux ou démocratiques que les serveurs des entreprises et des organisations à travers le traitement des mégadonnées (Big Data)… !

2013-05-22 003Le traitement de certaines traces, les métadonnées, vont servir de balises sémantiques pour se repérer dans le chaos du web, c’est le rôle des moteurs de recherche. Ces derniers explorent le web en lisant d’abord des milliards de pages à l’aide de logiciels robots et les indexent automatiquement. Ensuite, ils ne se contentent pas de présenter les résultats de façon brute : ceux-ci sont présentés, éditorialisés en fonction d’algorithmes bien précis (PageRank).

En attendant les robots-écrivains, les ‘robots-journalistes’ !

Slate signale l’expérience d’Associated Press avec la rédaction d’articles par des logiciels robots. Pour le moment il s’agit essentiellement de dépêches traitant les résultats financiers d’entreprises financières américaines qui vont être intégrées en direct dans le fil international d’AP. Même s’il s’agit pour le moment de tâches de base qui ne passionnent pas les journalistes (extraire des informations des bases de données) mais que les automates sont beaucoup plus rapides et efficaces à traiter … Tous les professionnels de l’information, documentalistes, veilleurs, traducteurs, rédacteurs se sentent menacés par l’émergence de cette concurrence virtuelle, mais l’intelligence artificielle a encore de grands progrès à faire avant mettre en dangers toutes ces professions intellectuelles … automated robot journalism

[1] Derrida, Jacques. – De la grammatologie. – Paris, Ed. de Minuit, 1967.


 Enseigner l’écriture numérique. – Dossier séminaire PRECIP – UTC de Compiègne, 4-5 avril 2012 – Revue Skhole.fr

Généalogie d’un lecteur (2) : l’écriture du lecteur. – Christian Fauré, 01/07/12

L’écriture numérique, une écriture sociale ? – Le rendez-vous des lettres – Eduscol, 2012

Gilliot, Jean-Marie ; Scarlatti, Serge. – Écritures collaboratives pour des cours ouverts sur le web. – Institut Mines Télécom – Télécom Bretagne, 2012

How does writing modifies your brain ? [infographic]. – Daily Infographic, 26/05/13

750 auteurs réunis pour l’écriture d’un roman collectif. – Actualitté, 07/11/13

De la stratégie de contenu web à la stratégie d’information web. – Plume interactive, 10/06/13

Sicot, Timothée. – SMS et réseaux sociaux améliorent l’écriture des étudiants. – L’Atelier : disrupture innovation, 24/09/13

Cardon, Dominique ; Laplante, Audrey. – Algorithmes et éditorialisation automatisée – Ecriture numérique et éditorialisation. – Polemic Tweet, 24/04/14

Oresmus, Will. – Journalisme-robot : le soulèvement des machines à écrire. – Slate, 27/07/14

 

 

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Réflexions sur l’ « IFLA Trend Report » : les défis qui attendent les professionnels dans la société de l’information

Twitter network of @OIIOxfordLe dernier « Trend Report » de l’IFLA , publié juste avant le Congrès de Singapour en août 2013, « Riding the Waves or Caught in the Tide? Navigating the evolving information environment” se penche sur les principales tendances qui marquent notre environnement informationnel.

Cette fois, ce ne sont pas des problèmes techniques, ou même scientifiques que le numérique pose à la profession et aux médiateurs, mais plutôt des questions éthiques et philosophiques, voire politiques, dues notamment à l’émergence du ‘big data’ avec le recueil d’un grand nombre de données personnelles pour toute transaction.

Le rapport présente cinq grandes tendances pour le futur proche :
– Les nouvelles technologies vont en même temps étendre et restreindre l’accès à l’information en fonction des publics concernés.
L’extension concerne le développement de l’ouverture des données publiques (open data), des archives ouvertes, des « e-commons » (savoirs communs), etc.
Les limites, ce sont les restrictions à l’accès : DRM, mots de passe, biométrie. Mais aussi le fossé numérique qui se creuse, créant une situation d’inclusion/exclusion en ce qui concerne les compétences numériques (information literacy skills).
– Les cours en ligne vont aussi bien démocratiser que bouleverser l’enseignement au niveau mondial. D’un côté les MOOC (cours en ligne massifs), les ressources éducatives en ligne vont permettre un apprentissage tout au long de la vie (lifelong learning), mais cet enseignement informel et souvent la pédagogie inversée (flipped learning) qu’il implique, vont remettre en question toute la structure éducative.
– Les frontières autour de la vie privée et la protection des données personnelles doivent être redéfinies. Le scandale de l’utilisation de métadonnées de messageries et de réseaux sociaux par la NSA et les multinationales de l’information ont révélé au monde que l’on pouvait traquer des individus à travers leurs connexions numériques et leur téléphone mobile … ! Tout cela a remis en cause la confiance que tout un chacun avait dans l’internet et le numérique … Comme le dit Philippe Mussi, conseiller régional Vert de la région PACA en introduction de la Semaine européenne de l’Open data : « l’ouverture des données, c’est la reprise en main par le citoyen de l’espace démocratique. Elles doivent être ouvertes, car c’est politique, et parce que c’est dangereux. Oui, les nouvelles libertés présentent des dangers. Dans un paysage général où le monde s’ouvre, où la transparence est à la fois demandée et imposée par la société, la transparence de la gestion publique est de toute première importance. On ne peut plus imaginer de démocratie fermée sur la propriété de la connaissance de la chose publique. Nous devons tous contribuer à cet objectif-là !” [Cité dans InteretActu].
– Dans ces sociétés hyper-connectées, de nouvelles voix et de nouveaux groupes vont émerger pour s’emparer de problèmes sociaux ou politiques à travers des actions collectives et de nouveaux médias.
– Les nouvelles technologies vont transformer l’économie mondiale : de nouveaux modèles économiques vont s’imposer à travers structures innovantes (e-commerce, mobilité, etc.).
En 2016, on prévoit 10 milliards d’appareils mobiles connectés à l’internet. Il y a aussi la technologie que l’on porte sur soi (wearable), comme les « Google Glasses ».

Mais en quoi tout ceci concerne les bibliothèques ?
Imaginons un usager entrant dans une bibliothèque portant ces fameuses lunettes « moteur de recherche » : de fait avec cet instrument, il peut mettre toutes les personnes présentes (lecteurs + bibliothécaires) sous surveillance … !! Comment les bibliothèques pourraient-elles rester des lieux sûrs dans ces conditions ? Il faudra désormais trouver le moyen de concilier la technophilie avec le respect de l’intimité …

Les cours en ligne, par exemple, sont des mines d’or en ce qui concerne les données personnelles. Les résultats de tests, les progrès réalisés par les étudiants, et d’autres informations sont importants pour les éducateurs pour évaluer les apprenants et améliorer leur enseignement. Mais dans un environnement mondial de plus en plus numérisé et connecté, il faut se poser la question : qui d’autre a accès à ces données ?
Il faut donc penser non seulement à gérer ces informations indispensables à l’enseignement, mais aussi à les protéger.

Les étudiants utilisent de plus en plus des moteurs de recherche pour répondre à leurs questions de cours. Il faudrait analyser leurs habitudes de recherche pour évaluer l’influence qu’elles ont sur leurs réponses. Est-ce vraiment toute l’information dont ils ont besoin ? Ces algorithmes appartiennent à des sociétés multinationales et surtout ont été développés pour augmenter les revenus des publicités en ligne. Cela devrait faire réfléchir les bibliothécaires et les enseignants lorsqu’ils encouragent les étudiants à utiliser ces outils …

D’autre part, si toutes les réponses sont dans l’algorithme, que devient la bibliothèque ?

D’après l’enquête de l’Oxford Internet Institute, actuellement les gens ont plus confiance dans les FAI (fournisseurs d’accès internet) que dans les médias et les principales institutions politiques, sociales ou économiques (journaux, entreprises, gouvernements, etc.).

Mais si les technologies de recherche limitent la quantité et la diversité d’information en fonction des usages, des langues et de la localisation géographique, peut-on encore avoir confiance dans les résultats fournis par les moteurs de recherche ?
Comment les bibliothécaires et les éducateurs pourraient-ils désormais assurer aux étudiants et aux usagers qu’ils accèdent bien à l’information pertinente et non à celle que leur données agglomérées a permis à l’algorithme de trouver ? Dans ce cas de figure, « comment qualifier « la chance » (J’ai de la chance) ? Comment édifier des communautés fondées sur l’inattendu ? » Louis Zacharilla – Global Intelligent Community Forum.

Les gouvernements, même les plus démocratiques, filtrent de plus en plus l’accès à l’information en ligne sous prétexte de prévention du terrorisme ou de l’ »immoralité ».
Les bibliothèques se sont toujours opposées à la censure : a-t-on prévu des réponses adéquates à cette problématique ?
Si ces pratiques se développent, les bibliothèques pourront-elles mener à bien leurs mission de recueil et de préservation de la mémoire numérique ? Cross-language blog linking in the aftermath of the 2010 Haitian earthquake

Future Libraries : infinite possibilities – IFLA WLIC 2013 IFLA World Library and Information Congress – 79th IFLA General Conference and Assembly. – 17-23 August 2013, Singapore

Riding the Waves or Caught in the Tide? Navigating the Evolving Information Environment. – Insights frond the Trend Report – IFLA, 16/08/2013

Livre numérique, médiation et service de référence en ligne, droit d’auteur – Congrès IFLA Singapour 2013. – Bibliobsession, 30/08/13

Guillaud, Hubert. – Open data (1/3) : la technique a-t-elle pris le pas ? - Internet Actu, 12/07/13

Oxford Internet Institute – University of Oxford

Oxford Internet Survey (OxIS) 2013 Report Lauch

Intelligent Community Forum

Sur les MOOC et le e-learning
Voir le Scoop It ProspecBib : Formation en ligne & à distance

Sur l’open access et les archives ouvertes
Voir le Scoop It : Open Access Now !

Sur la société de surveillance et l’utilisation des données personnelles
voir le Scoop it : Big Brother, little sisters

Big data et web sémantique : une opportunité pour les profeessionnels de l’information

A propos du système Prism, François Géré de l’Institut d’Analyse Stratégique l’a reconnu dans Libération : « En France nous faisons la même chose que les Américains […] Toutefois, nous réduisons le périmètre aussi bien géographique (essentiellement en Europe et en Afrique) que sémantique (le nombre de mots-clés) ».
Mots-clés, métadonnées, web sémantique, les documentalistes se trouvent ici en terrain connu !

Avec les « Big data » et leurs réservoirs énormes de données, un champ immense s’ouvre aux professionnels de l’information, la sélection et la qualification des métadonnées qui leur sont attachées, autrement dit l’indexation.
Bien sûr, d’importants progrès ont été réalisés en indexation automatique et en traitement automatique du langage (TAL), et avec les masses de données textuelles que l’on peu traiter, des rapprochements de termes peuvent s’effectuer et produire des modèles de description, comme l’explique Nathalie Aussenac-Gilles dans Graphéméride. « Pour faciliter la recherche d’informations précises, de points de vue, d’opinions [… ] il est nécessaire de caractériser la nature des informations et des connaissances véhiculées par les contenus […] ne pas rester au niveau des mots, donc de passer au niveau des concepts ».

Avec le web sémantique (ou web de données ou ‘linked data’), « les données de toutes formes produites par tous les acteurs se trouvent interconnectées, identifiées sans ambiguïté et reliées les unes aux autres » Hervé Verdier, Directeur d’Etalab. En ‘typant’ ces données dans des ontologies, le web sémantique « met en place une indexation des pages web, mais aussi potentiellement des concepts absents du web dont une description sur le web est possible (personne, lieu, date, élément abstrait, objet physique » Pierre Couchet, « A quoi sert le Web sémantique en histoire et philosophie des sciences et des techniques » Semantic HPST

Ces nouveaux thesaurus linguistiques s’appuient sur des ‘triplets’ : sujet, prédicat et objet.
« Concrètement, un thésaurus relie des concepts entre eux selon des relations précises : synonyme, homonyme, hiérarchie, terme associé. L’ontologie ajoute des règles et des outils de comparaison sur et entre les termes, groupes de termes et relations : équivalence, symétrie, contraire, cardinalité, transitivité… Ainsi, l’ontologie est une étape supérieure au thésaurus selon l’ontology spectrum. » – Définir une ontologie avec OWL. – Les Petites Cases 11/11/05
En taggant par exemple un fichier contenant une photo, on pourra non seulement caractériser la photo, mais si ces mots-clés sont partagés, on pourra regrouper des photos similaires. Grâce à cette organisation des connaissances, on pourra classer une photo du Château de Versailles, rejetée comme « monument de Paris », si l’on a l’information que « Versailles est ‘Acôtéde’ Paris ou que Versailles et Paris sont deux villes ‘SituéeDans’ l’Ile de France » Nathalie Assenac-Gilles.

Bien sûr, ces langages OWL (Ontology Web Langage) demandent une bonne familiarité avec l’informatique (XML) et la logique, sans parler de connaissances linguistiques, mais les bibliothécaires/documentalistes ont tout à fait leur rôle à jouer dans la construction de ces bases de connaissances. L’exemple de l’ontologie du vin réalisée à Stanford, cité par le WC3, le montre : on retrouve des mots-clés, des caatégories, des propriétés et des noms de lieux.

Les professionnels de l’information qu’ils (elles) sont pourraient aussi bien construire ces bases de connaissances (en collaboration avec des informaticiens) que servir d’appui aux chercheurs pour qualifier les résultats de la recherche. La BNF l’a d’ailleurs bien compris avec la réalisation avec le projet « data.bnf.fr« web sémantique

Géré, François ; Hofnung, Thomas. – « En France, nous faisons la même chose ». Libération, 1er juillet 2013

Couchet, Pierre. – À quoi sert le web sémantique, en Histoire et Philosophie des Sciences et des Techniques ?. – Semantic HPST, 13/06/13

Fabien Gandon – Le web sémantique. – Graphemeride, 15/04/13

Le Web de données à la BnF : data.bnf.fr

Berners-Lee, Tim et al. – A Framework for Web Science. – Foundations and trends in web science, vol.1:n°1, 2006

Définir une ontologie avec OWL. – Les petites cases, 11/11/05

OWL Web Ontology Language Guide. – W3C, 10/02/04

Ontology of wines

Bachimont, Bruno. – Engagement sémantique et engagement ontologique : conception et réalisation d’ontologies en Ingénierie des connaissances.- INA, 2000 (pdf)

Le numérique, les bibliothèques, les big data et notre rapport au monde

Cette énumération à la Prévert peut sembler chaotique, mais elle révèle un certain malaise qui s’empare de nous devant la mutation des usages qu’implique le numérique dans notre vie quotidienne, et plus particulièrement dans les bibliothèques.
Cette réflexion m’est venue, en cette fin 2012 à la lecture de quelques posts décrivant la situation actuelle face au numérique.

D’abord l’enquête « Les Français et le savoir« , réalisée cet été par la TNS Sofres et cité dans « Veille documentaire » : le savoir est jugé important pour 56% des Français et 54% des personnes actives regrettent de ne pas y consacrer plus de temps … Quand à son utilité, pour 42% des interrogés, le savoir permet de « comprendre le monde qui nous entoure ».

Ce monde qui change si vite et dans des proportions si importantes qu’il peut en désarçonner certains, comme ces bibliothécaires dont parle Pierre Marige dans le dernier article d’Aka Reup « Numériquement incapables : stigmatisation et acculturation », ceux qui semblent « réfractaires à tout ce qui touche l’informatique », ceux qui déclarent, comme beaucoup de nos contemporains « Moi, de toute façon, j’y comprend rien ».
La stigmatisation qui découle de cette ignorance autoproclamée des nouvelles technologies est finement analysée et Marige démontre comment on passe d’un tri entre ‘intellectuels’ et ‘manuels’ à la différence entre ‘scientifiques’ et ‘littéraire’ pour finir avec les ‘connectés’ ou ‘digital natives’ et les vieux ‘incapables’. Pour finir par constater que ces jeunes nés avec l’internet sont en fait moins à l’aise qu’il n’y paraît avec le numérique … Et ont toujours besoin d’un bon médiateur pour trouver leurs références en bibliothèque …;-). La plupart de ces « digital natives », à part quelques ‘génies de l’informatique’ ne fait qu’utiliser ces nouveaux outils, ils n’en ont pas une connaissance approfondie. Tandis que les bibliothécaires, loin de simplement « s’adapter à ces nouvelles technologies, participent à leur création ». D’où l’importance de la formation continue dans le métier.

Dans la dernière livraison d’Internet Actu, Hubert Guillaud revient sur notre compréhension du monde avec l’arrivée des ‘big data’. Dans « De la statistique aux big data : ce qui change dans notre compréhension du monde« , il analyse l’intervention de Dominique Cardon sur ce sujet aux « Entretiens du nouveau monde industriel », les 17 et 18 décembre au Centre Pompidou.

Depuis quelques années, tout un chacun (militants, citoyens, entreprises, pouvoir publics) est d’accord pour « le partage et l’ouverture des données ». Tout le monde souhaite les rendre publiques. Mais ces précieuses données sont utilisées différemment suivant que l’on est journaliste, statisticien ou « data scientist ».
Alors que les statisticiens ont pour objectif de « dézoomer » ces informations pour comprendre la réalité sociale en la modélisant pour faire ressortir les corrélations entre catégories, le modèle des données ‘ouvertes’ « consiste à porter sur la place publique de la donnée ‘brute’ […] La plus proche possible du mythe d’une ‘nature sociale originale’ ». Le mouvement open data préfère les cartographies aux catégories et favorisent la personnalisation et l’individualisation. Les catégories sociologiques représentaient un monde désincarné, alors que l’univers des données parle à chacun de chacun. Ce décalage permet de mieux comprendre la crise des interprétations face aux nouveaux savoirs.

Un dernier post récapitule les nouvelles tendances du web en 2012. Il s’agit du : « [Best of 20012] Web : les 5 tendances majeures de l’année » sur FrenchWeb.fr .
Ces cinq grandes évolutions sont
– le boom de l’économie collaborative
– [H factor] le retour du facteur humain
– l’obsession des données et le quantified-self
– la déferlante des abonnements
– le real time bidding et les places d’Ad Exchange
Toutes ces informations devraient nous permettre de mieux méditer sur notre rapport au monde et au savoir pendant la trêve des confiseurs et mieux aborder l’année 2013 …

Bonnes Fêtes et Meilleurs voeux pour 2013

Pixel Perfect Digital – Free stock photos

Service(s) aux usagers : une innovation en bibliothèque qui remonte à un siècle !

Le ou les « service(s) aux usagers » (SAU : département auquel j’appartiens à Bibliothèque de Sciences Po) fait partie des dernières préconisations en matière d’activités des bibliothèques. Ils se retrouvent, par exemple au cœur des interventions de la Journée d’étude de l’ADBS, lors de l’i-Expo 2012.

Or, on retrouve cette préoccupation dans l’ouvrage d’Eugène Morel (1869-1934), « La Librairie publique », datant de 1908 et cité dans l’article de Lydie Ducolomb « Eugène Morel et la section des bibliothèques moderne : une réflexion sur la formation professionnelle des bibliothécaires au début du XXe siècle », publié dans le BBF de février 2012.
Pour ce bibliothécaire visionnaire « Il faut exciter sans cesse le public, le fournir de renseignement de toute sorte, chercher pour lui […], suivre l’actualité, dresser à chaque moment l’état des ressources de la librairie sur les sujets les plus diveers : une guerre, des tarifs douaniers, une loi sociale, une invention nouvelle … »

On retrouve là les services « push » que les bibliothèques et centres de documentation peuvent mettre au service de touts les catégories de lecteurs : jeunes lecteurs ou étudiants grâce aux réseaux sociaux ou blogs, dossiers documentaires ; services au chercheurs aussi, comme il en ressort dans l’article d’Archimag de Juin 2012 « Chercheurs, technologies et bibliothèques universitaires : questions d’usages ». Guillaume Nuttin y interroge trois responsables sur les besoins des chercheurs en information scientifique et technique (IST). Jean-Michel Barbiche, conservateur à la Bibliothèque de l’Ecole Centrale de Paris souligne « La qualité d’une bibliothèque ne se mesure pas à la quantité de documents qu’elle propose, mais à l’aune des services proposés autour des ressources ».
Odile Hologne, directrice déléguée à l’Information scientifique et technique à l’INRA explicite cette révolution copernicienne de l’activité documentaire « Nous avons repositionné complètement l’offre de services en IST pour les scientifiques : veille, bibliométrie, gestion des connaissances. Au lieu de nous positionner sur la gestion du stoock de documents, nous nous orientons sur l’analyse de l’information ».
Mais, comme le fait remarquer Ghislaine Charton, professeure à L’INTD « les chercheurs, dans leur grande majorrité, ne veulent pas être formés, faute de temps ou à cause d’autres priorités liées à leurs recherches. […] Il faut lever les barrières techniques et mmultiplier les services d’accompagnement de l’usager, en présentiel ou à distance ».

La formation des utilisateurs devient ainsi une des principales activités des professionnels de l’information qui retrouvent là leur mission de médiation.

Ce sont ces nouvelles compétences des « bib/docs » qu’explore Claudine Masse, Directrice de l’EBD, dans sa contribution « Nouveaux territoires pour les professionnels de l’information : l’évolution des compétences » Journée d’étude de l’ADBS, i-Expo 2012.
Elle insiste sur les compétences à acquérir ou approfondir dans le cadre de son école. Outre le management et la gestion de projet, l’architecture de l’information, la gestion et la production de contenus, les futures bibliothécaires et documentalistes devront acquérir des compétences dans la veille et des compétences transverses : langue (anglais), informatique, travail en équipe, communication écrite et orale.
L’exploitation de ces compétences permettra une maîtrise des bases de l’information-documentation (gestion et recherche documentaire, traitement, produits et services doc.) mais aussi le développement d’une expertise : architecture de l’information, veille, conduite de projet, archive et record management, communication/marketing, etc.

Ces expertises se retrouvent dans l’analyse de Loïc Lebigre à cette même journée d’étude à i-Expo « Vers un observatoire ADBS des fonctions « information » : opportunités et enjeux ».
De nouvelles fonctions émergen t pour les professionnels de l’information à partir du contexte des évolutions technologiques et sociétales :
– la fonction de « Coordination » pour les pratiques collaboratives
– Celle d' »éditorialisation » (curation) et d' »Analyse expertise métier » devant la surabondance des données accessibles et raccourcissement des cycles (R&D, production, valorisation)
– La « Maîtrise d’usage et gouvernance du SI » face à l’innovation technologique permanente et la diversité des solutions mobilisables.

Dans sa communication « Valeurs ajoutée des médiateurs » à cette même journée d’étude, Ghislaine Chartron identifie quatre pôles de compétences pour les professionnels de l’information : Gestion-Qualité ; Informatique ; Performance de l’activité principale et Communication-formation.

Dans la conclusion de son article, Lydie Ducolomb souligne que « l’héritage d’Eugène Morel [consiste] en une conception globale du rôle du bibliothécaire dans la société : informer, communiquer, rendre service, permettre l’accès de tous à la culture »

Table ronde « Nouveaux territoires pour les professionnels de l’information » animée par Elisabeth Gayon, présidente de l’ADBS, sur le salon i-expo 2012 – Journée d’étude, 14 juin 2012

Ducolomb, Lydie. – Eugène Morel et la section des bibliothèques modernes : une réflexion sur la formation professionnelle des bibliothécaires au début du XXe siècle ». – Bulletin des bibliothèques de France. – (20012/02)t.57:n°1, p.35-38

Nuttin, Guillaume. – Chercheurs, technologies et bibliothèques universitaires : questions d’usages. – Archimag. – (2012-06)n°255, p. 21-22.

Staypressed theme by Themocracy