Category: Outils

Lire, écrire … A l’ère numérique – 1 – La lecture aujourd’hui

270x300 lireL’environnement numérique est depuis quelque temps accusé de tous les maux, et surtout d’avoir « tué » la lecture, notamment chez les jeunes. En perturbant l’attention des lecteurs avec des liens hypertextes et des notifications diverses (mails, réseaux sociaux, SMS et même coups de fils) sur les ordinateurs et terminaux mobiles, la lecture numérique perd l’intensité de l’’attention profonde’ qui permet de s’investir pleinement dans un texte et de comprendre un document. Cette dernière se transforme alors en ‘hyperattention’ et se disperse en suivant plusieurs fils d’information. C’est ce que démontre Katherine Hayles, professeur à l’Université de Duke, citée dans le séminaire de l’IRI « Ecologie de l’attention » organisé par Bernard Stiegler et Igor Galligo en 2013-2014 au Centre Pompidou. J’avais évoqué cette controverse dans le post « Livres/écrans : quelle hybridation pour la bibliothèque du 21e siècle » : il apparaissait que le problème ne résidait pas dans l’opposition ‘papier/numérique’, puisque les liseuses à encre électronique (e-ink) permettent l’attention profonde, mais dans la dualité entre culture des écrans et culture du livre selon le psychanalyste Serge Tisseron. Dans la culture du livre le rapport au savoir est vertical (auteur/lecteur), tandis que devant les écrans, les lecteurs se trouvent devant un accès plus diversifié et horizontal.

D’autre part, comme le démontre le neuropsychologue Stanislas Dehaene dans la vidéo cerveau_lecture« cerveau et lecture » à l’Académie Royale de Belgique, la mise en place de la lecture est apparue assez tard dans l’histoire de l’humanité : au cours de l’évolution, la plasticité du cerveau a permis de ‘recycler’ une aire neuronale pour la consacrer à l’activité du décodage de signes abstraits (mots). L’imagerie cérébrale a permis d’identifier cette zone et notamment le rôle du cortex temporal gauche, la « boite à lettre » du cerveau, dans cette activité. Les neurones de cette région ne répondent pas lorsque la personne est illettrée. Si notre système cognitif a pu s’adapter à un moment de notre histoire pour produire l’activité de lecture (et d’écriture comme mémoire externe), il devrait être capable de  s’adapter aussi à l’environnement numérique.

C’est ce qu’explique Christian Jarrett dans le post de Wired  «The Internet isn’t ruining your teenager’s brain ». Malgré les prophètes de mauvais augure qui nous présentent une génération d’adolescents perturbés et distraits, internet et les usages numériques pourraient avoir une action positive sur l’esprit des jeunes en les rendant plus sociaux. Et même si une très faible minorité subit une addiction, par exemple aux jeux vidéo, la plasticité du cerveau devrait permettre d’inverser ce processus à l’âge adulte …

internet-rend-il-bete,M24827

D’ailleurs la lecture numérique a d’autres avantages recensés dans le post La lecture sur l’internet rend-elle idiot? Pas si sûr! : survoler un article pour en extraire les informations pertinentes, etc. Comme le dit l’écrivain espagnol Lorenzo Silva, cité dans un article d’Actualitté, Internet est « le grand texte du peuple qui ne lit pas ». Si les gens ne lisent plus comme avant, internet n’est rien d’autre que du texte (de moins en moins …) et il faut s’assurer de la qualité de ce grand texte !

Il existe aussi un certain nombre d’outils qui permettent de retrouver sur les écrans la tranquillité de la page imprimée. Evernote ou Readability suppriment tous les parasites (publicités, annonces diverses, renvois, etc.) qui polluent les sites web pour donner accès à une lecture ‘zen’ ou décalée ;-) Mais, sauf si on déconnecte le terminal, on n’échappera pas aux ‘distractions’ en ligne : hypertexte, notifications …

Il est vrai que la place de la lecture a beaucoup régressé dans les activités culturelles des Français, au profit bien sûr des médias audiovisuels et interactifs : télévision, vidéos, jeux vidéo, musique, etc. La lecture de vingt livres ou plus par an est passée, d’après les enquêtes sur les pratiques culturelles des Français,  de 28 personnes sur 100 en 1973 à 16 en 2008, et surtout de 41 à 16 pour les 18-24 ans ! Un enquête plus récente d’IPSOS citée dans Actualitté comparaît les données de 2014 sur le comportement des lecteurs avec celles de 2011 : si la proportion des lecteurs au format papier a légèrement diminué passant de 70% à 69%, les lecteurs au format numérique sont passé de 8 à 11% en trois ans ! La pratique de la lecture n’a donc pas disparu, mais se transforme …

Au niveau mondial, l’édition numérique serait en hausse et devrait progresser de près de 20% sur la période 2013-2018 d’après le « Global e-book market ».

La fréquentation des bibliothèques reflète d’ailleurs cette tendance : l’inscription en bibliothèque a progressé entre 1973 et 2008 : on est passé de 13 Français de 15 ans et plus sur 100 en 1973 à 18 inscrits en 2008 et surtout de 18 à 31 pour les 18 – 24 ans ! Il est intéressant de corréler ces données avec les pratiques de lecture de livres : il semblerait que les jeunes ne fréquentent pas les bibliothèques uniquement pour lire des livres ! En revanche, en ce qui concerne les bibliothèques universitaires, l’étude réalisée par l’Université de Toulouse en 2012 montre que la relation entre l’utilisation de la documentation des BU et la réussite aux examens des étudiants est bien réelle. «… le lien entre emprunts et réussite est très fort : la probabilité de valider son semestre est beaucoup plus élevée pour les étudiants empruntant beaucoup d’ouvrages que pour ceux en empruntant peu …». enhanced-ebooks

Mais revenons à la lecture numérique. Si les neurosciences cognitives n’ont pas encore tranché sur les différences entre la lecture « papier » et la lecture « écran », cette dernière n’a pas que des inconvénients : elle permet aussi un partage « social » des commentaires et annotations, mais surtout la ‘fouille de données’, en anglais le TDM (text and data mining). C’est ce que souligne Christophe Perales dans son post « Infini de la lecture : de Cassiodore au text et data mining » en comparant l’arrivée du numérique avec la mutation qu’a connu le livre au début du IIIe siècle en passant du volumen au codex. Cette mutation a complètement changé les rapports des lecteurs à l’écrit bien plus que l’invention de l’imprimerie ! « le codex va ouvrir la possibilité de constituer des tables des matières, des index, de confronter bien plus commodément, et quasi simultanément, des passages différents, à l’intérieur d’un même livre ou entre plusieurs ouvrages. […] Une innovation matérielle peut donc avoir des conséquences intellectuelles importantes. »

Le web nous a fait retrouver la possibilité de plusieurs lecteurs d’intervenir sur un même texte pour le commenter à travers des annotations qui existaient déjà au Moyen-Age ! Mais c’est la fouille de contenu qui représente la pratique la plus disruptive apportée par le numérique à la lecture. L’utilisation de ces ‘mégadonnées’ à partir des textes et des corpus grâce aux outils des humanités numérique va changer complètement le rapport au savoir pour les chercheurs. Évidemment, un problème juridique existe encore pour l’accès complètement libre à ces textes. Mais ce qui change complètement la donne dans cette innovation ce n’est plus l’ »interface neuronal » entre l’œil et le système cognitif qui décrypte ces signaux, mais un dispositif automatique, un robot qui « lit » et traite ces volumes très importants d’information. Même si en fin de compte, ce sont des humains qui donnent un sens à cette opération … ! 2013-12-01 002

Pour aller plus loin

Ferrando, Sylvie. - Compte rendu de l’ouvrage  de Stanislas Dehaene Les  neurones de la lecture, introd. de J.P Changeux. Ed. Odile Jacob, 2007. – Relais d’Information sur les sciences de la cognition (RISC)-CNRS, 2007 (pdf).

Ministère de la culture et de la communication. - Enquête sur les pratiques culturelles des Français : évolution 1973-2008. – Département des enquêtes, de la prospective et des statistiques.

Emprunt en bibliothèques universitaires et réussite aux examens de licence. – Étude lecture V 21 – Université de Toulouse, décembre 2012

Keim, Brandon. – Why the smart reading device of the future may be … Paper. – Wired, 05/01/14

Helmlinger, Julien. – Comportement et évolution de la lecture chez les Français. – Actualitté, 13/03/14

L’attention et la dynamique des écrans et images virtuelles in Ecologie de l’Attention – IRI – Centre Pompidou, 02/04/14 – Vidéo Lignes de temps

Jahjah, Marc. – Qu’est-ce que la lecture sociale ? - INAGlobal, 23/07/14

Lire à l’écran : (re)tournons à la page. – Site de François Jourde, 06/08/14

Est-ce que le livre numérique tue vraiment la lecture? – Slate, 14/08/14

Delarbre, Clémence. – La bibliothèque du futur sera-t-elle sans livres ? – Rue 89, 14/08/14

Des livres, des lecteurs, des lectures. – Le dernier blog, 26/08/14

Perales, Christophe. - Infini de la lecture : de Cassiodore au text et data mining. -BibliOpen – Blog Educpros, 04/09/14

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Big data et web sémantique : une opportunité pour les profeessionnels de l’information

A propos du système Prism, François Géré de l’Institut d’Analyse Stratégique l’a reconnu dans Libération : « En France nous faisons la même chose que les Américains […] Toutefois, nous réduisons le périmètre aussi bien géographique (essentiellement en Europe et en Afrique) que sémantique (le nombre de mots-clés) ».
Mots-clés, métadonnées, web sémantique, les documentalistes se trouvent ici en terrain connu !

Avec les « Big data » et leurs réservoirs énormes de données, un champ immense s’ouvre aux professionnels de l’information, la sélection et la qualification des métadonnées qui leur sont attachées, autrement dit l’indexation.
Bien sûr, d’importants progrès ont été réalisés en indexation automatique et en traitement automatique du langage (TAL), et avec les masses de données textuelles que l’on peu traiter, des rapprochements de termes peuvent s’effectuer et produire des modèles de description, comme l’explique Nathalie Aussenac-Gilles dans Graphéméride. « Pour faciliter la recherche d’informations précises, de points de vue, d’opinions [… ] il est nécessaire de caractériser la nature des informations et des connaissances véhiculées par les contenus […] ne pas rester au niveau des mots, donc de passer au niveau des concepts ».

Avec le web sémantique (ou web de données ou ‘linked data’), « les données de toutes formes produites par tous les acteurs se trouvent interconnectées, identifiées sans ambiguïté et reliées les unes aux autres » Hervé Verdier, Directeur d’Etalab. En ‘typant’ ces données dans des ontologies, le web sémantique « met en place une indexation des pages web, mais aussi potentiellement des concepts absents du web dont une description sur le web est possible (personne, lieu, date, élément abstrait, objet physique » Pierre Couchet, « A quoi sert le Web sémantique en histoire et philosophie des sciences et des techniques » Semantic HPST

Ces nouveaux thesaurus linguistiques s’appuient sur des ‘triplets’ : sujet, prédicat et objet.
« Concrètement, un thésaurus relie des concepts entre eux selon des relations précises : synonyme, homonyme, hiérarchie, terme associé. L’ontologie ajoute des règles et des outils de comparaison sur et entre les termes, groupes de termes et relations : équivalence, symétrie, contraire, cardinalité, transitivité… Ainsi, l’ontologie est une étape supérieure au thésaurus selon l’ontology spectrum. » – Définir une ontologie avec OWL. – Les Petites Cases 11/11/05
En taggant par exemple un fichier contenant une photo, on pourra non seulement caractériser la photo, mais si ces mots-clés sont partagés, on pourra regrouper des photos similaires. Grâce à cette organisation des connaissances, on pourra classer une photo du Château de Versailles, rejetée comme « monument de Paris », si l’on a l’information que « Versailles est ‘Acôtéde’ Paris ou que Versailles et Paris sont deux villes ‘SituéeDans’ l’Ile de France » Nathalie Assenac-Gilles.

Bien sûr, ces langages OWL (Ontology Web Langage) demandent une bonne familiarité avec l’informatique (XML) et la logique, sans parler de connaissances linguistiques, mais les bibliothécaires/documentalistes ont tout à fait leur rôle à jouer dans la construction de ces bases de connaissances. L’exemple de l’ontologie du vin réalisée à Stanford, cité par le WC3, le montre : on retrouve des mots-clés, des caatégories, des propriétés et des noms de lieux.

Les professionnels de l’information qu’ils (elles) sont pourraient aussi bien construire ces bases de connaissances (en collaboration avec des informaticiens) que servir d’appui aux chercheurs pour qualifier les résultats de la recherche. La BNF l’a d’ailleurs bien compris avec la réalisation avec le projet « data.bnf.fr« web sémantique

Géré, François ; Hofnung, Thomas. – « En France, nous faisons la même chose ». Libération, 1er juillet 2013

Couchet, Pierre. – À quoi sert le web sémantique, en Histoire et Philosophie des Sciences et des Techniques ?. – Semantic HPST, 13/06/13

Fabien Gandon – Le web sémantique. – Graphemeride, 15/04/13

Le Web de données à la BnF : data.bnf.fr

Berners-Lee, Tim et al. – A Framework for Web Science. – Foundations and trends in web science, vol.1:n°1, 2006

Définir une ontologie avec OWL. – Les petites cases, 11/11/05

OWL Web Ontology Language Guide. – W3C, 10/02/04

Ontology of wines

Bachimont, Bruno. – Engagement sémantique et engagement ontologique : conception et réalisation d’ontologies en Ingénierie des connaissances.- INA, 2000 (pdf)

Une bibliothèque sans livres … C’est possible !

Non, nous ne sommes pas en pleine science fiction … Et cela ne veut pas dire pour autant que nous entrons en décadence !

Le développement des supports numériques et celui du nomadisme rendent désormais possible cette quasi aberration sinon cet oxymore …
La première bibliothèque sans aucun livre (papier) va ouvrir à l’automne prochain à Toronto. BiblioThech , c’est son nom, prêtera des liseuses pour deux semaines à ses lecteurs : pas de politique BYOD (Bring Your Own Device : en français AVEC : Apportez Votre Équipement Personnel de Communication) dans ce lieu, et, bien sûr, il y aura des ordinateurs …
Cette stratégie devrait aussi permettre de rendre ce service aux déficients visuels : des associations sont en train de faire pression sur les constructeurs de liseuses ou tablettes pour mieux adapter ces outils aux personnes en situation de handicap visuel (braille, synthèse vocale, etc.). Malheureusement, les verrous numériques des DRM bloquent encore ces développements ;-( En effet pour transformer certains ouvrages déjà numérisés, il faudrait toucher à la loi sur le copyright et cela se heurte aux puissants lobbies des éditeurs et distributeurs : Amazon a déjà supprimé les fonctionnalités audio de ses liseuses… Aux Etats-Unis, seul 1% des ouvrages est disponible dans un format adapté …

En France, on n’est pas encore arrivé à ce point, mais un certain nombre d’expériences ont lieu dans des bibliothèques publiques, comme la « Pirate Box » à Aulnay-Sous-Bois. Comme l’explique le bibliothécaire Thomas Fourmeux, il s’agit d’un dispositif permettant de télécharger des œuvres appartenant au domaine public ou libres de droit. Aucun piratage donc dans cette expérience qui est complètement légale … ;-) Mais à la différence de la BiblioThech canadienne, il faut apporter son matériel (liseuse, tablette, smartphone, etc..). Une expérimentation pour le prêt de liseuse a aussi eu lieu, de même que des ateliers avec iPads avec les enfants pour les initier à la lecture numérique. En fait, si les livres ‘objets’ disparaissent progressivement des bibliothèques, ce n’est pas le cas des bibliothécaires, qui deviennent de plus en plus indispensables pour accompagner les lecteurs dans cette mutation, c’est ce qu’on appelle la médiation numérique. Si la plupart des jeunes viennent à la bibliothèque pour profiter du réseau wifi, de nombreux utilisateurs ignorent encore qu’il faut se connecter au wifi pour télécharger des documents …
Ce dispositif simplifie aussi le travail des bibliothécaires : plus besoin d’acquérir les classiques en plusieurs exemplaires (surtout pour les scolaires). Et en ce qui concerne les livres relevant du domaine public, on n’a plus à se préoccuper des livres perdus ou en prêt !
Pour les e-books encore sous droit d’auteur, les bibliothécaires de Toronto les rendront illisibles au bout des deux semaines de prêt.

Quant aux ‘accros’ au papier, des distributeurs automatiques de livres (de poche), semblables aux distributeurs de boissons, existent déjà en Chine et … Dans une librairie à Toronto !

Mais, s’il n’y a plus de livres dans les salles de bibliothèque, que faire avec tous ces espaces ?
C’est là qu’intervient la notion de « troisième lieu ». Le troisième lieu est un espace consacré à la vie sociale, qui se positionne après le foyer (1er lieu) et le travail (2eme lieu). C’est le rôle qu’ont joué le forum ou la place de marché, puis l’église et aujourd’hui le café/pub. Le sociologue Ray Oldenburg a conceptualisé cette notion dans son livre « The Great, Good Place ». S’il n’a pas nommément cité les bibliothèques dans ces espaces du « vivre ensemble », c’est la multiplication de services comme l’aide à la formation, l’accès au numérique, l’ouverture vers l’art et l’organisation d’évènements qui en font un lieu de rencontres convivial. Mais il faudra opérer des aménagements entre les espaces calmes consacrés à la lecture (numérique ou pas) et au travail individuel et les espaces plus sociaux où se tiennent des activités ou animations culturelles ou de loisir (jeux vidéos ou FabLabs).
Si ce modèle s’est développé dans les pays du Nord et anglo-saxons (Hollande, Grande-Bretagne, Etats-Unis, Canada anglophone), les bibliothécaires (et les publics ?) francophones et latins (France, Québec) sont beaucoup plus réticents. Nous ne sommes pas prêts à rompre avec le « temple du savoir » pour « concurrencer l’industrie des loisirs et des produits culturels » comme le fait remarquer Mathilde Servet dans son mémoire d’ENSSIB. La controverse demeure, mais si les bibliothécaires veulent regagner leur(s) public(s) et les réconcilier avec la lecture ou d’autres pratiques culturelles, il faut envisager toutes les hypothèses …

Gaudio, Anne-Gaelle. – Le numérique en bibliothèque part.6 : de nouveaux services. – INSET Montpellier 22-24 mai 2013. – Le CNFPT Slideshare, 27/05/13

Chaimbeault, Thomas. – La bibliothèque dans ton mobile. – ENSSIB, avril 2013. – Slideshare

Thomas Fourmeux : « La Piratebox, c’est surtout l’occasion pour nos lecteurs d’accéder à la connaissance ». – Lettres numériques, 03/05/13

Piratebox : Bilan d’étape. – Biblio Numericus, 07/01/13

Taillandier, Florent. – A quand des ebooks vraiment adaptés aux déficients visuels ?CNet France, 28/05/13

Busacca, Aurélie. – Bibliothèque et médiathèque troisième lieu. – Monde du livre – Hypothèse.org, 18/03/13

Les bibliothèques publiques face au défi du « vivre ensemble ». – Novo Ideo, 26/03/13

Martel, Marie D. – La bibliothèque publique : le modèle québecois. – Bibliomancienne, 30/04/10

Servet, Mathilde. – Les bibliothèques troisième lieu. – Mémoire d’étude ENSSIB, 2009

Fab Labs et Bibliothèques

Je ne pensais revenir sur les Fab Labs après mon dernier post, surtout dans le cadre des bibliothèques. J’ai d’ailleurs été surprise par certains commentaires, l’un liant ces pratiques au champ du politique, et l’autre me proposant d’organiser un événement « Fab Lab » à la Bibliothèque de Sciences Po …

J’ai retrouvé le thème des « Fab Labs » et des « makers » dans l’actualité récente des blogs d’information.
Dans « Made in ma bibliothèque », Sabine Blanc d’Owni, évoque les initiatives de deux bibliothèques américaines, celle de Wesport et la « La Fayetteville Free Library », qui, la première avec un « makerspace » et la seconde avec un « Fabulous Laboratory » permettent à leurs usagers d’exprimer leur créativité … ;-)

Lassés du virtuel, les lecteurs se plongent ainsi dans la fabrication concrète d’objets – aidés toutefois d’outils numériques : imprimantes 3D, découpe laser, etc…

Ces clubs de bricolage du 21e siècle deviennent parfois des pépinières de starts-up, grâce à l’esprit de partage et de coopération d’internet …

Ce sont ces espaces de coopération pour « travailler, se former et échanger » que veut développer « Artesi » (devenu depuis la Fonderie) le « groupe de travail international francophone sur les Tiers Lieux ».
Table interactive, table à graver et projections - Artilect-Fablab ToulouseIssue des « Rencontres d’Autrans 2012 » (11-13 janvier), cette initiative veut regrouper des « lieux passerelles coopératifs » : espaces de coworking, fab labs, hackers spaces, Espaces publics numériques, etc.
Pour en revenir aux bibliothèques comme « Tiers lieux », Claire Margeron, dans Préfiguration d’un méta-modèle de la bibliothèque du 21e siècle (ENSSIB Brèves, 11/07/12), cite le projet ArtilectFabLab accueilli à la Médiathèque de Toulouse en juin 2012.

Les métadonnées … Une preuve de confiance pour le numérique !

« Les métadonnées sont un ensemble de données structurées décrivant des ressources physiques ou numériques. Elles sont un maillon essentiel pour le partage de l’information et l’interopérabilité des ressources électroniques. »
Dans cette définition, tirée du « Dublin Core » simplifié et proposée par l’INIST , on remarque l’importance de l’aspect structuré de ces données pour la recherche et le partage de l’information.
Et pourtant ces métadonnées, si précieuses, sont aussi vieilles que le traitement de l’information et on les trouve avec les premières bibliothèques !

La question de la confiance, c’est un des intervenants aux « Entretiens du nouveau monde industriel » (portant cette année sur la confiance et le crédit) qui l’a posée en introduisant le « Carrefour des possibles » au Centre Pompidou le 19 décembre dernier : sur le web, un document qui se présente « nu », sans métadonnées, n’inspire pas confiance. Ce sont les métadonnées, qui, en le qualifiant, en lui donnant un contexte, le socialisent d’une certaine façon et lui permettent de gagner notre confiance …!

Les métadonnées ont aussi été à l’honneur lors des « Retours » des voyages d’étude du GFII, aussi bien pour la foire de Francfort que pour le salon Online de Londres
Ruth Martinez et Michel Vajou ont souligné l’importance de cette notion dans ces manifestations. Elle est devenue un des « buzzwords » de l’année 2011 !
La gestion des données est devenue une priorité stratégique pour les livres numériques : les titres avec des métadonnées complètes connaissent des ventes à 70% plus importantes ! Et cela a un impact sur le classement du site de l’éditeur sur Google …
Des entreprises se spécialisent dans l’enrichissement des contenus, comme TEMIS et on assiste au transfert de fonctions comme le catalogage, l’indexation ou la description, des bibliothèques vers l’édition.
Avec des métadonnées sémantiques, les contenus deviennent attractifs et on les retrouve plus facilement dans les moteurs de recherche et grâce à des pages thématiques … et ils peuvent servir à des publicités contextuelles !
La production éditoriale se tourne de plus en plus vers la catégorisation et le taggage automatique.

Mais là où les métadonnées deviennent un enjeu important dans l’industrie de l’information, c’est dans la corrélation qui existe avec les méthode du « Discovery ». Dans cette nouvelle manière d’explorer les informations, grâce à des graphiques et des cartographies, la métadonnée devient multi-dimensionnelle et dépasse la simple dimension bibliographique. Les métadonnées deviennent le pivot des logiques de navigation : on accède ainsi à un degré de granularité de l’information et le document traité peut être « éclaté » en plusieurs « nano-publications ». On peut ensuite proposer ces contenus sous plusieurs déclinaisons …

Avant que des robots n’annexe ces précieux outils, les professionnels de l’information ont encore quelques cartes à jouer, aussi bien en amont (indexation) qu’en aval (recherche documentaire) dans la construction du web sémantique !

Les « Retours » des voyages d’étude de Francfort et de Londres du GFII ont été très bien résumés dans les comptes-rendus de Michèle Battisti dans Paralipomènes :
Online Information 2011 ou le pouls du marché de l’information professionnelle
Édition scientifique et professionnelle tendances

Open data : la plate-forme gouvernementale est en ligne

Data.gouv.fr, la plate-forme française d’ouverture des données publiques (Open data) a été mise en ligne aujourd’hui (5 décembre 2011).
Les 500 ensembles prévus ont été répartis en 352 000 jeux de données publiques (division des statistiques de l’INSEE sur les 36 000 communes) à partir de 90 producteurs (essentiellement des ministères et des collectivités territoriales : budget, agriculture, environnement, assurance maladie, etc..).

La plate-forme est essentiellement moteur de recherche (recherche simple et recherche avancé) avec quelques suggestions de recherches.

Cette plate-forme a été mise en œuvre par etalab.gouv.fr, la Mission, sous l’autorité du Premier Ministre chargée de l’ouverture des données publiques. L’un des engagements forts d’Etalab était de proposer les données dans un format ouvert et réutilisable : la mission a pour cela publiée une « Licence Ouverte / Open Licence » en octobre 2011 qui facilite la réutilisation des données publiques mises à disposition gratuitement.

La plupart des données proposées étaient déjà accessibles, notamment sur les sites des ministères, mais un nombre important de jeux de données ont été améliorés, grâce à un effort de reformatage, ce qui fait que des données auparavant simplement consultables peuvent à présent être réutilisées.

Seule ombre au tableau de cette initiative d’ouverture : si la gratuité et l’absence de barrière juridique sont bien présentes, au niveau des formats, la plate-forme utilise encore des formats propriétaires, notamment ceux de Microsoft comme Excel, très peu sont en csv (comma-separated values) : format informatique ouvert représentant des données tabulaires sous forme de valeurs séparées par des virgules. (Wikipedia).

Mais, comme le souligne le site « Regards citoyens », l’ouverture de cette plate-forme n’est qu’une première étape : « si de nombreuses données pourraient encore être intégrées, cela ne sera possible que si un maximum de citoyens, d’associations, de journalistes, d’entreprises et d’universitaires s’emparent des données déjà existantes. ».

Data.gouv.fr

OpenData : La moyenne pour un data.gouv.fr sous formats propriétaires
Regards citoyens, 04/12/11

Data.gouv.fr : la France ouvre son portail de partage de données publiques
ZDNet.fr, 05/12/11

Data.gouv.fr : la plate-forme d’open data française est en ligne
Regards sur le numérique, par Arthur Jauffret, 05/12/11

France : data.gouv.fr, les données publiques en accès libre sur le web
RFI.fr , 05/12/11

Tablettes et liseuses : quels usages pour les étudiants ?

Avec son projet de tablettes à 1 euro, le Ministre Laurent Wauquiez veut introduire l’usage des tablettes dans l’enseignement supérieur. Les étudiants intéressés disposeraient ainsi de tablettes tactiles 3G+ qui leur reviendraient à 730 euros au bout de deux ans.
Deux tablettes avaient été retenues par l’opérateur Orange qui a répondu à l’appel d’offre du Ministère : l’incontournable iPad 2 d’Apple et le Galaxy Tab de Samsung.
Critiqué pour avoir favorisé des produits étrangers, le Ministère a aussi accordé son soutien à une deuxième offre, où le fabricant français Archos forme un tandem avec l’opérateur Bouygues Telecom pour une tablette avec forfait internet 3G + à 0,66 euro par jour ! Et dans ce cas, la clé 3G, facilement amovible (ce qui est impossible sur un iPad), peut aussi être utilisée sur un ordinateur portable.
Précisément, l’intérêt de la connexion 3G ne paraît pas évident non plus avec la multiplication des bornes wifi dans les universités et les lieux publics.

Mais la question fondamentale porte plutôt sur l’utilisation de ce nouvel équipement par les étudiants.
Lorsque l’on examine l’utilisation que les Français font des tablettes, ce qui ressort c’est l’usage privé et personnel (74%) de ce matériel !
On peut difficilement effectuer un travail universitaire ou autre sur une tablette et quant à la dimension nomade de ce nouveau jouet, elle se partage entre le salon (85%) et la chambre (69%) de l’utilisateur !
Les usages les plus fréquents de la tablette recouvrent, avec quelques différences (pas de téléphone GSM), les utilisations des téléphones mobiles : surfer sur l’internet, consulter l’actualité, rechercher des informations pratiques, consulter et répondre à ses mails, etc. La taille de la tablette (7 ou 10 pouces) permet de mieux profiter des vidéos, des jeux et des magazines.
Mais en ce qui concerne la lecture des livres numériques, on pourrait se demander si des « liseuses » de type Kindle (Amazon) ne seraient pas plus adaptées aux besoins des étudiants ? Elles sont, il est vrai, limitées au noir et blanc de l’encre électronique, mais si l’objectif est de faire lire les étudiants avec des terminaux mobiles, les liseuses disposent de plus d’atouts : lisibilité en plein jour tout en préservant les yeux des utilisateurs, grande sobriété de consommation énergétique, et surtout, prix beaucoup plus abordable (à partir de 100 euros) !
Bien sûr, les étudiants ne pourraient pas visionner des e-cours ni jouer à des jeux sérieux (?), mais ils auraient la possibilité de partager leurs annotations ou des signets pour retrouver les pages-clés dans une bibliographie !

Personne ne peut prédire aujourd’hui les usages qui seront faits de ces nouveaux outils. Lors de la popularisation du téléphone, certains prévoyaient que sa principale utilisation serait l’écoute d’enregistrements de musique ; cette prédiction s’est réalisée … près d’un siècle plus tard !

Des tablettes numériques à un euro par jour pour les étudiants. – Portail du Gouvernement, 05/10/11

En partenariat avec le Ministère de l’Enseignement supérieur et de la Recherche, Bouygues Telecom et Archos proposent aux étudiants la première tablette avec forfait internet 3G+ à 0,66E par jour. – Communiqué de presse, Archos – Bouygues Telecom, 14/10/11

Méli, Benoît. – Comment les Français utilisent les tablettes ? – Journal du Net , 12/10/11

Maussion, Catherine. – Tablettes à 1 euro : Archos dénonce Orange. – Ecrans – Libération.fr, 04/10/11

Auffray, Christophe. – Archos et Bouygues Telecom répliquent avec une tablette à 0,66 euro par jour. ZDnet.fr, 14/10/11

Charles, Frédéric. – Et pourquoi ne pas déployer les liseuses Kindle d’Amazon en entreprise ? Green SI – ZDnet, 01/10/11

Guillaud, Hubert. – Le Lire et l’écrire : clôture, glissement et déconnexion. – La Feuille – Blogs Le Monde.fr, 15/10/11

Les bibliothèques de données, vers des hypercatalogues ?

Les grandes bibliothèques sont en train d’expérimenter un nouveau type de catalogue basé sur le web de données (souvent dénommé « web sémantique ») qui englobe les références des auteurs et de leurs oeuvres.

La BNF avec « data.bnf« , ainsi que l’Europeana, offrent cette nouvelle exploitation des métadonnées.
Si l’on fait par exemple une recherche sur Antonin Artaud sur data.bnf, on trouve sur la page du résultat, outre une biographie succincte du poète, l’ensemble de ses oeuvres entant qu’auteur, mais aussi toutes ses contributions, en tant qu’adaptateur, commentateur, compositeur, dessinateur, acteur, interprète, etc. (la vie du « Momo » était très diversifiée … !). Et ce, sur l’ensemble des ressources BNF (Catalogue général, Gallica, Archives et manuscrits, etc.). La page pointe aussi vers des ressources extérieures (Catalogue collectif de France, Europeana, SUDOC, OCLC), puis enfin vers l’article Antonin Artaud de Wikipedia.

Le Portail Europeana rassemble, quant à lui, toutes les données multimédias sur un auteur ou une oeuvre, recueillies auprès de bibliothèques, de musées, d’archives ou même de particuliers.
Sur le personnage de « James Bond« , on dispose de 25 textes, 80 images, 36 vidéos et 7 fichiers son. Mais si les images et les vidéos se rapportent bien à l’agent secret au service de Sa Gracieuse Majesté (personnage de fiction), près de la moitié des textes concerne les écrits d’un Pr James Bond (plutôt réel), expert en commerce international et développement durable ….
On touche là à la limite actuelle du web sémantique …;-(
Comme l’explique « La petite histoire du web sémantique », citant Tim Berners-Lee dans « La Recherche » en novembre 2007 : « Le terme sémantique prête un peu à confusion car la sémantique s’intéresse au sens du langage pour en déduire des constructions logiques. » En fait, le web sémantique ne cherche pas à réaliser des opérations d’intelligence artificielle basées sur le langage naturel, mais cherche simplement à relier des données entre elles. C’est l’idée du « Linked data » (qu’on peut traduire par « web de données ») qu’une machine ou un être humain pourrait explorer.

Le projet « Linked Open Data » auquel participe l’Europeana, repose sur l’ontologie Yago, une base de connaissance qui unifie le lexique sémantique WordNet et Wikipedia. Sa structure est fondée sur les relations (« signifie », « année de naissance », « a remporté le prix ») entre le sujet et ses attributs.
Exemple : « AlbertEinstein » année de naissance « 1879 » ou « AlbertEinstein » a remporté le « prix Nobel », etc..

Wikipedia est aussi à l’origine de la base de connaissance DBpedia. Cette initiative communautaire, soutenue par l’Université libre de Berlin et l’Université de Leipzig, a pour objectif d’extraire des informations structurées à partir des articles de Wikipedia, notamment sur les villes et les pays. On arrive ainsi à une base de données encyclopédique, où on peut utiliser de nombreux filtres pour sa requête. Exemple : « les scientifiques français nés au XIXe siècle ».
Mais gare aux homonymes, qui possèdent les mêmes nom et prénom (sans même une initiale ou un deuxième prénom), comme pour notre James Bond, l’erreur est au coin de l’ontologie …!

L’utilisation des CMS en bibliothèque : à présent, c’est au tour des catalogues …

Le dernier post de Bibliobsession « Modularité et entrées multiples : « nouvelles » tendances des catalogues de bibliothèques » rappelle que les CMS (système de gestion de contenu) comme Drupal sont de plus en plus adoptés comme portail documentaire comme à la BCU (Bibliothèque Clermont Université) … et très bientôt à la Bibliothèque de Sciences Po, mais aussi que ce logiciel libre peut servir à la gestion de catalogue ! C’est déjà le cas dans les bibliothèques américaines de Palos Verdes et de Ann ArBor. De nombreuses bibliothèques universitaires en Amérique du Nord et dans le monde utilisent Drupal (comme Laval à Québec, Cornell University ou le « Sistema bibliotecario di Ateneo » de l’Università di Studi de Padoue (Italie)). Le site des groupes Drupal pour les bilbiothèques présente un certain nombre de ressources et de services pour les bibliothécaires et webmasters (modules de rechercherche, de maintenance, résolveur de liens. et enfin le module SOPAC, OPAC ‘social’ pour intégrer un catalogue de bibliothèque dans le CMS).
On peut aussi multiplier les blogs thématiques, comme l’a réalisé il y a près d’un an la BU de Nancy : « Nuage de blogs », procédure commentée à l’époque par Silvae de Bibliobsession.

Staypressed theme by Themocracy