Category: Médias et communication

Evolution des bibliothèques : où en est-on ?

4175783446_7e32581cf5_bLa fin des bibliothèques, souvent annoncée (presque autant que la fin du travail !), ne semble pas  encore réalisée. Au contraire, la dernière Enquête sur les publics et les usages des bibliothèques municipales du Ministère de la culture indique une augmentation de la fréquentation des bibliothèques publiques (40% des Français de plus de 15 ans contre 35% en 2005). Si toutes les bibliothèques ne sont pas devenues des ‘learning centres’ ou des ‘leisure centres’ comme dans d’autres pays, un certain nombre de mutations sont à l’œuvre, aussi bien dans les bibliothèques universitaires et de recherche que dans les BM et les médiathèques grand public.

Ces évolutions concernent autant l’offre d’activités des bibliothèques que les transformations plus profondes des métiers et des pratiques de l’information-documentation.

L’innovation est le maître-mot, comme le rappelle Clémence Jost dans Archimag en évoquant le thème central du Congrès de l’ABF en 2016 « L’innovation en bibliothèques ». Pour repenser la bibliothèque, Christine Tharel-Douspis, cite dans le BBF la « Bibliothèque en [r]évolution », thème de la Journée Régionale de la Commission lecture publique de Mobilis organisée en partenariat avec l’ENSSIB. Au programme, réseaux sociaux, usages différents et mouvants, BiblioRemix, co-construction, design thinking, expérience utilisateur, etc.

Diversification et offre de pratiques innovantes

Un certain nombre de bibliothèques ont introduit de nouveaux outils ou de nouvelles pratiques à destination des publics. Outre les incontournables ‘fablabs’, on trouve aussi :

  • Un kiosque qui distribue de courtes nouvelles rédigées par les étudiants à la Penn State University Library
  • Des « feuilletoirs» numériques (écrans tactiles insérés dans les rayonnages donnant accès aux 132 000 documents des collections en magasins) à la Bibliothèque Alexis de Toqueville à Caen
  • Des animations de réalité virtuelle avec casques à la Médiathèque Federico Fellini de Montpellier et à la bibliothèque de la Manufacture de Nancy FabLab
  • « Les Yeux docs », plateforme de vidéos documentaires à la BPI
  • Labo2 : laboratoire des usages numériques à la BM de Nantes : écriture, jeux vidéo, créations numériques, outils cartographiques
  • Une « grainothèque» à la BM Aimé Césaire de Villeneuve-La-Garenne : chacun peut apporter son sachet de graines dans un espace dédié où d’autres « semeurs » peuvent se servir gratuitement.
  • Un concours de « Bibtubeurs» à la BM de Bègles où de jeunes lecteurs réalisent des « Booktubes » : petite vidéo résumant un livre que l’on veut partager avec d’autres lecteurs. Donner en 5 minutes envie de lire le livre et apprendre à maîtriser les bases techniques de la réalisation vidéo.
  • La plateforme de photos Instagram d’étudiants sur des livres ou des activités de la bibliothèque. Comme La New York Public Library des d’autres BU américaines, la bibliothèque de la « London School of Economics” lance sa plateforme Instagram pour sa « Review of Books ».

Comme le souligne l’enquête sur les bibliothèques municipales « l’usage des équipements [de lecture publique] évolue également : autrefois axé sur l’emprunt et le livre, il s’est fortement diversifié, en lien avec la richesse des services proposés par les bibliothécaires, sur place, en ligne et hors les murs ».

Les transformations en profondeur des métiers de l’information et de la 6232096-9311528documentation

L’impact du numérique et de la communication n’est pas récent dans ces métiers et remonte bien à plus d’une trentaine d’années, mais les mutations se font surtout sentir depuis une dizaine d’années. Elles se traduisent par un certain nombre de transformations dans la vie professionnelle du domaine.

  • Mise à jour de la terminologie en sciences et techniques de l’information (Archives 21)
  • Le rôle des bib-docs dans la lutte contre la désinformation et les Fake news. L’importance de la formation à l’’information literacy’ dans la construction des savoirs.
  • La contribution à l’encyclopédie Wikipédia, aussi bien en tant que professionnel avec l’évènement 1Bib1Ref (Un bibliothécaire, une référence), qu’en tant que médiateur pour faire connaître cette entreprise « Creative common » aux lecteurs. Comme le souligne Sylvain Machefert, auteur de ce chapitre, « Wikipédia peut aussi être le point de départ à une sensibilisation du public aux questions en lien avec le droit d’auteur », en raison de sa licence libre.
  • Le rôle croissant de la communication interne au sein de l’institution, notamment à travers les outils collaboratifs et les réseaux sociaux d’entreprises, comme Slack ou Teams.
  • Le rôle des bibliothèques de recherche dans le développement des Humanités numériques. Le rapport des Research Libraries UK souligne le rôle que pourraient avoir ces bibliothèques dans la création, l’archivage, la curation et la préservation d’outils pour la recherche en Humanités numériques. Le RLUK veut comprendre le rôle joué par ces bibliothèques dans la représentation numérique pour identifier les zones spécifiques à valoriser et aussi pour faciliter le partage des bonnes pratiques. 497671-rea-197588-011-580x310
  • Les nouvelles appellations des métiers de la documentation. Comme le relève E. Barthe dans son blog, cité par H. Girard dans la Gazette des Communes, le mot documentaliste, tel que le définit le code du Répertoire opérationnel des métiers et des emplois (ROME), ne correspond plus à la réalité du métier. Depuis le début des années 2000, on a vu émerger des knowledge managers, des gestionnaires de bases de données et de ressources numériques, des community managers et autres webmasters … Ces nouveaux métiers qui portent aussi sur la gestion des documents et de l’information n’apparaissent pas dans le code ROME 1601. Or, on trouve de nombreux emplois et postes pour ces dénominations … Cette évolution des métiers a été cartographiée par l’ADBS en 2013. Mais comme le remarque Archimag dans son 2e Baromètre sur l’emploi et le compétences (2016), d’autres compétences complémentaires sont nécessaires, comme le numérique ou la communication.
  • L’importance de la présence des bibliothèques sur les réseaux sociaux. Les bibliothèques se sont majoritairement investies dans les deux principaux réseaux sociaux Facebook et Twitter où se retrouvent la plupart des utilisateurs. Mais comme on l’a vu plus haut, certaines bibliothèques choisissent de participer à des activités plus ciblées sur certains réseaux, comme Instagram ou YouTube pour développer l’aspect prescripteur des lecteurs. Sur les réseaux sociaux dédiés aux livres qui remontent aux années 1990, on est passé des pionniers (Zazieweb), aux start-ups et à la professionnalisation (Babélio) pour atteindre une certaine concentration avec la pérennisation de certains sites (Sens critique) et une polarisation de la prescription avec la quasi disparition de la ‘longue traîne’. Comme le souligne Louis Wiart, dont l’étude est citée par Christine Tharel-Douspis dans son article du BBF, les réseaux sociaux ont un effet de caisse de résonnance : les best-sellers et les livres les plus cités concentrent le plus de visibilité, tandis que les catégories intermédiaires sont moins représentées … « Les réseaux sociaux ne bouleversent pas les champs des pratiques, mais fortifient le lien entre professionnels et usagers ».
  • Le « BiblioRemix » et le « nouveau paradigme de la participation ». Cette démarche veut accompagner l’évolution des bibliothèques vers le ‘3e lieu’ et rompre avec l’image stéréotypée de ces établissements. Elle implique la participation du public dans une démarche de décision et de gouvernance plus citoyenne. Il s’agit de repenser la bibliothèque avec les usagers, de co-concevoir les politiques publiques. Avec BiblioRemix, on passe du service public aux services aux publics. De nombreux exemples de projets sont cités dans l’article du BBF, dont les 4C aux Champs libres à Rennes (Création, collaboration, connaissance et citoyenneté).

Ces différentes tendances dessinent une nouvelle configuration des bibliothèques, où professionnels et usagers se retrouvent dans des pratiques où l’information passe par différents canaux comme la communication interne et extérieure, la formation, la participation, ou des outils comme les humanités numériques, la curation et l’échange aussi bien « in real life » que sur les réseaux sociaux.

communs

Mollett, Amy ; Mc Donnell, Anthony. – Five ways libraries are using Instagram to share collections and draw public interest. – Impact of Social Sciences, 16/04/14

Enquête sur les publics et les usages des bibliothèques municipales en 2016. – Ministère de la Culture et de la Communication – Livre et lecture, 16/06/16

Barclay, Donald A. – The challenge facing libraries in an era of fake news. – The Conversation, 05/01/17

Jost, Clémence. - Innovation : les bibliothèques, laboratoires de réinvention. – Archimag, 02/05/17

Machefert, Sylvain. – “Wikipédia et bibliothèques : agir en commun” dans Communs du savoir et bibliothèques/Lionel Dujol. – Paris, Cercle de la Librarie, 2017. Via Hal-archives ouvertes, 31/05/17

Tharel-Douspis, Christine. « Bibliothèque en (r)évolution ». – Bulletin des bibliothèques de France  n° 11. – 23/06/17

Kamposiori, Christina. – The role of Research Libraries in the creation, archiving, curation, and preservation of tools for the Digital Humanities. RLUK Report. – Research Library UK, cop. July 2017. Pdf.

La communication interne en bibliothèque : expérimentation de Teams, le Slack de Microsoft. – Hortensi-us, 15/07/17

Girard, Hélène. – Documentaliste : le poids du mot face aux mutations des fonctions.La Gazette des communes, 03/08/17

Enis, Matt/ – Penn State Libraries launch short stories dispensers. – Library Journal, 04/08/17

Ducharme, Daniel. – Un projet de mise à jour de la terminologie de base en sciences de l’information. – Archives 21, 15/08/17

L’inventivité en bibliothèque : les bibtubeurs, le concours de Booktube. – Actualitté, 29/08/17

Dillaerts, Hans.- Créer, gérer et animer un dispositif de Fab Lab au sein d’une bibliothèque publique : entretien avec Julien Amghar, créateur de l’espace Kénéré le Lab. – DLIS.Hypothèses.org, 06/09/17

 

 

Présidentielle 2017 : quel bilan pour les civic-tech ?

1249b0949cb30954e2effc2017a51af1_originalCette élection présidentielle se présentait comme l’occasion d’expérimenter des technologies qui permettraient d’avoir une approche plus participative et plus pertinente que les campagnes précédentes. Les sondages traditionnels, qui ont montré leurs limites lors des derniers scrutins au Royaume Uni et aux Etats-Unis, seraient remplacés par l’analyses des mégadonnées et l’intelligence artificielle permettant de prédire les résultats au plus près du vécu de l’électeur. Et surtout, par l’utilisation massive de diverses plateformes de participation citoyenne et des réseaux sociaux.

Que ce soit avec  la plateforme citoyenne de la Primaire.org (qui permet aux citoyens de choisir leurs candidat(e)s et de co-construire les projets politiques), les comparateurs en ligne de programmes électoraux, les chatbots pour discuter sur les messageries instantanées ou les applications de réalité virtuelle, la campagne électorale a expérimenté un certain nombre de ces nouveaux outils ou services, les civic-tech.

Définition(s)

La newsletter Civictechno propose plusieurs définitions de ces dispositifs « à la croisée de l’innovation, d’un gouvernement ouvert et de l’engagement du citoyen » (Rapport de la Knight Foundation, 2013). On y retrouve le désir « de rapprocher les citoyens des collectivités et des Etats », de « rendre les gouvernements plus accessibles et plus efficaces » et de permettre « à des individus ou à des groupes d’influer sur la scène publique ».

Comme le rappelle Dominique Cardon dans son intervention  « Démocratie et internet » (Nouvelles citoyennetés), « Peu d’innovations technologiques ont autant été investies de promesses politiques que ne l’a été internet. ». La contre-culture qui a entouré les pionniers de l’internet a influencé cette articulation entre technologie et politique. L’infrastructure réticulaire et la décentralisation (le réseau distribué, idiot au centre, intelligent à la périphérie) remettent en cause la démocratie représentative. L’utopie libertaire des pionniers inspire les premières communautés virtuelles : l’’empowerment’ et les communautés électives devraient permettre de « changer la société sans prendre le pouvoir ».

Néanmoins, la démocratie représentative s’est aussi emparée de ces outils, notamment lors des campagnes électorales, comme par exemple lors de la campagne d’Obama en 2008 avec des réseaux de mobilisation de bénévoles et des financements de la campagne par micro-dons (badges de fierté).

La participation citoyenne civic-tech

Ségolène Royale avait initié cette idée en 2007 avec son site « Désirs d’avenir », devenue depuis desirs-davenir.eu, laboratoire d’idées, citoyen et participatif, qui fonctionne avec la page Facebook de la Ministre de l’environnement. L’objectif était de recueillir des idées, des expertises et des témoignages venant de la base pour élaborer un programme sans passer par le parti. Le résultat fut mitigé malgré la considérable production militante, comme le souligne Patrice Flichy  Internet et le débat démocratique, (2008).

On retroette participation militante dans l’élaboration de la Loi numérique, où 21 330 citoyens ont co-écrit le projet de loi, comme l’indique le document du Ministère de l’économie présenté par Axelle Lemaire.

Outre l’expérience de la Primaire.org qui a réussi à désigner une candidate à la présidentielle (Charlotte Marchandise n’a finalement obtenu que 135 parrainages sur les 500 nécessaires pour se présenter à l’élection), de nombreuses initiatives se sont multipliées pour inventer de nouvelles formes d’engagement citoyen.  D’autres mouvements ont mis en œuvre des plateformes participatives à commencer par des candidats (Benoît Hamon, Jean-Luc Mélenchon). On les retrouve dans l’article du Monde : « Les civic-tech ou le B-A BA de la démocratie ».

MaVoix, vise les législatives et a pour objectif de « hacker l’Assemblée Nationale en faisant élire des citoyens volontaires, formés et tirés au sort qui voteront pendant 5 ans sur toutes les lois comme leurs électeurs le décideront. ». Quant à la ‘boite à outils’ citoyenne voxe.org, elle ne se contente pas de comparer simplement les programmes des candidats ; cette application permet aussi de s’informer sur la campagne, d’interpeler les candidats et aussi de se rencontrer IRL (dans la vraie vie) pour débattre d’un sujet, par exemple sur la valeur travail dans un café de Strasbourg. La Fabrique de la Loi (Medialab + CEE Sciences Po) permet d’explorer l’évolution des textes de loi au fil de la procédure.

index

Les plateformes des candidats

Le mouvement de Jean-Luc Mélenchon la France Insoumise est celui qui se présente comme le plus équipé au niveau numérique. Il dispose de deux outils pour interagir avec ses militants : la plateforme La France insoumise (plus de 500 000 participants) et la messagerie instantanée très sécurisée Discord Les Insoumis qui permet des conférences en ligne dans différents ‘salons’ pour discuter du programme. Enfin le portail Insoumis.online rassemble tous les outils et les réseaux sociaux où interviennent JLM et les insoumis : les sites internet proches de la FI ; les chaînes YouTube de JLM et d’autres militants et médias ; les comptes twitter des diverses militants et communautés FI ; les comptes Facebook, complétés par des jeux vidéo engagés et d’autres ressources (bande dessinée, banque d’images, outils de simulation et … concours de photos de chats et de chiens sur twitter !). Et évidemment l’’hologramme’ (en fait une projection vidéo) de Mélenchon qui lui a permis de tenir jusqu’à 6 meetings simultanément … !

Le candidat Benoît Hamon propose aussi des outils de participation : le Conseil citoyen où on peut participer au programme sur 10 thèmes (éducation, travail, santé, environnement, discriminations) et la plateforme Expression « ouverte à toutes les initiatives de la société civile, elle est alimentée par des textes, des vidéos, des photos, des films d’animation et des infographies pour éclairer les expérimentations et projets qui construisent aujourd’hui le monde de demain. ».

La plateforme Marine2017 est beaucoup plus classique : à part un compte à rebours pour le jour de l’élection, elle ne propose que des soutiens pour la candidate, sur la plateforme et sur les réseaux sociaux twitter et Facebook, accompagné par un lien vers le site : actualités, programme, blog de Marine Le Pen, vidéos, photos, boutique et formulaire de procuration en ligne ! Mais la plupart des militants proches du FN se retrouvent sur des fils de forums comme la ‘Taverne des patriotes’ ou  4chan liés à l’’altright’ américain sans oublier, bien sûr les médias russes.

Sur le site d’En Marche !, seul un fil d’actualités avec un moteur de recherche présente une revue de presse sur la campagne et les dernières déclaration d’Emmanuel Macron. En fait l’équipe informatique du candidat, dirigée par Mounir Mahjoubi, ex-directeur du Conseil national du numérique, est surtout occupée de contenir les piratages de ses serveurs et de faire la chasse aux ’fake news’ comme on l’a vu à la fin de la campagne avec l’affaire du compte aux Bahamas et les MacronLeaks où une somme de documents du mouvement En Marche ! a été publiée sur le forum  4Chan puis relayée sur les réseaux sociaux …

digital surveillanceL’effet bulle

Mais il existe aussi un côté obscur de ces instruments … Le dessinateur Joann Sfar en a fait récemment la cruelle expérience. S’apprêtant à voter Mélenchon, l’auteur du « Chat du rabbin » a été choqué par les prises de position du leader de la France Insoumise en matière de relations internationales (adhésion à l’Alliance bolivarienne, approbation du soutien de la Russie à Bachar El Assad en Syrie). Il a donc posté quelques dessins critiques sur les réseaux sociaux … Mal lui en a pris, les militants FI ont commencé à le harceler sur les réseaux sociaux « J’ai vu débarquer sur Facebook, Instagram et Twitter des centaines de pseudos dont je n’avais jamais entendu parler et qui venaient me « désintoxiquer ». J. Sfar explique ensuite la méthode des Insoumis : la création de centaines  de faux comptes twitter et de l’utilisation de la plateforme Discord pour planifier les attaques de ‘désintoxication’.

Ces réactions résultent aussi des ‘bulles de filtres’ (filter bubble) qui fonctionnent sur les réseaux sociaux. Ces algorithmes vous montrent surtout les pages des personnes avec qui on a le plus d’interaction. On reste dans sa bulle et on ne connaît pas les positions des autres groupes (ex : conservateurs contre libéraux). D’où les réactions en chaîne quand un autre sonde cloche résonne dans la bulle … C’est cet aspect psychologique qui a été exploité par la firme Cambrige Analytica, une société de communication stratégique utilisant l’analyse de données et le ‘sentiment analysis’ qui a influencé aussi bien le referendum britannique que l’élection de Trump aux États-Unis comme l’explique Carole Cadwalladr dans son article du Observer.

L’analyse Big data pour remplacer les sondages ?

Les sondages ont été incapables de prédire deux scrutins très importants en 2016. Jusqu’au dernier moment, les instituts de sondage soutenaient la victoire du « Remain » au référendum britannique sur le maintien dans l’Union européenne de même que Hillary Clinton était donnée victorieuse à l’élection présidentielle américaine.

Pour remédier à cette carence des outils traditionnels, un groupe d’étudiants du master spécialisé Big data de Télécom Paris Tech ont lancé le projet « Predict the President » qui avait pour objectif de « prédire le résultat du premier tour en mixant de nombreuses données (sondages, occurrences sur twitter et Google, cartes électorales, etc.) ». Le 18 avril, Le Point publiait leur prédiction (valable au 15 avril) : un duel Fillon-Le Pen ! Dix jours plus tard, les étudiants reviennent dans le Point sur leur prédiction. Même s’ils ont pu produire une deuxième estimation plus pertinente le 21 avril, ils tiennent à tirer les leçons de cette première estimation. Leur principale erreur a été de constituer des ‘blocs’ politiques. En intégrant « des données sociodémographiques sur plusieurs années … afin d’estimer les réservoirs de voix des grandes familles politiques ». Ils ont ensuite « ajusté les scores des données issues d’internet et les intentions de vote des instituts de sondage. […] Les données du web incluaient les recherches sur Google et le sentiment exprimé dans les tweets. ». Les étudiants reconnaissent que « l’estimation des grands blocs politiques souffrent du fait que les couleurs politiques des candidats sont difficiles à classer ». Emmanuel Macron classé au centre gauche (sans prendre en compte les voix captées au PS et à LR ?) et le score de Marine Le Pen reposant presque uniquement sur l’historique de cette « dynastie » de candidats …

Le projet a aussi souffert d’un biais avec la ‘sentiment analysis’ sur Twitter. Les tweets anti-Fillon étaient très nombreux et ont, en réaction généré beaucoup de tweets positifs, ce qui a surévalué les points positifs pour le candidat … La prise en compte du contexte semble très importante dans l’analyse très délicate de l’opinion sur les réseaux sociaux. Comme le souligne Eric Scherer (France Télévision), interrogé dans Télérama ces nouvelles méthodes d’estimation d’opinion n’ont pas vocation à remplacer les sondages, mais à agir en complément. « Le big data n’a pas su répondre à ces questions lors de l’élection, mais il ne faut pas l’enterrer pour autant car il est l’avenir des sondages. »… blogimage_KnightFoundCivicTech

Désintermédiation versus médias traditionnels

En dehors de cette initiative, cette campagne électorale a connu peu d’innovations technologiques. C’est ce que confirme Xavier de La Porte (France Culture), dans le même article de Télérama,  «Les deux grandes tendances de cette campagne sur Internet étaient déjà apparentes, il s’agit de l’intensification du fact-checking (vérification méthodiques des faits et des affirmations) et l’usage massif des réseaux sociaux quasiment en direct. ». Cela confirme la tendance à la désintermédiation, les mouvements politiques produisant eux-mêmes leurs propres produits d’information comme les chaînes YouTube de la France Insoumise au détriment des médias de même que les débats télévisés se doublent de discussions en direct sur les réseaux sociaux.

Si les civic-techs n’ont pas tenus les promesses que l’on espérait, « le numérique chamboule tous les espaces confrontés de près ou de loin à la question démocratique : les villes bien sûr, mais aussi les entreprises et organisations sous toutes leurs formes » comme le souligne Dominique Cardon. De plus, cette élection présidentielle comportait un facteur souvent oublié des analyses électorale, les émotions. Comme le souligne Martial Foucault du Cevipof, dans un article du Monde « La raison ne peut suffire. L’électeur, en tant que citoyen sentimental, est traversé par un ensemble d’émotions, allant des expériences, des souvenirs positifs ou négatifs aux réactions plus immédiates face à un événement. ». Malgré des avancées indéniables, le numérique n’est pas encore en mesure de prendre pleinement en compte ce facteur. 20inscritsCivicTheque-300x251

Flichy, Patrice. - Internet et le débat démocratique. – Réseaux vol.150:n°4, 2008/04 – via Cairn-info

Flichy, Patrice ; Bougnoux, Daniel ; Cardon, Dominique. - Internet, nouvel espace démocratique ? – Table-ronde animée par Caroline Broué. – La vie des Idées – Réinventer la démocratie – Granoble, 09/05/09

Cardon, Dominique ; Williamson, Audrey. – Internet, nouvel espace démocratique ? Entretien. – La vie des idées, 07/07/09

Cardon, Dominique. – La démocratie Internet : promesses et limites. – La République des idées, 2010

The Emergence of Civic Tech: Investments in a growing field. – Knight Foundation, December 2013

Projet de loi pour une République numérique : 21330 citoyens ont co-écrit le projet de loi/Axelle
Lemaire (ed.). – Ministère de l’économie, de l’industrie et du numérique ; Secrétariat d’Etat au numérique, 2016. (pdf).

Gombert, François. – C’est quoi la Civic Tech ? – Civictechno, 16/01/16

La Fabrique de la loi : les parlementaires font-ils la loi ?

La Primaire.org

Mavoix : nous sommes celles et ceux que nous attendions

Voxe.org : vous allez adorer les élections

Volontat, Adrien de. – La civic-tech invente la démocratie 2.0.- La Croix, 26/06/16

Cardon, Dominique ; Taboy, Thierry. – Démocratie et Internet. – Forum Nouvelles démocraties – Digital Society Orange, 15/11/16

Joann Sfar :  « Les méthodes des partisans de Mélenchon sont dégueulasses ». – Le Monde, 20/04/17

Schott, François. – Les « civic tech » ou le b-a ba de la démocratie 2.0.Le Monde, 26/04/17

Jeanticou, Romain. – Présidentielle et médias : La grande baudruche de l’innovation. – Télérama, 28/04/17

« Predict the President » : retour sur une prédiction. – Le Point, 29/04/17

Tual, Morgane ; Untersinger, Martin. - Macron et l’évasion fiscale : itinéraire d’une rumeur de 4Chan aux plateaux télé. – Le Monde, 04/05/17

Foucault, Martial ; Marcus, George E. ; Valentino, Nicholas ; Vasilopoulos, Pavlos. – Election présidentielle : « Nos émotions façonnent nos réaction à l’environnement ». – Le Monde, 06/05/17

Delmas, Aurélie. – « Macronleaks » : tentative de déstabilisation de dernière minute. – Libération, 06/05/17

Cadwalladr, Carol. – The great British Brexit robbery: how our democracy was hijacked. – The Guardian, 07/05/17

Fake news, désinformation, post-vérité : quel rôle pour les professionnels de l’information ?

truth-lies-wallpaper__yvt2-550x412La victoire de Donald Trump à l’élection présidentielle aux Etats-Unis a fait émerger une nouvelle notion dans l’univers des actualités et de l’information : l’idée de ‘vérité alternative’. Dès son installation à la Maison Blanche, une polémique s’est développée autour du nombre de participants à la cérémonie d’investiture du Président : comme le rappelle l’article du Guardian, Kellyanne Conway conseillère à la Maison Blanche a défendu la version du porte-parole du Président Sean Spicer , « la plus importante cérémonie d’investiture en terme d’audience » en déclarant que celle-ci se basait sur des ‘faits alternatifs’ (alternative facts). Depuis, la ‘post-vérité’ triomphe aux Etats-Unis dans une atmosphère quasi-orwellienne où la « majorité des journalistes sont malhonnêtes » …

La fabrique des fake news et la contre-offensive des médias

L’utilisation des réseaux sociaux et de certains médias pour répandre ces faits alternatifs (« Le Pape François soutient D. Trump ») a été particulièrement importante lors de cette campagne électorale comme lors de la campagne pour le ‘Brexit’. On leur a surtout reproché l’usage de robots logiciels et d’intelligence artificielle (‘bots’) pour manipuler les électeurs. Mais comme le souligne le sociologue Antonio Casilli dans sa conférence sur Infobésité et fake News et algorithmes politiques (Numa, Paris) : aujourd’hui, les entreprises de désinformation sur le net sont loin d’utiliser uniquement des algorithmes et autres ‘chatbots’ pour influencer les internautes. Si Facebook a effectivement utilisé un effet de ‘bulle de filtre’ en faisant circuler un même type d’information à l’intérieur d’un cercle d’amis, (si quelqu’un est de droite, il ne va voir que des informations venant de la droite), la plupart des ‘Likes’ et retweets ont été effectués par des humains dans des ‘usines à click’ de pays émergents (Philippines, Mexique,etc.). Ce ‘digital labor’, comme le Mechanical Turk d’Amazone, est payé quelques centimes le click, un peu plus pour les femmes au foyer de l’Amérique profonde … !

A la veille de l’élection présidentielle en France, un certain nombre de médias et géants du Net se posent la question de vérification des informations. Plusieurs initiatives ont vu le jour depuis quelques semaines pour décrypter ces attaques, notamment le Décodex, outil mis au point par le Monde, mais aussi une alliance de plusieurs médias français avec Facebook et Google. Vreuz0Z4aYsXhAor0wG05Tl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9

Que valent ces outils et peut-on véritablement dénicher les fausses informations qui se multiplient sur la Toile ? Déjà un certain nombre de critiques sont portées à l’égard du Décodex. En cherchant à labelliser la crédibilité des médias en fonction de points de vue subjectifs (Valeurs actuelles a pignon sur rue, tandis que Fakir est une feuille militante), cet outil effectue un biais comme le souligne Vincent Glad dans son article dans Libération : « le Monde se donne le rôle de censeur et de vérificateur du web, de CSA de l’information en ligne ». C’est aussi le point de vue de SavoirCom1, cité par Blog Univesrdoc, blog de veille des chefs de projets à l’INTD-CNAM  « Le collectif SavoirComun1 (1) – un groupement de bibliothécaires engagé pour les libertés à l’ère numérique et la libre dissémination des savoirs – ne dénigre pas l’utilité de Décodex dans le contexte actuel, mais partage son inquiétude sur ce type d’application d’évaluation, qui gérée par des plate-formes privées, voire par l’Etat pourrait amener à des formes de censure. ». Le Monde par la voix de Samuel Laurent (Les Décodeurs) s’est engagé pour sa part à faire évoluer son outil, notamment en distinguant les informations factuelles des commentaires. Mais si certaines mesures ont été prises concernant les sites d’opinion (Les crises, Valeurs actuelles), apparemment cela n’a pas empêché la requalification d’un site comme Doctissimo auparavant classé en orange (site imprécis, ne citant pas ses sources), et passé en vert le 21 février … Serait-ce parce que le groupe Le Monde et Doctissimo lançaient ce jour-là le magazine Sens et Santé (voir Les Echos) comme le souligne Olivier Berruyer dans Les Crises ?

La désinformation dans l’histoire

L’IFLA, de son côté, nous rappelle que ce travail de vérification et de filtrage de l’information est le propre de professionnels de l’information avec son infographie, en collaboration avec Wikipedia, « How to spot fake news »  posté sur Facebook et twitter et explique sur son blog comment les bibliothèques peuvent aider leurs utilisateurs à trouver des faits qui ne sont pas alternatifs … L’exemple de Wikipedia avec ses millions d’utilisateurs qui vérifient les articles peut être une garantie de bonnes pratiques informationnelles tout comme les ‘peer reviews’ des revues scientifiques. Le rôle historique des bibliothécaires dans l’’information literacy’ (formation à l’information) est aussi rappelé dans l’article de Donald Barclay de Conversation « The Challenge facing libraries in the era of fake news ». La désinformation n’a pas commencé avec les réseaux sociaux. Barclay cite le cas de la campagne menée par l’industrie du tabac dans les années 1960 qui s’appuyant aussi bien sur la presse populaire que sur des pseudo-revues scientifiques, sans parler du soutien de Barry Goldwater qui assimilait la dénonciation des effets du tabac sur la santé à un complot communiste !

media_image3Antonio Casilli a aussi rappelé que la manipulation de l’information ne date pas d’hier : la propagande, largement utilisée au 20e siècle, a été créée par l’Eglise catholique au 15e siècle (De propaganda fidei : sur la propagation de la foi) ! Le reste des fausses nouvelles passaient par la littérature de colportage et les complots, souvent en lien avec des puissances surnaturelles, se retrouvaient dans les écrits apocryphes et les mystères ….

Depuis les années 1970, la complexification des sources et des supports de l’information (bases de données, microfilms, informatisation), a rendu crucial le rôle des bibliothécaires universitaires pour former l’esprit critique des étudiants. Cette formation ne se limite plus à localiser des ouvrages ou des documents sur des étagères, mais à » identifier, organiser et citer des informations ». Aujourd’hui avec le foisonnement de l’internet, il ne suffit plus aux étudiants de savoir distinguer une revue scientifique comme Nature d’un magazine grand public, ils doivent différencier les articles de périodiques véritablement scientifiques de ceux de revues ‘prédatrices’ ou pseudo-scientifiques … Sans parler des données et des résultats faussés par les chercheurs eux-mêmes !

Un défi pour les professionnels de l’information

Devant l’incertitude qui entoure la fiabilité des données et dans un environnement universitaire de plus en plus changeant, où les étudiants sont plus souvent créateurs de nouveaux savoirs que consommateurs d’information, l’ACRL (Association américaine de bibliothèques de recherche) a lancé son « Framework for Information Literacy in Higher Education », cette charte pour la formation à l’information dans l’enseignement supérieur reconnaît que l’évaluation de l’information n’est pas une chasse au trésor ou les ressources identifiées seraient ‘bonnes’ ou ‘mauvaises’. L’autorité est construite et contextuelle et fait appel aux enseignants et aux bibliothécaires pour une approche de l’autorité et de la crédibilité à partir du contexte de l’information et non pas dans l’absolu. Pour D. Barclay cette position est beaucoup plus stimulante pour les étudiants que d’accepter l’autorité d’une source sans discussion ou de réfuter toute autorité comme anachronique au nom de la post-vérité !

C’est une approche semblable qu’a pris le Collectif SavoirCom1 en considérant la question de l’information sous l’angle des ‘Communs de la connaissance’ : en prenant l’exemple de Wikipédia, il montre qu’»un espace de publication constitué comme un commun résiste mieux aux fausses informations ». Le collectif veut favoriser l’émergence d’une communauté de ‘vigilance informationnelle autour du Décodex » : elle permettrait que les outils de vérification soient eux-même vérifiables, que les règles de contribution et de régulation soient clairement énoncées, que les sites évalués puissent faire appel de leur évaluant en démontrant leur mode d’élaboration et de transmission de l’information et enfin que les acteurs de l’information (organes de presse ou prestataires de services informationnels) s’impliquent dans la formation aux médias et à l’information des citoyens. On retrouve ici l’importance de la co-construction de l’information et du contexte prôné par l’ACRL dans son Framework.

 

Framework for Information Literacy for Higher Education/Association  of College & Research Libraries. - Ala.org, 11/01/16

Swaine, Jon. – Donald Trump’s team defends ‘alternative facts’ after widespread protests. – The Guardian, 22/01/17

L’annuaire des sources du Décodex : mode d’emploi/Les Décodeurs.Le Monde, 23/01/17

Dorf, Michael C. ; Tarrow, Sidney. – Stings and scams: ‘Fake news’, the First Amendment and the New Activist Journalism. – Cornell Legal Studies Research Paper n°17602, 26/01/17

Alternative Facts and Fake News : Verifiability in the Information Society. - Library Policy and Advocacy Blog [IFLA Blog], 27/01/17

How to spot fake news ? IFLA in the post-truth society. – Ifla.org, 01/02/17

Delcambre, Alexis ; Leloup, Damien. - La traque ardue des « fake news ». – Le Monde, 02/02/17

Yeh, Alexandra.- Les citoyens n’ont jamais été aussi méfiants envers les médias.Méta-média, 03/02/17

Glad, Vincent. – Qui décodera les décodeurs ? De la difficulté de labelliser l’information de qualité. – Libération, 03/02/17

Barclay, Donald A. – The Challenge facing libraries in an era of fake news. – The Conversation, 05/02/17

Bounegru, Liliana. - Three ways in which digital researchers can shed light on the information politics of the post-truth era. – Impact of Social Sciences, 06/02/17

Ertzscheid, Olivier. – La vie en biais. – Affordance.info, 07/02/17

Controverses autour du Décodex, un outil contre la désinformation ?Docs pour Docs, 07/02/17

Seabright, Paul. – Les « fake news », « quelques gouttes d’eau dans une cascade de propagande ». – Le Monde, 08/02/17

Decodex : on s’engage dans une guerre contre les ‘fake news’. S. Laurent (Le Monde), F. Ruffin (Fakir), L. Merzeau (SavoirCom1) débattent. – Arrêt sur image, 10/02/17

Lacour, Sophie. - Image, ma belle image, montres-tu la vérité ? – Usbek & Rica, 10/02/17

Manach, Jean-Marc. - Il est trop tard pour s’alarmer d’une cyber-guerre électorale. - Slate, 14/02/17

« Fake news » : les profs américains ajoutent l’éducation à l’information dans leurs cours. – VousNousIls, 15/02/17

Décodex, la controverse. – Blog UniversDoc, 20/02/17

[Tellement prévisible] Décodex victime d’un conflit d’intérêts patents …Les-crises.fr, 21/02/17

 

 

 

Surveillance : le tour de vis occidental

fingerprint with bar codeOn assiste, depuis quelques semaines, au renforcement de la surveillance de masse en Europe et dans les pays occidentaux. La vague d’attentats et le repli sécuritaire qui touche les démocraties pourraient expliquer ce phénomène.

En France, après le vote de la loi Renseignement en juillet 2015, nous avons eu début novembre l’annonce de la création du fichier TES qui devrait rassembler dans une seule base de données « les informations personnelles et biométriques de la quasi-totalité de la population » (Numérama).  Au Royaume Uni, le nouveau projet de loi sur le renseignement Investigatory Powers Act « qui marque un durcissement de la surveillance et légalise des pratiques déjà exercées en dehors de tout cadre juridique par les services de renseignement » (Le Monde). Avec cette loi, un certain nombre d’institutions et d’organismes britanniques – finances publiques, Agence de l’alimentation, Commission des paris, services de santé – en plus des services de police et de renseignement de tout le Royaume, pourra avoir accès à toutes les connections et enregistrements internet des citoyens et résidents en Grande-Bretagne (Independent).

Outre-Atlantique, la situation est aussi inquiétante : aux Etats-Unis, le FBI a passé un accord avec la société Dataminr pour accéder en temps réel aux 500 millions de publications quotidiennes de Twitter. Comme on le lit dans Les Echos, « Ce spécialiste du croisement des données (data mining) permet à ses clients (médias, banques, fonds d’investissements) d’obtenir des informations liées aux menaces terroristes, aux troubles sociaux et politiques etc.. ».  Après la victoire de Trump, la messagerie sécurisée Signal, a con a connu une augmentation de 400% de téléchargement comme le souligne Buzz Feed News. Le site Intercept a aussi interrogé les multinationales de l’internet pour savoir si elles étaient prêtes à collaborer pour mettre en place le « fichier des musulmans » préconisé par Trump : seul Twitter a refusé cette collaboration …

Et le Monde vient de révéler, suite aux derniers documents publiés par Snowden, que les smartphones des passagers d’Air France étaient espionnés en plein vol au profit de la NSA ou du GCHQ (services secrets britanniques) …

Au Québec, les services de police de la Ville de Montréal mettent sur écoute des journalistes comme Patrick Lagacé de la Presse, informe le blog Veille pour un(e) bibliothécaire engagé(e)Security camera

Néanmoins, un certain nombre d’institutions et d’organismes réagissent à ce tour de vis.

En France, le Conseil national du Numérique et la Cnil se montrent réservés vis-à-vis du Fichier TES. Le CNNum a carrément demandé la suspension de ce fichage généralisé de la totalité des Français …

Au niveau de l’Union européenne, une eurodéputée néerlandaise a attaqué devant le Conseil d’Etat la loi sur la surveillance internationale des communications électroniques, qui complète la loi sur le renseignement. « Sophie In’t Veld du groupe libéral ADLE a décidé de déposer 2 recours devant le Conseil d’Etat pour contester l’une de ces lois » écrit Julien Lausson dans Numérama.

Comment en est-on arrivé là ?

Nous avions évoqué les systèmes de surveillance massive dans des posts précédents, notamment l’intrusion de la NSA dans les communications électroniques, mais depuis la vague d’attentats en France et la mise en place de l’état d’urgence, un certain nombre de mesures de sécurité ont été renforcées.

La Loi Renseignement, votée en 2015, avait été partiellement retoquée par le Conseil Constitutionnel, notamment en ce qui concerne le volet surveillance internationale des communications électroniques. Ce texte, destiné à encadrer le renseignement à l’étranger, écarte explicitement les personnes résidant en France. Or deux députés socialistes, Patricia Adam et Philippe Nauche, ont déposé, à la demande du gouvernement en septembre 2015, une proposition de loi visant à combler « le seul trou laissé par le Conseil constitutionnel » comme  l’exprime Guillaume Champeau de Numérama. En facilitant l’interception massive des communications sur internet et les conversations téléphoniques, ce texte vise à « tranquilliser les agents de la DGSE qui agissent actuellement dans la plus grande illégalité, faute de loi encadrant leur surveillance ».  Le texte « aménage un régime spécial pour les services de renseignement qui souhaitent collecter et analyser massivement des communications électroniques depuis l’étranger ». Mais il concerne aussi les écoutes de communications émises « depuis l’étranger » ou si les personnes sont déjà « identifiées comme  présentant une menace au regard des intérêts fondamentaux de la Nation ». Donc, si des personnes résidant en France communiquent avec des personnes situées hors du territoire français, c’est le régime de cette proposition de loi qui s’appliquerait, comme le souligne Guillaume Champeau . Pour Sophie In’t Veld, cette loi malmènerait les droits dont bénéficie n’importe quel citoyen européen. Ses propres communications vers et depuis l’étranger – elle se rend souvent au Parlement européen à Strasbourg en tant qu’eurodéputée – « sont susceptibles d’avoir été interceptées ». En questionnant la légalité de ces mesures de surveillances, ces recours visent à obtenir la suppression des données personnelles collectées entre 2008 et 2015 (avant la loi sur la surveillance internationale) et ensuite démontrer qu’il existe une sorte de discrimination entre les Français et les autres citoyens de l’UE, ce qui va à l’encontre de la Charte des droits fondamentaux. postcard-surveillance-webversion1

Contenu et métadonnées : que surveille-t-on au juste ?

On a beaucoup évoqué le chiffrement des données pour échapper au piratage ou à la surveillance des communications électroniques. Mais le chiffrement porte généralement sur le contenu des communications et plus rarement sur les métadonnées, ces données techniques qui permettent le bon acheminement des communications (origine, destinataire, date, position géographique, etc.). Le Conseil national du numérique s’est penché sur le problème du chiffrement dans un article d’approfondissement, et plus précisément sur le chiffrement des métadonnées. S’il existe de manière de masquer certaines métadonnées, avec des réseaux de type Tor, la plupart des applications grand public, « assurent la confidentialité des contenus, mais ne peuvent pas garantir l’anonymat des utilisateurs ou des terminaux utilisés ».

Alors que traditionnellement les services de renseignement s’intéressaient au contenu des communications, on privilégie aujourd’hui de plus en plus le traitement automatisé des métadonnées. Ce passage du contenu au contenant, s’explique par plusieurs raisons. D’abord, l’analyse des métadonnées se prête mieux à une surveillance généralisée et automatisée : les métadonnées sont plus difficilement sécurisables et l’analyse des contenus implique un traitement individuel, donc plus coûteux. En plus, les contenus surveillés ne sont généralement pas explicites : les terroristes ne vont jamais dire « Rendez-vous à tel endroit pour placer la bombe » comme l’explique Rémi Récio délégué général à la Commission générale de contrôle des interceptions de sécurité (CNCIS), cité par le CNNum. « en revanche, il est plus important de reconstituer un réseau, donc des données techniques sont plus importantes que ce que vont dire les gens ».

Mais que faire avec ces quantités énormes de données ? Va-t-on analyser tous les renseignements collectés ? En fait, en prenant exemple sur la veille stratégique et l’intelligence économique, le système vise  « à débusquer les signaux faibles d’une activité criminelle ou terroriste par une surveillance généralisée des réseaux. Surveiller pour prévenir, mais aussi pour prédire ».

Une fois traitées par de puissants algorithmes, les données collectées en masse vont servir à l’établissement de ‘graphes sociaux’ (cartographie de réseaux de connexions et de relations entre individus en lien avec leur activité sur internet). Combinés à des outils statistiques, ces graphes sociaux vont aider à la constitution de patterns ou modèles de comportements, afin d’anticiper les risques d’une attaque terroriste. C’est ce que prévoit la Loi Renseignement de Juillet 2015, avec l’utilisation des fameuses ‘boites noires’ pour détecter les comportements ‘signants’.

arton15480-47b03Cette attitude est très dangereuse, car tout algorithme a une marge d’erreur et va donc identifier des personnes sans intention terroriste (des ‘faux positifs’). Si la marge d’erreur est de 1% (considérée comme faible), cela pourrait faire 600 000 personnes sur une population de 60 millions ! Alors que si le nombre de vrais terroristes est de 60, ils ne représentent que 0,01% …

Cela peut amener à des dérives, comme le fait de condamner à deux ans de prison ferme une personne ayant consulté de façon répétée des sites faisant l’apologie du terrorisme [quelle que soit la radicalisation effective du suspect, qui s’est révélée être assez importante]. Comme le souligne Olivier Ertzschied dans son post « De la confidentialité de l’acte de lecture », l’année où Mein Kampf entre dans le domaine public, « serait-il possible de condamner à deux ans de prison ferme un homme pour lecture régulière et répétée de Mein Kampf ? » Qu’y a-il de différent entre « la lecture répétée de brochure papier faisant l’apologie du terrorisme distribuées (et lues) en divers endroits de la planète et la lecture répétée de sites faisant l’apologie du terrorisme ? ». Pour le chercheur, « la confidentialité de l’acte de lecture est l’un des fondements essentiels de toute démocratie ». Encore une fois, c’est privilégier une idée de la sécurité au détriment des libertés fondamentales. « Pénaliser la lecture […] c’est condamner une intentionnalité supposée, c’est un ‘effet cigogne'[corrélation plutôt que causalité]». surveillance-electronique

Malheureusement, cette condamnation d’une intentionnalité de la lecture est en train de se concrétiser aux États-Unis, comme on le découvre dans le post de Thomas Fourmeux dans Biblio Numéricus « Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard) ». Cette transcription d’un article de l’EFF (Electronic Frontier Foundation) appelle les bibliothécaires à protéger leurs usagers les plus fragiles (adolescents, sans-abris, chômeurs, migrants) contre les agents du gouvernement qui viendraient enquêter sur les livres empruntés ou consultés et les mots-clés recherchés en ligne. Comme après la mise en place du « Patriot Act », les bibliothécaires américains s’inquiètent de la future administration Trump. « Les bibliothèques pourraient recevoir de la part du gouvernement des demandes de renseignements sans précédent sur les usagers »…

digital surveillance

 

Loi 2015-912 du 24 juillet 2015 relative au renseignement. – Légifrance, 27/07/15

Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance/Zigmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild et al. – Cultures et conflits, 2015/2 via Cairn.info

Rees, Marc. - Renseignement : l’exécutif annonce une proposition de loi sur la surveillance internationale. – NextInpact, 02/09/16

Champeau, Guillaume. – Surveillance internationale : ce que prévoit la proposition de loi. – Numérama, 10/09/15

Chantrel, Flavien. – Tristan Nitot « Une société sous surveillance n’est plus une société libre ». – Blog du modérateur, 05/07/16

De la confidentialité de l’acte de lecture : les algorithmes en prison. – Affordance.info, 14/08/16

Nitot, Tristan. – Surveillance : // Les libertés au défi du numérique : comprendre et agir. – Paris : C&F éditions, Blogcollection, 2016

Rees, Marc. – Loi Renseignement : un an après, où en est la centralisation des données . – NextInpact, 10/10/16

Conseil National du Numérique. – Communiqué de presse : Fichier TES : le CNNum appelle le gouvernement à suspendre sa mise en oeuvre et s’autorise à examiner des alternatives techniques plus modernes et respctueuse des lois et des libertés. – Paris, 07/11/16

Rees, Marc. – Le CNNum demande la suspension du fichage 60 millions de Français. – NextInpact, 07/11/16

Lausson, Julien. - Le CNNum demande la suspension du fichage biométrique des Français. – Numérama, 07/11/16

Il faut renoncer à l’extension de la collecte des données biométriques /Un collectif. – Libération, 20/11/16

Grondin, Anaelle. - Plus aucun tweet n’échappera au FBI. – Les Echos, 17/11/16

Surveillance : ce que contient la nouvelle loi sur le renseignement britannique. – Le Monde, 21/11/16

Griffin, Andrew. – Everyone can now see your entire internet history. – The Independent,  24/11/16

Investigatory Powers Act - Parliament UK, 29/11/16 :

Untersinger, Martin ; Follerou, Jacques. – Espionnage des avions, d’Israël et de l’Autorité palestinienne : nouvelles révélations de Snowden. – Le Monde, 07/12/16

Fourmeux, Thomas. - Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard). – Biblio Numericus, 08/12/16

 

 

Numérique : quelques prévisions pour 2016

mail-delivery-what-1900-french-artists-thought-the-year-200-would-be-likeRien de particulièrement révolutionnaire dans les différentes prédictions pour 2016. Les principales tendances amorcées ces dernières années se confirment : prépondérance des appareils mobiles, cloud et mégadonnées, automatisation et intelligence artificielle, notamment avec l’internet des objets et les villes connectées. On retrouve l’essentiel des prédictions tech/médias du rapport Deloitte pour 2015, cité par Barbara Chazelles dans Méta-média : abandon de la télévision par les jeunes au profit des vidéos sur mobiles et généralisation des paiements mobiles ; renouvellement des smartphones (phablettes) ; internet des objets, imprimantes 3D et drones (surtout pour les entreprises). En revanche, les e-books ne décollent toujours pas, le livre papier conservant la préférence des lecteurs !

objets-connectesLa sécurité des protocoles et des applications va devenir le grand défi dans le contexte des mégadonnées et de l’internet des objets comme le souligne Mike Martin, responsable de la société d’engineering internet Nfrastructure, dans l’interview accordée à ITBriefcase.

Au niveau de l’enseignement et de la formation, les Moocs et la formation en ligne et à distance investissent la formation professionnelle. L’intelligence artificielle pénètre aussi le champ de l’éducation avec la présence d’algorithmes qui vont intégrer l’école et l’Université pour évaluer la progression des apprenants tout en recueillant une quantité importante de données personnelles, comme l’évoque Audrey Watters dans The algorithmic future of education

1200px-france_in_xxi_century._school1Enfin, les représentations visuelles évoluent aussi, c’est ce que démontre la banque d’image Getty Image avec les tendances 2016 Creative in Focus, expliqué par Alice Pairo dans Méta-Média : 6 types d’images se profilent pour 2016 : l’outsider, le divin, l’homme augmenté, le disgracieux, la solitude et le surréalisme ….!

Bonnes fêtes et meilleurs voeux pour 2016 !

prédictions-1900-futur-e1365458441758

Chazelle, Barbara. – 10 prédictions tech/médias pour 2015 (Deloitte). – Méta-média, 04/02/15

Watters, Audrey. – The Algorithmic Future of Education. – Hackeducation, 22/10/15

IT Briefcase Exclusive Interview : Top IOT Trends and Predictions for Organizations in 2016. – IT Briefcase, 02/12/15

Pairo, Alice. – Social media : 10 tendances pour 2016. – Méta-média, 06/12/15

Les villes intelligentes connecteront 1,6 milliards d’objets communicants en 2016. – L’embarqué, 08/12/15

Économie du numérique : Axway dévoile 10 prévision pour 2016. – Axway, 08/12/15

Noirfontaine, Elisabeth. – L’internet des objets, allié des ressources humaines ou outil de déshumanisation du travail ?Usine digitale, 22/12/15

Larcher, Stéphane. – Google travaille sur une messagerie instantanée dopée à l’IA et aux chatbots. – L’informaticien, 23/12/15

Cavazza, Frédéric. – Mes 10 prédictions pour 2016. – FredCavazza, 23/12/15

Pairo, Alice. – 6 tendances visuelles pour 2016. – Méta-média, 23/12/15

Ezratty, Olivier. – Méta-prédictions pour 2016. – Opinions libres, 27/12/15

Lire, écrire à l’ère numérique – 2 – Ecriture et éditorialisation

La grammatologie

84135761_oComme il a été évoqué dans le post précédent, l’écriture est très liée au dispositif de lecture. L’écriture n’est pas la transcription fidèle de la parole pleine sur un support, ce n’est pas une simple reproduction du langage. C’est ce que Derrida explique dans la De la Grammatologie[1]  « La brisure [de l’écriture] marque l’impossibilité pour un signe, pour l’unité d’un signifiant et d’un signifié, de se produire dans la plénitude d’un présent et d’une présence absolue ». Cette distance de l’écriture par rapport au langage et à la pensée, va être traduite par la notion de ‘trace’ : « cette trace est l’ouverture de la première extériorité en général […] : l’espacement ». Derrida arrive ensuite à la notion de ‘gramme’ (que l’on retrouve dans ‘programme’ « Depuis l’’inscription génétique’ et les ‘courtes chaînes’ programmatiques réglant le comportement de l’amibe ou de l’annélide jusqu’au passage au-delà de l’écriture alphabétique de l’ordre du logos et d’un certain homo sapiens, la possibilité du gramme structure le mouvement de son histoire ». On retrouve ici l’idée de codage spécifique de certaines aires neuronales que le neuropsychologue Stanislas Dehaene avait identifié pour la lecture. C’est ce que souligne aussi Christian Fauré dans son post Généalogie d’un lecteur : L’écriture est une ‘grammatisation’ (le codage) d’un message et la lecture, la ‘dégrammatisation’. En lisant, on écrit aussi dans le cerveau, on décode ce qui est tracé sur le support. Si on n’effectuait pas ce processus de décodage, on lirait comme une ‘tête de lecture’, sans rien comprendre … ! Ou tout au moins en ne comprenant que très partiellement …. traces

La lecture, surtout dans un environnement scientifique, s’accompagne souvent d’écriture, soit sur le support lui-même, annotations, surlignages, soit sur un autre support : fiche de lecture, notice, etc. Ces balisages divers signalent que la lecture a dépassé le stade alphabétique pour atteindre un stade cognitif : tri, sélection. Comme le fait remarquer Christian Fauré, peu importe si on ne relit pas ses propres annotations, car « souligner un livre c’est aussi et en même temps écrire dans son cerveau ». Ces gribouillis si souvent réprimés par les éducateurs et les bibliothécaires – c’est vrai qu’ils endommagent les ouvrages – vont retrouver une nouvelle vie avec le numérique ! Les lecteurs ‘écrivants’ d’aujourd’hui vont aussi pouvoir partager leurs commentaires avec d’autres lecteurs comme dans les bibliothèques du Moyen-Age où chaque clerc ajoutait son commentaire dans la marge ! La différence, c’est que l’on peut les faire apparaître ou disparaître en fonction des besoins.

Dans l’environnement numérique des e-books, chaque lecteur peut conserver ses annotations sur la plateforme de lecture en ligne. De même, de nombreux outils existent pour catégoriser et annoter les articles et blogs sur la Toile. C’est ce qui me permet d’écrire moi-même ce post à partir de tous les articles que j’ai recensé sur Diigo à partir du tag ‘écriture’moleskine_ecriture_infinie_698

L’éditorialisation du web

Le grammatologue allemand Ulmer appelle cette nouvelle compétence ‘electracy’, electronic literacy. C’est pourquoi l’écriture dans l’environnement numérique ne peut être la reproduction à l’identique de l’œuvre numérisée, comme c’est le cas aujourd’hui des e-books et des revues en ligne. C’est l’objet de la série de séminaires organisés depuis 2011 par l’IRI au Centre Georges Pompidou « Ecritures numériques et éditorialisation ». Dominique Cardon et Audrey Laplante démontrent dans une de ces conférences comment fonctionne le dispositif d’éditorialisation de contenus sur le web. Grâce à une structuration des données par des algorithmes, l’internaute les atteint après un ‘parcours de lecture’. Il ne se trouve pas directement en relation avec les producteurs de contenus. La plupart du temps, il doit passer par les algorithmes des moteurs de recherche (PageRank de Google) ou des réseaux sociaux (EdgeRank de Facebook).

L’écriture sur le web passe aussi par les différentes sortes de messageries (mels, messageries instantanées, microblogging) qui permettent aux individus d’exprimer leurs opinions et leurs sentiments sur toutes sortes d’informations et d’évènements. Et ce, pas seulement au moyen d’écriture alphabétique mais aussi à travers plusieurs autres médias : infographies, photos, vidéos, etc.

Avec les sites web, blogs et réseaux sociaux, l’écriture n’est plus réservée aux seuls professionnels, journalistes ou spécialistes en communication des entreprises ou des organismes publics. Chacun peut devenir rédacteur ou éditeur de son propre contenu … Malgré l’importance et l’omniprésence des images, fixes ou animées, les jeunes n’ont jamais autant écrit qu’en ce début de 21e siècle !

De plus, des outils dédiés (Framapad) permettent de plus en plus une écriture collaborative, qui va de l’administration à la recherche (compte rendus de réunions, de colloques) à la fiction (cadavres exquis, romans collectifs).

Toutes ces activités laissent évidemment des traces sur les réseaux. Nous retrouvons donc ici la notion-clé de l’écriture théorisée par Derrida : la ‘trace’. Ce sont ces traces qui vont alimenter aussi bien la surveillance des « Big brothers » dictatoriaux ou démocratiques que les serveurs des entreprises et des organisations à travers le traitement des mégadonnées (Big Data)… !

2013-05-22 003Le traitement de certaines traces, les métadonnées, vont servir de balises sémantiques pour se repérer dans le chaos du web, c’est le rôle des moteurs de recherche. Ces derniers explorent le web en lisant d’abord des milliards de pages à l’aide de logiciels robots et les indexent automatiquement. Ensuite, ils ne se contentent pas de présenter les résultats de façon brute : ceux-ci sont présentés, éditorialisés en fonction d’algorithmes bien précis (PageRank).

En attendant les robots-écrivains, les ‘robots-journalistes’ !

Slate signale l’expérience d’Associated Press avec la rédaction d’articles par des logiciels robots. Pour le moment il s’agit essentiellement de dépêches traitant les résultats financiers d’entreprises financières américaines qui vont être intégrées en direct dans le fil international d’AP. Même s’il s’agit pour le moment de tâches de base qui ne passionnent pas les journalistes (extraire des informations des bases de données) mais que les automates sont beaucoup plus rapides et efficaces à traiter … Tous les professionnels de l’information, documentalistes, veilleurs, traducteurs, rédacteurs se sentent menacés par l’émergence de cette concurrence virtuelle, mais l’intelligence artificielle a encore de grands progrès à faire avant mettre en dangers toutes ces professions intellectuelles … automated robot journalism

[1] Derrida, Jacques. – De la grammatologie. – Paris, Ed. de Minuit, 1967.


 Enseigner l’écriture numérique. – Dossier séminaire PRECIP – UTC de Compiègne, 4-5 avril 2012 – Revue Skhole.fr

Généalogie d’un lecteur (2) : l’écriture du lecteur. – Christian Fauré, 01/07/12

L’écriture numérique, une écriture sociale ? – Le rendez-vous des lettres – Eduscol, 2012

Gilliot, Jean-Marie ; Scarlatti, Serge. – Écritures collaboratives pour des cours ouverts sur le web. – Institut Mines Télécom – Télécom Bretagne, 2012

How does writing modifies your brain ? [infographic]. – Daily Infographic, 26/05/13

750 auteurs réunis pour l’écriture d’un roman collectif. – Actualitté, 07/11/13

De la stratégie de contenu web à la stratégie d’information web. – Plume interactive, 10/06/13

Sicot, Timothée. – SMS et réseaux sociaux améliorent l’écriture des étudiants. – L’Atelier : disrupture innovation, 24/09/13

Cardon, Dominique ; Laplante, Audrey. – Algorithmes et éditorialisation automatisée – Ecriture numérique et éditorialisation. – Polemic Tweet, 24/04/14

Oresmus, Will. – Journalisme-robot : le soulèvement des machines à écrire. – Slate, 27/07/14

 

 

Quels modèles de propriété intellectuelle pour les univers virtuels ?

C’est la question que posait la conférence de i-expo « Propriété de l’information : vers de nouveaux modèles juridiques ? » organisée par l’ADIJ, le 18 mai dernier. Les règles actuelles du droit d’auteur sont bousculées en effet par les pratiques des technologies numériques et de nouveaux modèles juridiques restent à inventer.
Le modérateur Alain Bensoussan, avocat à la Cour d’appel de Paris, a comparé la situation actuelle avec celle des années 1900 lorsque l’on déplorait le vol d’électricité. On pouvait constater l’existence de fraudeurs et de personnes dépossédées, mais comment prouver l’existence d’une ‘propriété virtuelle’ ? Il existe des valeurs virtuelles avec destruction des valeurs réelles. Il existe, en effet deux combats, l’un pour la propriété positive (contrats) et le second pour la propriété « négative » (contrefaçon, atteinte aux personnes, vol). Jusqu’à présent, la Cour de Cassation refuse de reconnaître un vol d’information s’il n’y a pas de support matériel … Existe-t-il une propriété virtuelle ? Non, pas en l’état actuel. Existe-t-il des solutions ? Peut-être ou sûrement …
Si la plupart des intervenants (Yves Leroux, Consultant CA Technologie, Laurent Berard-Quélin, Directeur général délégué de la Société Générale de Presse, président de la Commission des médias électroniques, FNPS et Xavier Dalloz, Président, Xavier Dalloz Consulting) ont défendu l’idée d’une propriété intellectuelle virtuelle, seul Georges Chatillon, Directeur du Master Droit de l’internet, Maître de Conférences, Ecole de Droit de la Sorbonne, a reconnu dans l’information et les oeuvres de l’esprit un « Bien commun de l’humanité », à protéger, non pas avec des contrats commerciaux mais avec le « Creative Commons ». Y. Leroux a développé ses arguments pour les jeux vidéo et en ligne, nous citant des cas faramineux d’arnaque et de vols de milliards de crédits (Runscape, Zinga, Affaire Playstation, victime d’une attaque pirate). L. Bérard-Quélin a défendu la presse et l’édition en ligne, arguant de la complexification et de l’accélération du métier (le scoop journalistique est passé avec Twitter, d’une journée à une minute…) Il a aussi réfuté l’idée que le numérique coûte moins cher que le papier, car il y a des investissements lourds et une inflation des coûts avec la multiplication des supports numériques (Ipad). On est passé d’une économie de stock à une économie de flux. Xavier Dalloz, quant à lui, s’est attaqué au rôle-clé des données, en prédisant qu’avec 50 milliards d’objets connectés en 2050, on allait assister à une production immense de données interactives. On entre enfin dans une logique de réseaux collaborative et communautaire, avec un point de passage important : l’accès. On ne dit plus « ça m’appartient » mais « j’appartiens à » (communauté). On parvient à la construction de la confiance avec un « tiers de confiance » dans l’économie systémique en réseau. La notion de propriété n’a plus de sens aujourd’hui, pas plus que celle de vie privée … On est en train d’aller vers une médiation basée sur l’abonnement, avec l’émergence du concept de monnaie privative ou attributive, vers un internet transactionnel.
La discussion a porté sur le droit à l’oubli vs le ‘devoir de mémoire’, le droit d’accès et le droit d’abonnement qui fait des internautes des « co-propriétaires » de l’information et des réseaux sociaux qui représentent soit un nouvel esclavage, soit l’instrument de la libération des peuples (printemps arabe) ….

Blogs ou médias sociaux, que choisir ?

On a un peu vite enterré les blogs au profit des nouveaux acteurs de la toile que sont les médias sociaux. C’est ce qu’affirment Loïc Le Meur dans ses vidéos sur YouTube « Votre entreprise sur les médias sociaux » et aussi Julien Bonnel, qui le rapporte dans son post du 27 avril « Les blogs ne sont pas morts à l’ère des médias sociaux ». Il reprend les arguments de L. Le Meur (les blogs sont des points de rassemblement de communautés, ils permettent de développer beaucoup mieux une argumentation qu’avec les 140 caractères de Twitter ou les quelques lignes de FaceBook, le contenu d’un blog peut aussi se partager sur les réseaux sociaux) et en ajoute d’autres : le contenu d’un blog est beaucoup plus viral, il peut être archivé et est facilement accessible…
Mais il reconnait aussi les contraintes de rédaction et de temps qu’implique la tenue régulière d’un blog.
En fait, ce que souligne surtout Loïc Le Meur dans ses vidéos, c’est l’importance prise par les réseaux sociaux aujourd’hui. Pour une entreprise ou une institution, FaceBook, Twitter, YouTube ou Viadeo sont incontournables pour être présent sur la Toile. Toute organisation doit désormais penser sa communication en tenant compte de ces nouveaux médias. Blogs et réseaux sociaux ne s’opposent pas sur l’Internet, ils sont complémentaires.
C’est d’ailleurs grâce à la page FaceBook de Bibliobsession où j’ai trouvé ces informations que je vous communique sur ce blog ….;-)

Staypressed theme by Themocracy