Category: Droit de l’information

Une loi contre les « fake news » : quelle efficacité ?

fake_news_facebookAnnoncée par le Président de la République lors des vœux à la presse en janvier 2018  la proposition de loi relative à la lutte contre la manipulation de l’information a été adoptée à l’Assemblée nationale le 7 juillet mais rejetée par le Sénat le 26 juillet. Ce projet de loi a pour objectif de lutter contre la diffusion de fausses informations, particulièrement lors des campagnes électorales. L’expérience de diffusion massives de ‘fake news’ qui ont pu influencer les électeurs lors de la campagne présidentielle américaine en 2016 et du referendum sur le Brexit en Grande-Bretagne, (voir le post de Prospectibles), a amené les démocraties à réfléchir aux mesures à prendre pour lutter contre la désinformation et la manipulation de l’information.

La Commission européenne recommande, après la publication d’une communication sur la désinformation en ligne, un code bonnes pratiques et le soutien à un réseau indépendant de vérificateurs de faits. En Allemagne, une loi récente contraint les réseaux sociaux à une modération réactive. Au Royaume-Uni, une commission d’enquête mise en place en 2017 a pour objectif de lutter contre la diffusion de fausses nouvelles en impliquant les GAFA.

En France, comme le constatait dans son avis du 19 avril le Conseil d’Etat, le droit français contient déjà plusieurs dispositions visant à lutter contre les fausses informations : la loi de 1881 sur la liberté de la presse permet de » réprimer des propos sciemment erronés, diffamatoires, injurieux ou provocants ». La Loi de 2004 pour la confiance de l’économie numérique les a rendus applicables aux services de communication publique en ligne. Le code électoral contient aussi des dispositions visant à garantir le bon déroulement des campagnes électorales en luttant aussi bien contre la diffusion des fausses nouvelles que contre la publicité commerciale à des fins de propagande électorale.

La proposition de loi

Le gouvernement explique la nécessité d’une nouvelle loi en raison du changement d’échelle de la diffusion des fake news permis par les outils numériques et les réseaux sociaux. Comme le souligne Françoise Nyssen, Ministre de la culture et de la communication « Les fausses informations ne sont pas nécessairement plus nombreuses qu’avant, mais elles sont relayées plus rapidement et plus massivement. Elles se propagent jusqu’à six fois plus vite que les informations vérifiées. Elles font donc plus de dégâts ».

Dans la proposition de loi « Toute allégation ou imputation d’un fait inexacte ou trompeuse constitue une fausse information ». Les opérateurs de plateformes en ligne sont tenus de fournir à l’utilisateur, outre une information sur l’identité des fournisseurs de contenus, « une information loyale, claire et transparente sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ».

Elle crée un nouveau référé, pendant les trois mois précédant une élection, pour faire cesser la diffusion artificielle et massive de fausses informations destinées à altérer la sincérité du scrutin. Il s’agit de lutter contre les contenus sponsorisés et les systèmes robotisés, les « fermes à clics », qui véhiculent ces fausses informations et qui le feraient sciemment, en sachant que l’information est fausse.

Mais surtout, le juge des référés peut, « à la demande du ministère public, de tout candidat, de tout parti ou groupement politique ou de toute personne ayant intérêt à agir, et sans préjudice de la réparation du dommage subi, prescrire aux personnes physiques ou morales toutes mesures proportionnées et nécessaires pour faire cesser cette diffusion. » Comme le souligne le dossier d’actualité Vie publique « Un candidat ou un parti pourrait saisir le juge des référés pour faire cesser la diffusion de ces « fausses informations » quand il s’en estime victime. Le juge statuerait dans un délai de 48 heures. » Le CSA se voit confier de nouvelles compétences et devient le garant du devoir de coopération des plateformes. Outre son pouvoir de sanction à l’encontre des services de communication audiovisuelle (radio, télévision, vidéos à la demande publics et privés) en cas de non-respect de leurs engagements, le CSA pourra aussi « refuser le conventionnement ou résilier une convention d’une chaîne liée à un État étranger ou sous son influence. » Il peut aussi » suspendre la convention d’une chaîne pendant une période électorale ou pré-électorale si elle participe à une entreprise de déstabilisation en diffusant de façon délibérée des fausses informations de nature à altérer la sincérité du scrutin. »

Enfin, le projet de loi comprend aussi des dispositions portant sur le renforcement de l’éducation aux médias et à l’information pour l’acquisition d’une citoyenneté numérique dans le cadre de l’enseignement moral et civique.

censorship-550x206Le débat

La proposition de loi a fait l’objet d’un débat houleux à l’assemblée avant son adoption, notamment en ce qui concerne la définition de fausse information qui s’est achevé par l’adoption d’un amendement remplaçant l’idée de « mauvaise foi » par celle d’intention « délibérée ». Les oppositions de droite et de gauche ont exprimé leurs réticences « Pour les élus de l’opposition, la proposition de loi serait synonyme de censure et de contrôle de l’information, voire d’une dérive autoritaire du pouvoir. Christian Jacob (député LR) craint une « police de la pensée », Marine Le Pen (FN) dénonce un texte « liberticide », Boris Vallaud (PS) une « loi de circonstances ». (Dossier Vie Publique). Pour Jean-Luc Mélenchon (LFI), le CSA, autorité administrative, n’est pas légitime pour juger si un média étranger outrepasse sa fonction …

Des juristes et des médias critiquent aussi ce texte, comme Christophe Bigot, avocat en droit de la presse, interviewé sur RT France, qui trouve ces méthodes archaïques ; ou Me Thierry Vallat, avocat au barreau de Paris qui dans un interview sur RT France, s’interroge sur la notion de fausse information, qui renvoie plutôt à ‘bon ou mauvais journaliste’ : pour lui le gouvernement cible la chaîne RT France. En ouvrant au CSA la porte d’internet, on ignore ce qui risque de se passer après. Comment pourra-t-il réguler les plateformes ? Cette loi « inapplicable et dangereuse » ouvrirait la boite de Pandore. Sur son blog du Figaro, Alain Bensoussan, avocat à la Cour d’appel de Paris et expert en droit des technologies de l’information suggère « Plutôt que légiférer dans l’urgence, il faut repenser le texte en encadrant le rôle des plateformes et des robots logiciels dans la diffusion de fausses informations. »

De la propagande à l’architecture du faux : les différents canaux du ‘fake’

La prolifération des fausses nouvelles ne date pas d’hier : Patrick Chastenet, professeur de science politique à Bordeaux, le rappelle dans son article de The Conversation ; la propagande et la manipulation de l’information ont été utilisées par le tyran Pisistrate au Vie siècle avant J.C.  Comme le remarque un partisan du Brexit, les électeurs préfèrent que l’on s’adresse à leurs tripes plutôt qu’à leur raison … Aux Etats-Unis, les messages politiques mensongers n’ont pas commencé avec Trump. Déjà, en 2008, Sarah Palin, candidate à la vice-présidence, répandit l’idée que la réforme du système de santé prévoyait des ‘death panels’ où des comités gouvernementaux décideraient du sort des personnes âgées ou handicapées ! Près de 30% des américains ont cru que ces « panels » faisaient partie de la réforme … Le site Politifact révèle que 70% des déclarations de Trump « étaient principalement fausses, fausses ou de pure invention ».  A présent, comme l’indique l’article du Washington Post, c’est Donald Trump lui-même qui s’estime victime de ‘fake news’ de la part des médias et même du moteur de recherche Google qui ne remonterait sur lui que des informations négatives si bien qu’un de ses conseiller économique propose de ‘réguler’ ces recherches !

Les Américains sont-ils donc plus crédules que les autres ? Ils sont surtout plus connectés et plus nombreux à s’informer en ligne et principalement sur les réseaux sociaux. La nouveauté réside dans le caractère viral des informations, vraies ou fausses, relayées sur les réseaux sociaux et les forums de discussion. Contrairement aux théories généreuses des pionniers du web, les internautes ne bénéficient pas de « démocratie numérique » fondée sur un accès égal pour tous à la connaissance. Alors que la masse d’information n’a jamais été aussi vaste et rapidement disponible, l’information non filtrée par des algorithmes devient plus rare en raison de nos choix antérieurs. En effet, nos recherches antérieures et nos choix sur les réseaux sociaux (likes, RT, etc.) nous enferment dans des boucles de filtres qui produisent un cercle vicieux dont nous ne sommes souvent pas conscients … 1d162bf19fb6e1f83aa71ed060459d59d872aee3-thumb-500xauto-64860

Comme le souligne Olivier Ertzscheid dans son post, les plateformes constituent « une architecture toxique au service du faux […] Et cette architecture est celle, visible, de la promiscuité des profils dans Facebook, comme elle est aussi celle, invisible, de l’orchestration algorithmique de la viralité qui unit les GAFAM. ». Cette ‘promiscuité’ sur les plateformes implique qu’il est impossible de ne pas propager de fausses informations, comme il est impossible de ne pas y être confronté ou exposé …

Cette architecture du faux, qui se double aussi d’une architecture de l’invisibilisation – les ‘Shadow Profiles’ (utilisateurs malgré eux des réseaux sociaux) et les ‘Dark posts (publicités ciblées sur Facebook à partir des données personnelles). Seule une architecture technique autorisant d’autres usages, comme un index indépendant du web, en remettant les ressources documentaires au centre à la place des personnes. La disparition de Google Reader et la fin programmée des fils RSS n’est pas un hasard et est corrélée avec des logiques de désinformation.

Les biais cognitifs et la question de la confiance

51fmZrX204L._SX195_Olivier Ertzscheid pointe aussi une autre raison : nos biais cognitifs « Nous avons une appétence, une gourmandise presque « naturelle » pour le faux, la tromperie et l’illusion. Et c’est de cette appétence dont l’architecture technique se repaît ».

C’est aussi ce que souligne Katy Steinmetz dans un article de Time. Dans une expérience menée par le chercheur en psychologie de l’Université de Stanford Sam Wineburg, un professeur d’université devant évaluer une publication scientifique de l’American College of Pediatricians, est abusé par un site web qui comporte toutes caractéristiques d’un site officiel. Le « .org » à la fin de l’url, la liste de références scientifiques, le design sobre du site, tout l’amène à la crédibilité. Or le site en question représente un groupe qui a est le produit d’une scission conservatrice de l’organisation officielle : il a été accusé de promouvoir des politiques homophobes et est classé comme discriminatoire (hate group). L’équipe de Wineburg a trouvé que des Américains de tous âges, des adolescents ‘digital natives’ aux universitaires de haut niveau, ne se posent pas les questions importantes au sujet des contenus qu’ils trouvent sur le web, ajoutant encore à la crédulité numérique. C’est aussi ce qui amène les internautes à retweeter des liens sans les ouvrir et à se reposer sur les moteurs de recherche. Pour Wineburg, la consommation d’information sur internet « C’est comme si on conduisait des voitures sans avoir de permis ». Même si des lois et des services de renseignement pouvaient débusquer tous les mauvais acteurs du bout de leurs claviers, il serait imprudent de nettoyer l’internet de toutes ses affirmations trompeuses … Dénoncer une information comme ‘fake news’ peut même la rendre plus populaire, C’est ce que Facebook a constaté lorsque le réseau social a alerté ses utilisateurs que certains posts pouvaient être des ‘hoaxes’ (canulars) avant de réaliser que cette approche ‘immunisante’ pouvait être contre-productive …

On retrouve cet aspect contre-productif du ‘débunkage’ (démystification) des ‘hoaxes’ avec le service de fact-checking de l’AFP. Aurore Gayte relate dans son article du Monde comment ce service a réussi à démystifier une vidéo très partagée sur internet censée représenter la mise en scène de migrants en train de se noyer (on voit des personnes sur la plage filmant des hommes et des femmes voilées émergeant à peine de l’eau). Les journalistes de l’AFP ont pu retrouver, grâce à une analyse détaillée de la vidéo, l’origine de ce document : il s’agit d’un documentaire tourné en Crête par une réalisatrice grecque sur un événement en Turquie en 1922, quand les Grecs ont fui l’incendie d’Izmir. Et pourtant, « même en étant une référence mondiale, et même après avoir expliqué point par point le raisonnement derrière un fact-checking, ils sont nombreux à ne toujours pas vouloir croire ce que dit l’AFP. »

Olivier Ertzscheid désigne aussi une autre raison : les ‘régimes de vérité’ de chaque plateforme : « la popularité pour Google (est « présenté comme vrai » ce qui est populaire), la vérifiabilité sur Wikipédia, et sur Facebook ce que l’on nomme « l’engagement » ou le « reach » c’est à dire une forme singulière, perverse et paroxystique de popularité. Ainsi ce qui est faux sur Google ou sur YouTube peut être vrai dans Wikipédia ». Avec ces différents régimes, il est difficile de départager le vrai du faux et aussi dangereux de se servir de l’un, par exemple Wikipedia pour en démentir un autre, par exemple YouTube … Pour le chercheur « Le dé-référencement à la hussarde est aussi efficace qu’il est à manier avec une extrême précaution tant il renforce là encore un régime d’arbitraire limité à la seule décision de la plateforme ».

L’éducation à l’information et aux médias semble être la principale solution à long terme. L’initiative de la journaliste Aude Favre avec sa chaîne YouTube « WTFake » contre la désinformation sur internet, signalée par Vincent Manilève dans Libération constitue une première réponse au niveau du grand public. Pour les étudiants, les ateliers comme celui des BU de Rennes sur l’évaluation de l’information et le problème des fake news en bibliothèque, rapporté par Damien Belveze (Doc@rennes) devrait pouvoir se multiplier. Comme l’a formulé Edward Snowden dans une interview citéé dans le Fil d’Actu « la réponse aux mauvais discours n’est pas la censure, mais plus de discours ».

xfakenews_0.jpg.pagespeed.ic_.232PSP6q2x

Pour l’avocat Christophe Bigot, « la loi sur les fakes news correspond à des méthodes archaïques. - RT France, 04/04/18

Parce que notre ligne éditoriale ne convient pas au pouvoir en place, serons-nous bientôt censurés ?RT France, 06/04/18

Ertzscheid, Olivier. - Fifty Shades of Fake. Le jour des fous et des mensonges. Et les 364 autres.Affordance.info, 22/04/18

Kodmani, Hala. – Russia Today, Sputnik … Un mois d’intox passé au crible. – Libération, 03/05/18

Deschamps Christophe. – Des faits alternatifs à la « Deep Fake Reality » ou comment on fabrique de la poudre aux yeux. – Outils froids, 04/05/18

Loi contre les fausses informations : l’avis du Conseil d’Etat. – Les Crises, 05/05/18

Belvèze, Damien. – Compte-rendu de l’atelier : comment aborder l’évaluation de l’information et le problème des fake news en bibliothèque ? (17/05/18). – Doc@Rennes, 23/05/18

Casilli, Antonio ; Devilliers, Sonia. – Comment se fabriquent les « fake news » ?France Inter, 08/06/18

Chastenet, Patrick. – Fake news, post-vérité … ou l’extension du domaine de la propagande. - The Conversation, 12/06/18

Fausses nouvelles, manipulation de l’information : comment lutter contre les fake news ? Dossier d’actualité - Vie publique, 20/06/18

Manilève, Vincent. – Aude WTFake pedago contre la désinformation sur Internet.Libération, 02/07/18

Proposition de loi relative à la lutte contre la manipulation de l’information : texte adopté n° 151. – Assemblée Nationale, 03/07/18

Les enjeux de la loi contre la manipulation de l’information. – Ministère de la Culture, 04/07/18

Vallat, Thierry. – La loi anti-fake news, une loi « liberticide » : entretien. – RT France via YouTube, 04/07/18

Bensoussan, Alain. -Diffusion de fausses nouvelles par des robots logiciels, enjeu de la loi Fake news. – Droit des technologies avancées – Le Figaro, 20/07/18

Steinmetz, Katy. – How your brain tricks you into believing fake news. – Time, 09/08/18

Gayte, Aurore – Comment fonctionne le « fact-checking » à l’AFP ?Le Monde, 23/08/18

Romm, Tony. – Trump’s economic adviser : ‘We’re taking a look’ at wether Google searches should be regulated.The Washington Post, 23/08/18

 

Big data, open data, protection des données personnelles : où en sont la science et l’utilisation des données ?

Cloud hackingLes données sont partout, aussi bien dans la vie quotidienne que dans la recherche. Une nouvelle discipline, la science des données, mobilise des experts en mathématique et informatique pour analyser et traiter ce ‘pétrole’ du 21e siècle à coup d’algorithmes et de logiciels d’intelligence artificielle. Tout au long de la journée, des ‘bots’ (petits logiciels d’IA) et des objets connectés les recueillent grâce à des capteurs. On y accède librement, grâce aux dispositifs d’open data, que ce soit dans la ville intelligente (smart city) ou au niveau de la ‘science ouverte’. Les GAFA et autres géants du net se disputent nos données personnelles en investissant des milliards pour les exploiter. Quel droit et quelles réglementations doit-on mettre en place pour protéger ces données tout en profitant de ces nouvelles ressources ?

La science des données

La science des données (en anglais data science) est une nouvelle discipline qui s’appuie sur des outils mathématiques, de statistiques, d’informatique (cette science est principalement une « science des données numériques »4) et de visualisation des données. Le premier objectif du « data scientist » est de produire des méthodes (automatisées, autant que possible) de tri et d’analyse de données de masse et de sources plus ou moins complexes ou disjointes de données, afin d’en extraire des informations utiles ou potentiellement utiles. Pour cela, le « scientifique des données » s’appuie sur la fouille de données, les statistiques, le traitement du signal, diverses méthodes de référencement, l’apprentissage automatique et la visualisation de données. Il s’intéresse donc à la classification, au nettoyage, à l’exploration, à l’analyse et à la protection de bases de données plus ou moins interopérables. (Wikipedia).

Comme l’énonce Stéphane Mallat, dans sa leçon inaugurale pour la création d’une chaire Science des données au Collège de France, « cette discipline s’inscrit au cœur de la problématique scientifique : extraire de la connaissance des données empiriques qui se trouvent à la base de toutes les sciences. On est dans une évolution extraordinairement rapide qui inclut toutes les sciences qui viennent avec leurs propres données. »

Les deux principaux traitements sont la modélisation et la prédiction. L’enjeu en est la généralisation. Dans ce domaine, l’informatique a une avance considérable sur les mathématiques. Elle permet à partir d’un exemple qu’on connaît, d’extrapoler pour les exemples qu’on ne connaît pas. Elle s’appuie sur un très grand nombre de variables (ex : millions de pixels dans une image). 800x-1

En ce qui concerne la gestion des données scientifiques, les professionnels de l’information, dans les bibliothèques de recherche par exemple, peuvent être de précieux collaborateurs pour les chercheurs. Comme le soulignent Ayoung Yoon et Theresa Schulz dans leur article du College & Research Libraries « les bibliothèques universitaires se sont activement impliquées dans les services des données de la recherche : des services qui portent sur l’ensemble du cycle de vie des données comprenant le plan de gestion, la curation numérique (sélection, conservation, maintenance et archivage), la création de métadonnées et la conversion. ». Un nouveau service, le TDM ‘Text and Data Mining’ (fouille automatique de texte et de données) a pu être récemment être ajouté grâce à une série d’amendements au droit d’auteur en France, mais aussi au Royaume Uni.

Les données numériques et la « ville intelligente »

Dans la ‘smart city’, le recueil et le traitement des données devraient permettre aux citoyens de bénéficier de services sur mesure. A Toronto, une filiale de Google est en train d’édifier une métropole futuriste dans un quartier défavorisé au bord du lac Ontario. Comme le rappelle Ian Austen dans le New York Times fin décembre « le Premier ministre canadien, Justin Trudeau a promis que ce projet créerait ‘des technologies qui nous aideraient à construire des communautés plus intelligentes, plus vertes et plus inclusives ». Mais pour certains résidents cet enthousiasme doit être tempéré surtout quand il s’agit d’une entreprise connue pour sa collecte et analyse des données. Le projet Quayside sera chargé de capteurs et de caméras de surveillance qui traqueront tous ceux qui habitent, travaillent ou simplement passent dans le quartier. La masse de données recueillie permettra de mieux organiser et définir les besoins de la future ville, que la société appelle d’ailleurs une ‘plateforme’. L’électricité sera fournie par des mini-réseaux de voisinage, basés sur des énergies renouvelables. D’immenses auvents protègeront de la pluie et du soleil d’été et des allées chauffées feront fondre la neige l’hiver ! 271607011737Bigdata

Mais les capteurs dans les bâtiments pourront mesurer le bruit dans les appartements tandis que les caméras et les capteurs extérieurs surveilleront aussi bien la pollution de l’air que le mouvement des personnes et des véhicules dans les carrefours … Comme le fait remarquer Pamela Robinson, professeur de planification urbaine à l’université Ryerson de Toronto « les données vont être recueillies par une entreprise privée et non par une collectivité administrative. Pour le moment rien n’a été annoncé sur qui en aura la propriété ni qui y aura accès. » De même, si Quayside promet des logements à tous les niveaux de revenus, pour le moment la seule entreprise qui a prévu de s’y installer est Google Canada, donc plutôt des jeunes cadres bien payés … D’après cette chercheuse, les données collectées pourraient être utilisées pour limiter ou décourager l’usage, par ailleurs légitime, des espaces publics par des sans-logis, des jeunes ou d’autres groupes …

Bernard Stiegler qui intervenait dans la Cité du Futur, conférence de Maddyness, déclarait « Pour faire des villes intelligentes, essayons d’être intelligent. La nouvelle urbanité, c’est la ville désautomatisée, car la ville automatisée détruit les relations de voisinage ». Citant l’expérience de Plaine Commune (Communauté de 9 communes de Seine Saint-Denis) où il est personnellement impliqué mais aussi des entreprises comme Vinci, Orange et la Caisse des Dépôts, le philosophe a expliqué que cela implique de savoir utiliser ces technologies innovantes avec la population de Seine Saint-Denis pour qu’elle y prenne part, notamment à travers un programme d’économie contributive.

images_villeC’est aussi le point de vue de Florence Durand-Tornare, fondatrice et déléguée générale de l’association Villes Internet dans l’article de Martine Courgnaud-Del Ry dans la Gazette des communes : « Plus de trente « Villes Internet » (hors métropoles) décrivent, parfois depuis longtemps, des dispositifs de mise à disposition de données informatives, techniques, juridiques ou statistiques. Ce qui me paraît significatif, c’est qu’elles ouvrent avant tout des données utiles au citoyen, et pas uniquement celles qui sont attendues par les grands opérateurs dans les zones hyper-urbaines — essentiellement relatives au transport ou à la gestion de l’énergie… Nous remarquons aussi que l’ouverture des données est l’occasion d’organiser des dispositifs participatifs avec les citoyens, qui contribuent parfois activement à choisir les applications utiles aux résidents que la donnée permet de produire. »

L’adoption du RGPD et la polémique sur la ‘patrimonialisation’ des données personnelles

L’Assemblée nationale examine en ce moment le projet de loi sur la protection des données personnelles « qui adapte notre droit au nouveau cadre juridique européen, composé d’une part, du règlement général de la protection des données (RGPD) et d’autre part de la directive sur les fichiers de police et de justice, qui entreront tous deux en vigueur en mai 2018. ». Ce règlement fixe de nouvelles obligations à toute entreprise exploitant des données : droit de portabilité d’un opérateur à l’autre, droit d’effacement et surtout, consentement explicite.

Une controverse vient de se développer dans la presse après une interview Gaspard Koenig dans Les Echos évoquant le Rapport du mouvement Génération libre vantant les mérites de la commercialisation des données personnelles. Pour G. Koenig « si la data est bien cet « or noir » du 21ème siècle, il n’y a pas de raison de ne pas payer les producteurs – nous – sans laisser aux raffineurs (les agrégateurs et les plates-formes) l’intégralité des revenus liés à l’exploitation des data. » Pour ce philosophe libéral, il y a trois options pour gérer l’accès aux données : mettre en place une « sorte d’agence nationale chargée de mettre des data encryptées à la disposition des entreprises », créer, comme la CNIL et la Commission européenne, des « droits pour les citoyens et des obligations pour les entreprises, avec le risque de judiciarisation excessive de l’économie digitale et d’étouffer l’innovation ». La troisième option qu’il privilégie et « qui peut s’articuler à la précédente, est la patrimonialité des données pour permettre aux entreprises de se les approprier après avoir justement rémunéré les citoyens. ». Cette transaction se ferait à travers « un système de ‘nanopaiements’ qui viendraient créditer ou débiter en continu un compte digital personnel ». Ceux qui refuseraient de céder leurs données seraient obligés de payer les services numériques. Cette idée a été reprise dans une tribune du Monde prônant la ‘monétisation de nos données’, signée par plusieurs personnalités (Bruno Bonnell, Laurence Parisot, Alexandre Jardin, Gaspard Koenig). claire-sambuc-juriste-tariq

Cette « fausse bonne idée » comme la définissent Serge Abiteboul et Gilles Dowek dans une tribune dans le Monde, a été immédiatement attaquée par un grand nombre de chercheurs et de juristes dans la presse et sur les réseaux sociaux. Pour ces deux chercheurs « Le cas des données numériques est cependant un peu plus complexe que celle de des champs d’orge ou de blé, car qui cultive les données ? Ceux qui les produisent (vous et moi, les géants du Web, les hôtels…), ou ceux qui les entassent et les analysent pour en tirer du profit (ni vous et moi) ? ». Et même une fois la propriété établie, comment les internautes seront-ils assurés que le contrat ne soit pas léonin (accès au service contre ‘open bar’ pour les géants du Net) ? De plus, il n’est pas sûr que ces entreprises soient vraiment intéressées par nos données personnelles, vu qu’à travers le ‘crowdsourcing’, un grand nombre d’internautes produisent déjà du travail sur les données pour une très faibles rémunération. Mais surtout les données personnelles sont avant tout sociales : elles résultent des interactions des internautes entre eux ou avec des entreprises ou  institutions (mails, commentaires, profils, etc.). Tristan Nitot dans son post sur Standblog, reprenant la comparaison avec la vente d’un rein, rappelle que déjà le CNNum estimait que « l’introduction d’un système patrimonial pour les données personnelles est une proposition dangereuse ». Comme il est interdit de faire commerce de ses organes (‘indisponibilité’ ou ‘non patrimonialité’ du corps humain), on ne peut séparer  l’individu de ses données personnelles, ça serait en faire un objet qu’on peut commercialiser « permettre la patrimonialisation c’est — métaphoriquement — permettre de revendre par appartements son moi numérique, c’est faire commerce de son corps numérique, en quelque sorte, ce qui est interdit en France pour son corps physique, au nom de la dignité humaine. ». De plus, il sera très difficile à un individu de se faire payer vu les difficultés qu’a le fisc à faire payer les GAFA … Le rapport de force ne sera pas du tout en sa faveur …

indexUne autre position est celle développée par l’essayiste Evgeni Morozov dans l’émission Soft Power citée par Calimaq dans son post fin octobre. Plutôt que la défense individuelle de la vie privée, Morozov propose de faire des données personnelles un ‘bien public’ et de les faire relever du ‘domaine public’. Il ne pense pas « qu’on puisse régler tous les problèmes que posent les géants du net en utilisant les outils traditionnels de régulation du marché, c’est-à-dire en leur faisant payer des taxes et en mettant en place des lois anti-trust ». Il préconise même d’accélérer le processus d’automatisation et d’analyse des données, car tout n’est pas négatif. Si les cancers pourront bientôt être dépistés grâce aux données, cela ne devrait pas se faire en donnant autant de pouvoir à des entreprises de la Silicon Valley ! Un système dans lequel les données appartiennent à la communauté permet à tout un chacun de se saisir de ces données pour en faire quelque chose, même au niveau local. E. Morozov préconise « un système hybride empruntant à la fois des éléments à la domanialité publique et à la propriété intellectuelle, tout en s’inspirant de certains mécanismes des licences libres ».

Cette hybridation entre protection personnelle et usage collectif se retrouve dans le point de vue du sociologue Antonio Casilli qui défend dans un article du Monde avec Paola Tubaro, l’idée que « la défense de nos informations personnelles ne doit pas exclure celle des travailleurs de la donnée ». Pour ces chercheurs « Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès. ». C’est pourquoi plutôt que la protection individuelle des données, Casilli et Tubaro défendent une négociation collective contre des services. Lionel Maurel et Laura Aufère développent cette approche dans un post très détaillé de S.I.Lex.  Ces chercheurs prônent une protection sociale au sens large du terme, car « si les données sont produites dans le cadre d’activités assimilables à de nouvelles formes de travail, alors ce sont des mécanismes de protection sociale enracinés dans le droit social qu’il convient de déployer pour garantir les droits des personnes. ». Ils préconisent de se doter de moyens adéquats pour engager ces négociations dont les termes restent encore dictés par le cadre imposé par les plateformes. Dans cet article, repris d’ailleurs par Libération, les chercheurs dessinent les contours de ce nouveau droit social du 21e s. Jusqu’à présent, la protection des données était restreinte au niveau individuel. Comme le soulignent la juriste Antoinette Rouvroy et Valérie Peugeot de l’association Vecam, que ce soit pour l’obligation de consentement que pour la portabilité des données, aussi bien la CNIL que le RGPD se concentrent trop sur le niveau individuel. D’où l’importance de « mobiliser un nouvel imaginaire pour construire un cadre de négociation collectives sur les données ». th-300x1000-rgpd.jpg

Rochfeld, Judith ; Farchy, Joëlle ; Forteza, Paula ; Peugeot, Valérie. - « Les internautes réclament un usage moins opaque et une maîtrise de leurs données personnelles ». Tribune. – Le Monde, 07/02/18

Loi données personnelles : dans l’apathie des débats, une envolée néo-libérale absurde ! - La Quadrature du Net, 07/02/18

Courgnaud-Del Ry, Martine. – Des services numériques communs émergent enfin sur tout le territoire. – Gazette des communes, 07/02/18

Guillaud, Hubert. – Pourquoi mes données personnelles ne peuvent pas être à vendre ! – Internet Actu, 06/02/18

Données personnelles : le projet de loi qui va mieux nous protéger. – La Dépêche, 06/02/18

Assemblée nationale. – Société : protection des données personnelles – Projet de loi déposé le 13 décembre 2017- discussion 06-08/02/18/Paula Forteza, Rapporteure.

Wiggleworth, Robert (FT). – Big data : les données numériques peuvent-elles révolutionner l’action politique ? – Nouvel Economiste, 06/02/18

Collectif. – Nos « données personnelles » nous appartiennent : monétisons-les ! - Le Monde, 05/02/18

Casilli, Antonio ; Jeanticou, Romain.  – La domination des géants du numérique est-elle un nouveau colonialisme ? Entretien. – Télérama, 05/02/18

Abiteboul, Serge ; Dowek, Gilles. – « La propriété des données est une fausse bonne idée ». – Le Monde, 05/02/18

Maurel, Lionel ; Aufrère, Laura. – Pour une protection sociale des données personnelles. – S.I.Lex, 05/02/18

Nitot, Tristan. – Données personnelles et droit de vendre des organes humains. – Standblog, 02/02/18

Lévêque, Rémy. – « Facebook nous prend en otage ». – Usbek & Rica, 02/02/18

Parapadapis, George. – RGPD, de l’incertitude aux solutions pratiques. – Informatique News, 31/01/18

Revendre ses données « personnelles », la fausse bonne idée. – Mais où va le web ?, 29/01/18

Ertzscheid, Olivier. – Faut pas prendre les usagers des GAFAM pour des datas sauvages. – Affordance.info, 28/01/18

Pour une patrimonialité des données : Rapport. – Mes data sont à moi/Collectif data. – Génération libre.eu, 25/01/18

Naughton, John. – Who’s doing Google and Facebook dirty work?- The Guardian, 24/01/18

Casilli, Antonio ; Tubaro, Paola. – La vie privée des travailleurs de la donnée (Le Monde, 22/01/18) – Antonio A. Casilli

Mallat, Stéphane. – Sciences des données : leçon inaugurale (vidéo). – Collège de France, 11/01/18

Schmitt, Fabienne ; Madelaine, Nicolas. – Gaspard Koenig : « Chaque citoyen doit pouvoir vendre ses données personnelles ». – Les Echos, 07/01/18

Rey, Olivier ; Rouvroy, Antoinette. – Données, savoir et pouvoir (Table ronde). – PhiloInfo, décembre 2017 (vidéo).

Austen, Ian. – City of the Future? Humans, not technology, are the challenge in Toronto. – The New York Times, 29/12/17

Calimaq (Lionel Maurel). – Evgeni Morozov et le « domaine public » des données personnelles. – S.I.Lex, 29/10/17

 

Surveillance : le tour de vis occidental

fingerprint with bar codeOn assiste, depuis quelques semaines, au renforcement de la surveillance de masse en Europe et dans les pays occidentaux. La vague d’attentats et le repli sécuritaire qui touche les démocraties pourraient expliquer ce phénomène.

En France, après le vote de la loi Renseignement en juillet 2015, nous avons eu début novembre l’annonce de la création du fichier TES qui devrait rassembler dans une seule base de données « les informations personnelles et biométriques de la quasi-totalité de la population » (Numérama).  Au Royaume Uni, le nouveau projet de loi sur le renseignement Investigatory Powers Act « qui marque un durcissement de la surveillance et légalise des pratiques déjà exercées en dehors de tout cadre juridique par les services de renseignement » (Le Monde). Avec cette loi, un certain nombre d’institutions et d’organismes britanniques – finances publiques, Agence de l’alimentation, Commission des paris, services de santé – en plus des services de police et de renseignement de tout le Royaume, pourra avoir accès à toutes les connections et enregistrements internet des citoyens et résidents en Grande-Bretagne (Independent).

Outre-Atlantique, la situation est aussi inquiétante : aux Etats-Unis, le FBI a passé un accord avec la société Dataminr pour accéder en temps réel aux 500 millions de publications quotidiennes de Twitter. Comme on le lit dans Les Echos, « Ce spécialiste du croisement des données (data mining) permet à ses clients (médias, banques, fonds d’investissements) d’obtenir des informations liées aux menaces terroristes, aux troubles sociaux et politiques etc.. ».  Après la victoire de Trump, la messagerie sécurisée Signal, a con a connu une augmentation de 400% de téléchargement comme le souligne Buzz Feed News. Le site Intercept a aussi interrogé les multinationales de l’internet pour savoir si elles étaient prêtes à collaborer pour mettre en place le « fichier des musulmans » préconisé par Trump : seul Twitter a refusé cette collaboration …

Et le Monde vient de révéler, suite aux derniers documents publiés par Snowden, que les smartphones des passagers d’Air France étaient espionnés en plein vol au profit de la NSA ou du GCHQ (services secrets britanniques) …

Au Québec, les services de police de la Ville de Montréal mettent sur écoute des journalistes comme Patrick Lagacé de la Presse, informe le blog Veille pour un(e) bibliothécaire engagé(e)Security camera

Néanmoins, un certain nombre d’institutions et d’organismes réagissent à ce tour de vis.

En France, le Conseil national du Numérique et la Cnil se montrent réservés vis-à-vis du Fichier TES. Le CNNum a carrément demandé la suspension de ce fichage généralisé de la totalité des Français …

Au niveau de l’Union européenne, une eurodéputée néerlandaise a attaqué devant le Conseil d’Etat la loi sur la surveillance internationale des communications électroniques, qui complète la loi sur le renseignement. « Sophie In’t Veld du groupe libéral ADLE a décidé de déposer 2 recours devant le Conseil d’Etat pour contester l’une de ces lois » écrit Julien Lausson dans Numérama.

Comment en est-on arrivé là ?

Nous avions évoqué les systèmes de surveillance massive dans des posts précédents, notamment l’intrusion de la NSA dans les communications électroniques, mais depuis la vague d’attentats en France et la mise en place de l’état d’urgence, un certain nombre de mesures de sécurité ont été renforcées.

La Loi Renseignement, votée en 2015, avait été partiellement retoquée par le Conseil Constitutionnel, notamment en ce qui concerne le volet surveillance internationale des communications électroniques. Ce texte, destiné à encadrer le renseignement à l’étranger, écarte explicitement les personnes résidant en France. Or deux députés socialistes, Patricia Adam et Philippe Nauche, ont déposé, à la demande du gouvernement en septembre 2015, une proposition de loi visant à combler « le seul trou laissé par le Conseil constitutionnel » comme  l’exprime Guillaume Champeau de Numérama. En facilitant l’interception massive des communications sur internet et les conversations téléphoniques, ce texte vise à « tranquilliser les agents de la DGSE qui agissent actuellement dans la plus grande illégalité, faute de loi encadrant leur surveillance ».  Le texte « aménage un régime spécial pour les services de renseignement qui souhaitent collecter et analyser massivement des communications électroniques depuis l’étranger ». Mais il concerne aussi les écoutes de communications émises « depuis l’étranger » ou si les personnes sont déjà « identifiées comme  présentant une menace au regard des intérêts fondamentaux de la Nation ». Donc, si des personnes résidant en France communiquent avec des personnes situées hors du territoire français, c’est le régime de cette proposition de loi qui s’appliquerait, comme le souligne Guillaume Champeau . Pour Sophie In’t Veld, cette loi malmènerait les droits dont bénéficie n’importe quel citoyen européen. Ses propres communications vers et depuis l’étranger – elle se rend souvent au Parlement européen à Strasbourg en tant qu’eurodéputée – « sont susceptibles d’avoir été interceptées ». En questionnant la légalité de ces mesures de surveillances, ces recours visent à obtenir la suppression des données personnelles collectées entre 2008 et 2015 (avant la loi sur la surveillance internationale) et ensuite démontrer qu’il existe une sorte de discrimination entre les Français et les autres citoyens de l’UE, ce qui va à l’encontre de la Charte des droits fondamentaux. postcard-surveillance-webversion1

Contenu et métadonnées : que surveille-t-on au juste ?

On a beaucoup évoqué le chiffrement des données pour échapper au piratage ou à la surveillance des communications électroniques. Mais le chiffrement porte généralement sur le contenu des communications et plus rarement sur les métadonnées, ces données techniques qui permettent le bon acheminement des communications (origine, destinataire, date, position géographique, etc.). Le Conseil national du numérique s’est penché sur le problème du chiffrement dans un article d’approfondissement, et plus précisément sur le chiffrement des métadonnées. S’il existe de manière de masquer certaines métadonnées, avec des réseaux de type Tor, la plupart des applications grand public, « assurent la confidentialité des contenus, mais ne peuvent pas garantir l’anonymat des utilisateurs ou des terminaux utilisés ».

Alors que traditionnellement les services de renseignement s’intéressaient au contenu des communications, on privilégie aujourd’hui de plus en plus le traitement automatisé des métadonnées. Ce passage du contenu au contenant, s’explique par plusieurs raisons. D’abord, l’analyse des métadonnées se prête mieux à une surveillance généralisée et automatisée : les métadonnées sont plus difficilement sécurisables et l’analyse des contenus implique un traitement individuel, donc plus coûteux. En plus, les contenus surveillés ne sont généralement pas explicites : les terroristes ne vont jamais dire « Rendez-vous à tel endroit pour placer la bombe » comme l’explique Rémi Récio délégué général à la Commission générale de contrôle des interceptions de sécurité (CNCIS), cité par le CNNum. « en revanche, il est plus important de reconstituer un réseau, donc des données techniques sont plus importantes que ce que vont dire les gens ».

Mais que faire avec ces quantités énormes de données ? Va-t-on analyser tous les renseignements collectés ? En fait, en prenant exemple sur la veille stratégique et l’intelligence économique, le système vise  « à débusquer les signaux faibles d’une activité criminelle ou terroriste par une surveillance généralisée des réseaux. Surveiller pour prévenir, mais aussi pour prédire ».

Une fois traitées par de puissants algorithmes, les données collectées en masse vont servir à l’établissement de ‘graphes sociaux’ (cartographie de réseaux de connexions et de relations entre individus en lien avec leur activité sur internet). Combinés à des outils statistiques, ces graphes sociaux vont aider à la constitution de patterns ou modèles de comportements, afin d’anticiper les risques d’une attaque terroriste. C’est ce que prévoit la Loi Renseignement de Juillet 2015, avec l’utilisation des fameuses ‘boites noires’ pour détecter les comportements ‘signants’.

arton15480-47b03Cette attitude est très dangereuse, car tout algorithme a une marge d’erreur et va donc identifier des personnes sans intention terroriste (des ‘faux positifs’). Si la marge d’erreur est de 1% (considérée comme faible), cela pourrait faire 600 000 personnes sur une population de 60 millions ! Alors que si le nombre de vrais terroristes est de 60, ils ne représentent que 0,01% …

Cela peut amener à des dérives, comme le fait de condamner à deux ans de prison ferme une personne ayant consulté de façon répétée des sites faisant l’apologie du terrorisme [quelle que soit la radicalisation effective du suspect, qui s’est révélée être assez importante]. Comme le souligne Olivier Ertzschied dans son post « De la confidentialité de l’acte de lecture », l’année où Mein Kampf entre dans le domaine public, « serait-il possible de condamner à deux ans de prison ferme un homme pour lecture régulière et répétée de Mein Kampf ? » Qu’y a-il de différent entre « la lecture répétée de brochure papier faisant l’apologie du terrorisme distribuées (et lues) en divers endroits de la planète et la lecture répétée de sites faisant l’apologie du terrorisme ? ». Pour le chercheur, « la confidentialité de l’acte de lecture est l’un des fondements essentiels de toute démocratie ». Encore une fois, c’est privilégier une idée de la sécurité au détriment des libertés fondamentales. « Pénaliser la lecture […] c’est condamner une intentionnalité supposée, c’est un ‘effet cigogne'[corrélation plutôt que causalité]». surveillance-electronique

Malheureusement, cette condamnation d’une intentionnalité de la lecture est en train de se concrétiser aux États-Unis, comme on le découvre dans le post de Thomas Fourmeux dans Biblio Numéricus « Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard) ». Cette transcription d’un article de l’EFF (Electronic Frontier Foundation) appelle les bibliothécaires à protéger leurs usagers les plus fragiles (adolescents, sans-abris, chômeurs, migrants) contre les agents du gouvernement qui viendraient enquêter sur les livres empruntés ou consultés et les mots-clés recherchés en ligne. Comme après la mise en place du « Patriot Act », les bibliothécaires américains s’inquiètent de la future administration Trump. « Les bibliothèques pourraient recevoir de la part du gouvernement des demandes de renseignements sans précédent sur les usagers »…

digital surveillance

 

Loi 2015-912 du 24 juillet 2015 relative au renseignement. – Légifrance, 27/07/15

Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance/Zigmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild et al. – Cultures et conflits, 2015/2 via Cairn.info

Rees, Marc. - Renseignement : l’exécutif annonce une proposition de loi sur la surveillance internationale. – NextInpact, 02/09/16

Champeau, Guillaume. – Surveillance internationale : ce que prévoit la proposition de loi. – Numérama, 10/09/15

Chantrel, Flavien. – Tristan Nitot « Une société sous surveillance n’est plus une société libre ». – Blog du modérateur, 05/07/16

De la confidentialité de l’acte de lecture : les algorithmes en prison. – Affordance.info, 14/08/16

Nitot, Tristan. – Surveillance : // Les libertés au défi du numérique : comprendre et agir. – Paris : C&F éditions, Blogcollection, 2016

Rees, Marc. – Loi Renseignement : un an après, où en est la centralisation des données . – NextInpact, 10/10/16

Conseil National du Numérique. – Communiqué de presse : Fichier TES : le CNNum appelle le gouvernement à suspendre sa mise en oeuvre et s’autorise à examiner des alternatives techniques plus modernes et respctueuse des lois et des libertés. – Paris, 07/11/16

Rees, Marc. – Le CNNum demande la suspension du fichage 60 millions de Français. – NextInpact, 07/11/16

Lausson, Julien. - Le CNNum demande la suspension du fichage biométrique des Français. – Numérama, 07/11/16

Il faut renoncer à l’extension de la collecte des données biométriques /Un collectif. – Libération, 20/11/16

Grondin, Anaelle. - Plus aucun tweet n’échappera au FBI. – Les Echos, 17/11/16

Surveillance : ce que contient la nouvelle loi sur le renseignement britannique. – Le Monde, 21/11/16

Griffin, Andrew. – Everyone can now see your entire internet history. – The Independent,  24/11/16

Investigatory Powers Act - Parliament UK, 29/11/16 :

Untersinger, Martin ; Follerou, Jacques. – Espionnage des avions, d’Israël et de l’Autorité palestinienne : nouvelles révélations de Snowden. – Le Monde, 07/12/16

Fourmeux, Thomas. - Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard). – Biblio Numericus, 08/12/16

 

 

Economie des plateformes : entre partage des communs et post-salariat capitaliste

ozwilloLes plateformes occupent  une place de plus en plus prépondérante dans l’activité numérique actuelle. Que ce soit sur des applications mobiles ou à propos de nouveaux services publics ou associatifs, on retrouve cette même notion à la définition un peu floue.

Définition et réglementation

Sur Wikipédia, on est un peu déçu : entre plateforme pétrolière et géologique, la plateforme en informatique est décrite comme « une base de travail à partir de laquelle on peut écrire, lire, utiliser, développer un ensemble de logiciels ».

Dans l’avant-projet de la loi Lemaire, cité dans l’article de Marc Rees dans NextInpact : la régulation proposée vise des activités « consistant à classer ou référencer des contenus, biens ou services proposés ou mis en ligne par des tiers, ou de mettre en relation, par voie électronique, plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service, y compris à titre non rémunéré, ou de l’échange ou du partage d’un bien ou d’un service ».

Cela reprend en partie la définition du Conseil national du numérique dans son Rapport sur la neutralité des plateformes , citée par Aurélie Barbaux dans un article d’Usine Digitale « une plateforme est un service occupant une fonction d’intermédiaire dans l’accès aux informations, contenus, services ou biens, édités ou fournis par des tiers. Au-delà de sa seule interface technique, elle organise et hiérarchise les contenus en vue de leur présentation et leur mise en relation aux utilisateurs finaux. A cette caractéristique commune s’ajoute parfois une dimension écosystémique caractérisée par des relations entre services convergents ».

La plateforme prend donc la forme d’un service intermédiaire entre fournisseurs (d’informations, de biens, de services) et les utilisateurs finaux. Elle représente en fin de compte la médiation numérique par excellence. C’est cette fonction que vont alimenter les professionnels de tous secteurs pour mettre des contenus à disposition des usagers. La structuration de cette infrastructure incontournable de la société de l’information passe par la programmation de logiciels dédiés : les fameux algorithmes qui ajoutent une pincée d’intelligence artificielle à la gestion des transactions.

La Loi numérique s’est donné aussi pour objectif d’encadrer cette activité, notamment par la création d’indicateurs et la diffusion de « bonnes pratiques visant à renforcer leurs obligations de transparence et de loyauté ». Ces obligations concernent les plateformes dépassant un certain seuil de connexions. Le Ministère de l’économie et le Secrétariat au numérique se réserve par ailleurs la possibilité de faire des enquêtes et de publier la liste des plateformes qui ne respectent pas ces obligations … plateformes

Plateformes services publics ou associatifs

De nombreuses plateformes ont été conçues dans les services publics pour mettre à la disposition des usagers un certain nombre d’informations et de données ouvertes. La dernière mise à jour (octobre 2016) concerne l’enseignement supérieur et la recherche. Cette plateforme Open data propose 55 jeux de données ouvertes sur l’enseignement supérieur et la recherche. Son interface, plus lisible, facilite l’accès aux données. Elle est synchronisée avec la plateforme nationale data.gouv.fr, de la mission Etalab, qui propose toutes les données publiques ouvertes.

Toujours dans le contexte de l’éducation nationale, Mediaéducation, la plateforme d’accès à la presse à l’école. Fruit d’un partenariat entre le ministère de l’Education nationale et l’opérateur de publications numériques miLibris, la plateforme Lire l’Actu propose 13 titres de quotidiens et de magazines français et étrangers à découvrir sur les tablettes et les ordinateurs fixes des lycées et collèges. D’autres titres seront progressivement ajoutés, notamment en presse régionale.

L’Enssib devrait mettre aussi en ligne, en partenariat avec l’ABF, « une plateforme des projets destinée à valoriser les projets portés dans les bibliothèques de France. L’objectif de cette plateforme est de rendre visibles les projets en cours ou déjà réalisés et faciliter les échanges entre professionnels aux objectifs communs. » Elle proposera aussi une cartographie des activités des bibliothèques et des centres de documentation français.

D’autres plateformes existent dans le secteur des bibliothèques, comme e-shelf service, pour gérer
les collections de livres numériques. Sa particularité, comme le souligne Thomas Fourmeux dans Biblio numéricus, réside dans la prise en charge par l’entreprise des négociations avec les éditeurs. Cette plateforme a été développée « par un consortium de bibliothèques à but non lucratif qui se consacre au développement de services à destination des bibliothèques. Leur mission est de promouvoir le partage de ressources et l’émergence de services innovants à travers la collaboration. »

 

Les plateformes de services e-commerce ou de partagebusit-usages-wo

Mais si le terme générique « plateforme » recouvre des activités de toutes sortes, allant du covoiturage (Blablacar) ou de partage de canapé (couchsurfing) à des sociétés de taxis (Uber) ou de location de chambres ou d’appartement (AirBnB), ces services recouvrent deux réalités économiques différentes. Comme le souligne Philippe Portier dans son article du Monde, on trouve, d’un côté, ‘l’économie collaborative stricto sensu’ qui mutualise les biens, les espaces et les outils en favorisant l’usage par rapport à la possession et l’organisation en réseaux ou en communautés des citoyens ; de l’autre ‘l’économie ubérisée’ « qui traduit l’émergence de professionnels d’un nouveau genre, concurrençant les modèles traditionnels grâce à la combinaison d’outils technologiques, communs à l’économie collaborative (les plateformes, les outils numériques et les objets connectés) et de l’autoentrepreneuriat. ». Le premier modèle relève de l’économie non marchande qui participe de la philosophie des ‘communs’, basée sur la mutualisation des biens et des savoirs ; le second représente « un nouveau modèle d’entreprise horizontalisée, dématérialisée, idéalement sans salariés ni bureaux, capable de concurrencer les acteurs traditionnels, via la mobilisation (par les technologies numériques) un grand nombre de prestataires, sans en assurer la charge. ».

C’est ce que souligne aussi Michel Bauwens, théoricien de l’économie collaborative, dans son article du Monde : « Uber et Airbnb n’ont rien à voir avec l’économie du partage ». Pour ce chercheur, « l’économie ‘pair à pair’ où les individus s’auto-organisent pour créer un bien commun, a un potentiel émancipatoire important ». Avec des sociétés comme Uber, « il s’agit plutôt d’une mise sur le marché de ressources qui, jusque-là n’étaient pas utilisées. ».

Cela nous amène à la question soulevée par Ivan Best dans la Tribune « le numérique met-il fin au salariat ? ». Dans son compte-rendu des Rencontres d’Aix du Cercles des économistes, le journaliste souligne l’acuité de la crise actuelle. Si toutes les révolutions industrielles par le passé ont connu aussi des destructions d’emplois en masse, d’autres jobs sont toujours apparus pour les remplacer ; en revanche, selon Andrew McAfee, économiste du MIT « cette fois, c’est différent ». Le professeur souligne les éléments nouveaux qui font douter du fonctionnement de la théorie du déversement préconisée par Ricardo : le pouvoir d’achat stagne depuis 20 ans, la classe moyenne en voie d’érosion, la part des salaires dans la valeur ajoutée diminue … Avec l’accélération technologique qui permet non seulement de supprimer les tâches répétitives, mais prend de plus en plus en charge des travaux de conception, les services sont de moins en moins qualifiés. Avec le GPS, par exemple, les chauffeurs de taxis n’ont plus besoin de connaître les rues des villes. Le recours au contrat de travail est moins fréquent. A terme, le travail humain devient de moins en moins nécessaire …

On retrouve ce questionnement  dans l’article d’Olivier Ertzscheid sur InaGlogal « Du digital labor à l’ubérisation du travail ». Il souligne la « part croissante de l’automatisation et de l’algorithmie dans des missions jusqu’ici considérées comme régaliennes (transport, santé, éducation).»  Pour ce chercheur, il faudrait se préparer et prendre la pleine mesure de cette transformation de la société contemporaine. Uber représente le phénomène le plus abouti de cette évolution : « Über a permis, pour la première fois à cette échelle, de fractionner notre rapport au travail, à l’outil de travail, de la même manière qu’avant lui Airbnb avait permis de fractionner notre rapport à la propriété. ». Ce qui lui fait prédire que « la révolution sera ubérisée » avec des conflits sociaux d’un nouveau genre. Face à cela, le politique est impuissant et le recours à la loi, complexe et inabouti … Avec comme seule stratégie, l’interdiction d’une application…

robots-option-binaireD’où l’importance de réfléchir à de nouveaux modèles d’organisation du travail (qui est l’employeur, qui est l’employé et à quel(s) moment(s) ?) et de protection sociale. C’est aussi la question que se pose Hubert Guillaud dans son article  d’InternetActu « Qui des algorithmes ou des clients seront nos nouveaux patrons ? ». Partant de l’anecdote du Huffington Post où une société hongkongaise avait nommé un algorithme à son conseil d’administration, il arrive à cette constatation : c’est l’algorithme d’Uber qui est le vrai patron des chauffeurs ! Et les clients deviennent les cadres intermédiaires avec le système de notation … Difficile dans ces conditions d’être un auto-entrepreneur libre de ses décisions ….

C’est ce que dénonce aussi Eric Sadin dans son article de Libération « La «silicolonisation», c’est la conviction que ce modèle représente l’horizon indépassable de notre temps et qui, de surcroît, incarnerait une forme lumineuse du capitalisme ». Pour le philosophe, c’est un modèle de société fondé sur la ‘marchandisation intégrale de la vie et l’automatisation intégrée de la société qui est en train de s’instaurer ». Pour Eric Sadin,  « la figure du contremaître disparaît au profit de résultats d’équations […] auxquelles il difficile voire impossible de s’opposer ». Pour contrer le ‘technolibéralisme’, qualifié de « criminalité en hoodie (sweat à capuche) », Sadin en appelle au civisme des consommateurs pour boycotter tous ces objets connectés et services de l’économie des plateformes …

Bernard Stiegler est moins pessimiste dans son article de l’Humanité : s’il reconnaît qu’avec l’automatisation « le travailleur est dépossédé de son savoir-faire au profit d’un logiciel qui rend la tâche automatisable » et qu’en fin de compte le travailleur est licencié … Le philosophe propose une solution : que l’économie numérique « redistribue une partie des gains de productivité en vue de financer un temps de capacitation de tout un chacun au sein d’une économie contributive permettant de valoriser les savoirs de chacun. C’est pour cela que nous préconisons l’adoption d’un revenu contributif, ce qui n’est pas la même chose que le revenu universel. ».

Une solution consisterait en la généralisation des « communs » contre la monopolisation des échanges de données dans l’économie des plateformes (GAFA, Uber, Airbnb). C’est ce que préconise Michel Bauwens : en généralisant cette pratique qui remonte au Moyen-Age (mutualisation des terres + règles pour ne pas les épuiser) et avec les moyens technologiques dont on dispose, on pourrait créer de grands communs de la connaissance, des logiciels, du design, et permettre à tous les citoyens d’y contribuer et d’y puiser. Mais aussi « Il faut accompagner cette évolution, réguler pour protéger les consommateurs et les travailleurs dont les positions sont affaiblies face à ces nouveaux monopoles. ». Mais surtout « De nouvelles solutions sont à envisager ». « Il s’agit de passer d’un capital extractif, qui capte la valeur des communs sans rien reverser, à un capital génératif où ceux qui contribuent à ce commun créent leur propre économie éthique. » bien-communRéférences

Neutralité des plateformes : Réunir les conditions d’un environnement ouvert et soutenable/Conseil national du numérique, mai 2014

Best, Ivan. – Travail, le numérique met-il fin au salariat ? - La Tribune, 05/07

Legros, Claire (propos recueillis). – Michel Bauwens « Uber et AirBnb n’ont rien à voir avec l’économie du partage« . – Le Monde, maj. 20/07/15

Duthoit, Aurélien. – Comprendre les mécanismes de l’économie du partage. – La Tribune, 26/08/15

Barbeaux, Aurélie. – Au fait, c’est quoi une plateforme ?Usine Digitale, 19/10/15

Gardette, Hubert. – Uber, Amazon, Airbnb : lenumérique nous rend-il socialement irresponsable ? - Du grain à moudre – France Culture, 28/10/15

Cardon, Dominique ; Tesquet, Olivier. – Les algorithmes sont-ils vraiment tout puissants ? EntretienTélérama, 02/11/15

Portier, Philippe. – Économie collaborative : « La solution n’est pas dans un excès de réglementation ». – Le Monde,
maj. 06/11/15

Rees, Marc. – Loi Lemaire, les plateformes régulées sous la menace d’une liste noire.NextInpact, 09/11/15

Guillaud, Hubert. – Qui des algorithmes ou des clients seront nos nouveaux patrons ? - InternetActu, 10/11/15

Fourmeux, Thomas. – E-shelf service : un nouveau service de livres numériques pour les bibliothèques. – Biblio Numericus, 30/01/16

Plateforme des projets de la communauté professionnelle. - Enssib, 23/03/16

Biseul, Xavier. - Transfo numérique : « les avocats ne doivent pas être les taxis de demain ». - ZDNet, 04/04/16

Marrissal, Pierric ; Masson, Paule. – Bernard Stiegler « Nous devons rendre aux gens le temps gagné par l’automatisation » Entretien - L’Humanité, 17/06/16

Ertzschein, Olivier. – Du digital labor à l’ubérisation du travail. – InaGlobal, maj. 29/08/16

Lire l’actu, plateforme d’accès à la presse à l’école. – Médiaéducation, 06/10/16

Projet de loi pour une République numérique. – Sénat, maj. 10/10/16

Villin, Philippe ; Cosnard, Denis (propos recueillis). - Economie collaborative : « Pas difficile d’être compétitif quand on ne respecte rien » Entretien. – Le Monde, 10/10/16

Féraud, Jean-Christophe. – Eric Sadin  : « L’anarcho-libéralisme numérique n’est plus tolérable ». – Libération, 20/10/16

Laval, Christian. – « Commun » et « communauté » : un essai de clarification sociologique.SociologieS [En ligne] in Dossiers, Des communs au commun : un nouvel horizon sociologique ?, 21 octobre 2016

 

Livre numérique : comment expliquer ce retard au décollage ?

ebookIl y a près de dix ans, en 2007, au moment du lancement de la liseuse Kindle, le marché des e-books s’annonçait prometteur. Et aujourd’hui les livres numériques devraient avoir supplanté le papier comme les téléchargements musicaux l’ont fait pour le vinyle ! Or, si le secteur de l’édition se porte bien, en France comme dans le monde, c’est essentiellement dû aux livres imprimés.

Comme le rappelle Edouard Laugier dans le Nouvel Economiste, le livre est le premier marché culturel du monde : « en 2014, les ventes mondiales  ont généré 125 milliards de dollars de revenus » (Kurt Salmon). Le livre numérique représente 15% du chiffre d’affaire global. En France aussi, le livre est la première industrie culturelle avec un chiffre d’affaire de 4,06 milliards € (GFK). Au niveau mondial, les e-books représentent 10% des ventes, 25% dans le monde anglo-saxon et 2 à 3% en France …

Il faut reconnaître qu’en France, la consommation de produits culturels numériques est moins importante que dans d’autres pays développés, exception faite de la musique. Comme l’explique Christophe Bys dans l’Usine digitale, seuls 9% de Français souscrivent à une offre de vidéo à la demande, contre 60% aux Etats-Unis, 23% au Royaume Uni et 19% en Allemagne … Il est vrai que les publics valorisent de plus en plus la logique de l’accès (streaming) à celle de la propriété (achat de produits), sauf en matière de jeux vidéo où l’hybridation domine entre dématérialisation (jeux en ligne) et matériels (console +jeux).

Marché et consommation de e-books en France llc_droit_d_auteur

Alors qu’aux Etats-Unis les livres numériques représentent 25% du marché du livre, d’après le baromètre KPMG, la consommation de livres numériques en France est inférieure à 2% en 2015 et 74% des Français ne comptent pas en lire selon un sondage Opinion Way ! Néanmoins, le nombre de lecteurs de livres numériques  est en légère augmentation (20% de la population française) d’après les enquêtes 2016 du 6e Baromètre sur les usages du livre numérique (Sofia-SNE-SGDL), les deux supports « coexistent dans un marché stable qui confirme la pratique d’un usage mixte». Si la demande est si faible, l’offre est plutôt opaque et les éditeurs traditionnels hésitent à abandonner la proie pour l’ombre virtuelle des ouvrages.

Pourtant le processus numérique est bien intégré dans la production éditoriale : rédaction, édition et fabrication informatique ont permis de réduire les coûts et les délais et d’améliorer la productivité. Il en est de même pour la gestion des catalogues et les bases de données clients. Si 62% des éditeurs disposent d’une offre numérique (surtout les grandes maisons), la promotion des e-books a bien ralenti depuis 2011 surtout en raison de difficultés dans la commercialisation et la compréhension du marché. En fait, comme l’explique Clément Solyme dans son article d’Actualitté, « le numérique pour les éditeurs, ce ne sont pas des coûts en moins, mais des recettes en plus ». En effet, sur les grandes ventes, le coût de fabrication ne fait pas vraiment la différence et les coûts de stockage sont réduits grâce à la technologie. Aujourd’hui, on imprime seulement pour trois mois, puis on réédite si nécessaire …

Seul le secteur professionnel et universitaire profite de la révolution numérique : les éditions juridiques et scientifiques sont très numérisées. Les éditeurs de revues STM (sciences, technologies, médecine) réalisent 40% de leur chiffre d’affaire grâce aux publications numériques et jusqu’à 80% aux Etats-Unis ! Quant aux ouvrages juridiques, la mise à jour est quasi-directe depuis les tribunaux …

Freins à la consommation : les prix, la TVA

app_ebook_bundleUn des principaux atouts des plateformes d’e-books au début de leur lancement, était les prix attractifs, avec le plafond de $ 9.99 initié par Amazon. Et ce, avec un confort de téléchargement immédiat ; il suffisait de cliquer sur un titre sur sa liseuse ou sur l’ordinateur et l’ouvrage est immédiatement téléchargé, et le compte débité aussi vite ! Or, l’année dernière, les principaux éditeurs américains ont décidé d’une augmentation substantielle : on a immédiatement assisté à un renversement du marché : une baisse de 11% des ventes d’e-books entre 2014 et 2015 ! Le marché est très « price sensitive », certaines différences de prix sont jugées insuffisantes pour passer du papier au numérique, l’écart de prix est d’environ 30% : ex : 20 € l’exemplaire papier, 13,99 € pour l’e-book. Ce dernier peut même être plus cher que le livre papier comme dans le cas des livres de poche …. Le ‘juste prix’ pour les e-lecteurs se situerait autour de 7€.

Mais c’est essentiellement l’arrivée de l’iPad d’Apple qui a imposé des prix plus élevés (plus de 17%) sur sa plateforme iBooks suite à une entente avec six éditeurs ! Ensuite, Amazon a imposé de nouvelles conditions contractuelles … La plupart des éditeurs traditionnels ont augmenté leurs prix, ce qui a rendu les e-books moins accessibles pour les lecteurs.

Mais ces éditeurs ne représentent pas l’ensemble de la publication des livres numériques. D’après Clément Solyme, aux Etats-Unis, sur 10 000 titres vendus en mai 2015, 27% sont publiés par des grands groupes au prix moyen de $8,22 et 73% par des petits éditeurs ou par autopublication, au prix moyen de $4,58. En fait, comme le souligne une étude citée par The Guardian, la baisse du marché numérique ne prenait en compte que la moitié des e-books vendus aux Etats-Unis. Rappelons aussi qu’en France, plus de la moitié des lecteurs de livres numériques (59%) les acquièrent gratuitement car ceux-ci appartiennent au domaine public.

Au niveau de la TVA, si la France a adopté depuis un an un faible taux de TVA (5,5%), la plupart des  pays de l’Union européenne conservent encore un taux élevé pour les e-books, jusqu’à 20% au Royaume Uni. Mais la Commission a prévu une baisse du taux pour fin 2016.

Autres freins : liseuses, formats, DRM drm

Aux Etats-Unis, le marché des liseuses est saturé : il a été évincé par la multiplication des smartphones et des tablettes qui séduisent par leur aspect multisupports. Comme le dit Hervé Essa , cité par Edouard Laugier dans le Nouvel Economiste, « les liseuses sont des équipements marginaux. Le secteur de l’édition n’a pas anticipé cette demande des publics. Les offres ne sont ni marketées, ni adaptées aux usages. ». Michel Beck dans Numérama ajoute même que la chaîne de librairies britannique Waterstones a enlevé les Kindle de ses vitrines… Et ce n’est pas le dernier-né des Kindle, Oasis, lancé cette semaine, qui inversera cette tendance. Malgré de nombreux atouts en plus de l’encre électronique (éclairage LED, batterie qui dure plusieurs mois, option pour gauchers, etc.), Amazon le propose à un prix (près de 300 €) qui en dissuadera plus d’un … !

En France 4% des foyers sont équipés de liseuses et 10,7 millions d’unités achetées.

Mais si le e-book a des avantages au niveau de la mobilité, ce produit présente des handicaps par rapport au livre physique : dans la plupart des cas, la revente, le prêt ou le don ne sont pas permis par les conditions d’utilisation. Les DRM (dispositifs techniques de gestion d’une œuvre numérique) agissent comme des verrous pour empêcher les possesseurs d’un livre numérique de le partager, de le diffuser ou de le revendre. Seule solution pour partager des œuvres entre proches, paramétrer toutes les liseuses de la même famille avec le même compte … ! Evidemment, cela n’est possible qu’avec un même format de liseuse : Kobo (FNAC), Kindle (Amazon) ou iBooks (Apple) … 13377-drm

Comme le rappelle Neelie Kroes, Commissaire européenne à l’économie numérique, citée par Joaquim Rodriguez  dans Publishing Perspectives « Quand vous achetez un livre papier, il est à vous et vous pouvez l’emporter où vous voulez. Cela devrait être la même chose avec un e-book. Aujourd’hui, on peut ouvrir un même document dans plusieurs ordinateurs, pourquoi n’en serait-il pas de même pour un e-book sur différentes plateformes avec différentes applications. » Malgré la résistance des éditeurs, Neelie Kroes rappelle que l’interopérabilité des formats est à l’ordre du jour dans l’agenda numérique européen.

Pour Coralie Piton, directrice du livre à la FNAC, interviewée dans Numérama « Il faut trouver un modèle qui protège l’ensemble de la filière », mais pas question d’abandonner les DRM qui les protègent contre les pirates. C’est pourtant ce qu’a choisi Bragelonne en préférant le tatouage numérique  plutôt que les verrous. Les responsable de cette maison sont « convaincus que le seul moyen de combattre le piratage, c’est de créer une offre légale qui convient aux attentes des lecteurs. ».

Cette idée d’une protection « user friendly » est aussi celle des DRM LCP (Lightweight Content Protection), solution développée par le consortium Readium qui se présente comme l’alternative européenne à la DRM Adobe pour le format EPUB qui permet l’interopérabilité des formats. On pourra ainsi consulter un e-book sur n’importe quel appareil. Ces DRM ‘poids plume’ sont destinés prioritairement au prêt en bibliothèques à travers le système PNB. Mais la concurrence, notamment Adobe et les sociétés américaines, ne l’entend pas de cette oreille et menace de lancer une guerre des brevets … !

Cette mesure permettrait de desserrer un peu le carcan des e-books qui n’ont pas encore acquis la légitimité d’œuvres autonomes en France au moment où l’Assemblée nationale rejette l’amendement permettant de créer un dépôt légal numérique. La BNF ne peut que moissonner les œuvres sur le web et les robots d’archivages risquent de ne pas voir les ouvrages protégés par des DRM …

Beck, Michel. – Qui veut la peau du livre numérique ?Numerama, 22/01/16

Beuve-Méry, Alain. – La résistible ascension du livre numérique. – Le Monde, 24/02/16

Un marché stable qui confirme la pratique d’un usage mixte. – Baromètre Sofia/SNE/SGDL, 16/03/16

Rodriguez, Joaquim. – Will Ebooks Ever Circulate Freely in Europe ?Publishing Perspectives, 22/03/16

Laugier, Edouard. – Le livre numérique, l’innovation dont personne ne veut vraiment. – Le Nouvel Économiste, 22/03/16

Hoang, Kristine. – AAP :Ebooks Sales Down 12.7 Percent.Digital Book World, 22/03/16

Solym, Clément. – L’intérêt pour le livre numérique décline, ou les prix  sont devenus moins attractifs ?Actualitté, 23/03/16

Oury, Antoine. – L’Association des Bibliothécaires de France favorable à un dépôt légal numérique. – Actualitté, 31/03/16

Bys, Christophe. – Les industries culturelles doivent se transformer plus vite que leurs clients se digitalisent. – Usine digitale, 04/04/16

Hugueny, Hervé. – Jean-Claude Junker redit son soutien à une TVA unique numérique/papier. – Livres Hebdo, 05/04/16

Woitier, Chloé. – L’industrie européenne du livre veut offrir une alternative à Amazon.Le Figaro, 07/04/16

Oury, Antoine. – La DRM LCP : grands enjeux, risques élevés. – Actualitté, 11/04/16

Berne, Xavier. – La TVA réduite pour les ebooks et la presse en ligne : une proposition législative fin 2016. – Next INPact, 11/04/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? II – L’exploration de contenus

text_mining_analytics_survey_softwareAprès la disposition permettant aux chercheurs de mettre gratuitement en ligne leurs publications réalisées dans le cadre de recherches sur fonds publics, nous allons examiner l’impact des amendements autorisant la fouille automatique de textes et de données (Text and Data Mining –TDM) sur le développement de la recherche.

Au départ cette mesure ne devait pas apparaître dans la loi ; en attendant une réglementation européenne sur la question, le Ministère de la Culture et de la Communication avait nommé une mission pour en faciliter le recours comme exception au droit d’auteur comme le signale Antoine Oury dans un article d’Actualitté. Les éditeurs, dans leur ensemble, étaient plutôt réticents à ouvrir leurs collections, même si certains grands acteurs, comme Elsevier ou Springer, accordaient des licences limitées aux chercheurs.

Le TDM : aspects juridique et technique

Que représente exactement ce traitement et qu’apporte-t-il à la recherche ? Une partie de la réponse se trouve dans la tribune parue dans le Monde le 7 mars dernier, signé par un grand nombre de chercheurs « Pour une science ouverte à tous ». Après avoir rappelé l’importance du libre accès des publications scientifiques, notamment dans l’archive ouverte HAL, les chercheurs invitent les sénateurs à voter l’article 18 bis en s’assurant que la fouille de données ne soit pas soumise à des négociations avec un tiers. « La fouille de données doit devenir un droit ».

L’article en faveur du TDM permettra donc « d’extraire de l’ensemble de la production scientifique mondiale de nouvelles connaissances grâce à l’exploitation automatisée, à l’aide d’algorithmes, de corpus désormais gigantesques. » Application-du-processus-de-fouille-de-donnees-dusage-du-web-sur-les-fichiers-logs-du-site-cubba16

Contrairement à d’autres pays (Etats-Unis, Royaume Uni), en France, les chercheurs n’étaient pas autorisés à pratiquer cette fouille de contenus de façon automatique et certains laboratoires étaient obligés de se rendre à l’étranger pour réaliser cette opération … ! Si certains éditeurs accordent des licences, celles-ci sont limitées (10 000 articles par semaine pour Elsevier sur la plateforme Science Direct). La Contribution de l’ABDU au CNNUM est très claire sur cette question : 10 000 articles/semaine cela peut paraître beaucoup, mais si l’hypothèse de recherche n’est pas validée au bout de X jeux de 10 000 articles de Science Direct, comment explorer les Y jeux nécessaires, et aussi sur d’autres bases de données ? Et ce, sans jamais pouvoir fouiller en une seule fois l’ensemble du corpus. De plus, Elsevier impose aux chercheurs de publier sous licence CC-BY-NC (pas d’utilisation commerciale) les extraits pertinents retenus en limitant leur longueur à 350 mots … Quant à Springer, il impose que chaque projet de TDM portant sur ses contenus soit décrit et enregistré via à un formulaire en ligne et se réserve le droit de décider si la demande est fondée … « Une ingérence inacceptable du point de vue de l’indépendance de la recherche ».

En effet, en procédant à ce traitement, les chercheurs n’ont pas comme objectif « la dissémination indue de ces contenus sous droit ou de leur exploitation commerciale ». Mais cette ‘lecture computationnelle’ implique la création d’une copie numérique du corpus à fouiller, ce qui soulève un problème de propriété intellectuelle. Il est évident qu’une solution doit être trouvée pour les ayants droit, d’autant que la plupart des chercheurs impliqués sont eux-mêmes des auteurs … !

Les éditeurs ont fait pression sur l’UE pour qu’une solution contractuelle soit priorisée par rapport à une révision du cadre juridique qui passerait par la création d’une nouvelle exception au droit d’auteur. C’est déjà le cas au Royaume Uni où la loi a consacré une nouvelle exception au droit d’auteur couvrant les ‘analyses computationnelles’ de contenus protégés, effectuées dans un cadre de recherche sans but lucratif, comme le souligne Calimaq dans un post de S.I.Lex sur l’exploration des données. C’est aussi la raison pour laquelle les chercheurs insistent sur la désignation d’un ‘tiers de confiance’, extérieur au milieu de l’édition commerciale, pour réaliser ces opérations. C’est ce que propose l’ABDU : une super base de données sur une plateforme publique pouvant « héberger tous les corpus du web visible et invisible aux seules fins d’en permettre la lecture algorithmique». Cette immense base de contenus constituerait une ‘base maître’ qui ne serait accessible et manipulable que par le tiers de confiance. Pour chaque demande de recherche, un ‘bac à sable’ serait constitué en copiant les corpus à partir de la ‘base maître’ ; cette copie serait détruite en ne conservant que les occurrences pertinentes, une fois les opérations de TDM terminées. Cela permet de répondre aux besoins des chercheurs tout en assurant la protection des ayants droit.

Le TDM comme service aux chercheurs text-mining

Dans les sciences dites ‘dures’ l’exploitation des données de la recherche est largement répandue et souvent effectuée par les chercheurs eux-mêmes ; c’est beaucoup moins le cas en sciences humaines et sociales (SHS) et dans les humanités où la formation aux outils numériques est moins répandue. Le traitement linguistique nécessaire à la fouille de texte est généralement confié à un service hybride de documentation et d’ingénierie linguistique. Frédérique Bordignon analyse ce service dans un récent billet du Carnet’IST. Cette ingénieure de recherche explique le fonctionnement d’un des outils nécessaire à la fouille automatique de textes RapidMiner et le service que ces spécialistes peuvent apporter aux chercheurs. Cette nouvelle activité pourrait s’imposer auprès des bibliothèques et des laboratoires de recherche, comme le Medialab à Sciences Po.

C’est cette activité de ‘data librarian’ qu’évoque Alexandre Tur dans un article de Catherine Muller sur le blog de l’ENSSIB. Ce conservateur de bibliothèque a effectué son stage au Canada dans le département de services aux chercheurs de la Quenn’s University de Kingston (Ontario). Il a travaillé surtout sur l’assistance à la gestion de données de la recherche auprès des chercheurs en humanités et à la promotion de l’open access dans l’université. text-mining _1

Alexandre Tur prend soin de distinguer les données scientifiques des données publiques qui sont proposées librement, les ‘open data’ (données ouvertes). Ces dernières proviennent généralement des Etats et des administrations publiques, en France c’est la Mission ETALAB qui les représente, (statistiques économiques, démographiques, géographiques, sociales et culturelles). Comme le souligne le Comité d’éthique du CNRS (COMETS) dans son avis du 7 mai 2015 sur les enjeux éthiques du partage des données, « Les politiques qui promeuvent l’ouverture des données publiques n’ont pas les mêmes objectifs que celles du partage des données scientifiques ». Si les données scientifiques produites sur fonds publics ont vocation à devenir publiques, les données publiques ont vocation à devenir scientifiques lorsqu’elles concernent l’environnement, la société ou la santé. Dans ces domaines, les questions éthiques doivent être évoquées lorsque ces données sont sensibles et relèvent de la vie privée.

Les bibliothèques de recherche représentent un partenaire ‘naturel’ pour héberger et gérer ces données. Comme l’explique William M. Cross dans son article du Library Journal : les bibliothèques vont se développer comme un ‘écosystème open data’. On va passer de l’idée d’infrastructure des données, centrée autour des revues scientifiques et des dépôts institutionnels à une ‘écologie des données de la recherche’. Cette  écologie implique une évolution dans plusieurs domaines, comme le développement de nouvelles normes autour de la validation des données de la recherche, de l’identification de la provenance des jeux de données et des nouveaux types de gestion et de propriété de ces données.

Les métadonnées deviennent centrales dans ce processus de transition entre le web documentaire et le web de données. Comme le dit Valérie Tesnières, citée dans « Gérer les données de la recherche », une formation de la TGIR Humanum, « L’enjeu est moins de produire des données que de les connecter les unes avec les autres […] Produire des métadonnées permet à la fois l’interopérabilité des données et à en assurer une meilleure pérennisation »

C’est ce que soutient aussi Gildas Ilien dans un récent article d’Archimag : de nouveaux formats doivent permettre d’adapter le catalogage à l’environnement web et numérique des bibliothèques. Cette « revanche des données » nous oblige à revenir à une sorte de catalogue pour s’y retrouver dans la jungle du numérique, même si l’usager n’a pas besoin de les voir … ! Seules les machines les traiteront. Ce retour aux sources (catalogage) implique néanmoins un changement de structures et de système : la transition bibliographique où la logique du document s’efface au profit de la logique de l’information.

Cette ‘révolution copernicienne’ dans la documentation  explique le slogan des chercheurs du LERU (Ligue des universités européennes de recherche) justifiant la fouille de textes et de données « The right to read is the right to mine » (Le droit de lire est le droit d’explorer).

llc_droit_d_auteur

Langlais, Pierre-Carl. - Text mining : vers un nouvel accord avec Elsevier. – Sciences communes, 29/10/14

Exploration des données : un environnement juridique en évolution. – S.I.Lex, 05/12/14

Consultation du Conseil national du numérique : contributions de l’ABDU.- ABDU, 02/15

Les enjeux éthiques du partage de données scientifiques : avis du COMETS. – CNRS, 07/05/15

Oury, Antoine. – Déclaration de la Haye : le copyright contre les connaissances. – Actualitté, 11/05/15

Naegelen, Pierre. – Données de la recherche : quel positionnement et quels rôles pour les bibliothèques ? – SCD Université Toulouse III Paul Sabatier, 15/06/15

LERU Statement : the right to read is the right to mine. – League of European Research Universities, 15/06/15

Demange, Julie. – Gérer les données de la recherche, de la création à l’interopérabilité (1/3). – Archives des mondes contemporains, 14/10/15

Fradin, Andrea. – Premier bug : la fouille automatique de données es adoptée.Rue89/L’Obs, 21/01/16

Oury, Antoine. – France : une mission pour faciliter la fouille et l’exploration de textes et de données. – Actualitté, 21/01/16

La circulation des données et du savoir. Projet de loi pour une République numérique adopté par l’Assemblée nationale en première lecture. – Assemblée nationale, 26/01/16

Cross, William M. – Libraries support data-sharing across the research lifecycle. – Librairy Journal, 01/02/16

Langlais, Pierre-Carl. – Text-mining : une licence nationale contre l’exception ? - Sciences communes, 19/02/16

Bordignon, Frédérique. – Le text-mining comme service aux chercheurs.CarnetIST, 05/03/16

Pour une science ouverte à tous. – Le Monde, 08/03/16

Ilien, Gildas. – Transition bibliographique : la revanche des données ?Archimag, 14/03/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? I – Publications en libre accès

actu_edition-scientifique-passe,-present-et-perspectives_22_2000_2000_MAX_2b768Deux dispositions, adoptées dans le cadre du Projet de loi numérique vont sensiblement changer le travail des chercheurs en France. Elles concernent, d’une part la publication en libre accès d’articles scientifiques dans certaines conditions, d’autre part le traitement et la fouille automatique de données dans un corpus constitué.

Des parlementaires déterminés ont bravé l’opposition des éditeurs et même d’une partie du gouvernement pour faire passer certains amendements !

L’article 17 de la future loi pour une République numérique permet aux auteurs dont les travaux sont financés à hauteur de 50% sur fonds publics de mettre gratuitement en ligne leurs articles, au terme d’un délai maximum de de 6 mois après la première publication (12 mois pour les Humanités/SHS), même si l’auteur a accordé l’exclusivité à un éditeur ! Ce droit s’étend aussi à d’autres publications comme les actes de congrès et de colloques ainsi que les recueils de mélange. Les données associées aux articles sont aussi concernées. Comme le souligne Axelle Lemaire sur France Inter, citée par Actualitté « La recherche, si elle n’est pas ouverte, si elle n’est pas internationale, si elle n’est pas partagée avec la communauté des chercheurs la plus élargie possible, eh bien elle ne rayonne pas. Donc, moi je me pose la question : est-ce bien le gouvernement qui se veut le fossoyeur de la recherche en 2016, lorsqu’il cherche à étendre le périmètre d’influence des chercheurs, ou sont-ce les éditeurs ? »

En matière de données de la recherche, une série d’amendements a été adoptée en faveur de la fouille automatique de texte et de données (TDM, Text and Data Mining) contre l’avis du gouvernement et même du rapporteur ! Comme le fait remarquer Andrea Fradin dans son article sur l’Obs/Rue 89, malgré l’avènement du Big data et de ses outils de traitement, il était jusqu’alors impossible pour les chercheurs d’extraire automatiquement des mots ou des données d’un corpus de documents informatisés. Avec cet amendement, la France devance même l’UE en la matière, celle-ci n’ayant pas encore statué sur la question. Axelle Lemaire s’était d’ailleurs abritée derrière cet argument pour ne pas prendre parti, préconisant d’attendre la directive européenne …

Ces deux dispositions vont permettre à la recherche française d’être moins dépendante du lobby de l’édition scientifique. En effet, comme le rappelle Pierre Carl Langlais sur son blog Hôtel Wikipedia, « dans l’édition scientifique, les auteurs ne sont jamais payés (ils paient même pour être publiés) ».open-access-button_logo

Libre accès : voie verte, voie dorée … Ou en diamant !

La voie dorée, c’est la stratégie que certains éditeurs ont trouvé pour répondre au mouvement du libre accès (Open Access Initiative) lancé en 1996 : obliger les chercheurs à payer pour voir leurs travaux publiés … Et les lecteurs pourront y accéder gratuitement ! La ‘voie dorée’ (gold open access) se positionne par rapport à la ‘voie verte’ (green open access) en mettant en avant la qualité d’une édition scientifique professionnelle avec surtout la sélection et l’évaluation des articles par des spécialistes (‘peer review’). Tout n’est pas à condamner à priori dans ce modèle et certains auteurs y trouvent leur compte … Mais il existe des éditeurs qui sont de véritables prédateurs : c’est ce que démontre Jeffrey Beall, bibliothécaire chargé des publications en ligne et professeur associé à l’Université de Denver, Colorado dans une interview à Scholarly Kitchen. Contacté par de nombreux éditeurs ‘gold’, il s’est rendu compte, que pour certains « leur mission n’était pas de promouvoir et rendre disponibles les travaux de recherche mais plutôt d’exploiter le modèle de gold open access ‘auteurs-payants’ ». Pour lutter contre cette déviance et permettre aux chercheurs de choisir les revues pour leurs publications en connaissance de cause, Beall a publié une liste noire de ces éditeurs.

Les chercheurs déposent de plus en plus leurs travaux sur des plateformes de partage comme Academia.edu ou ResearchGate. Mais ces sites gratuits ne semblent pas présenter toutes les garanties de sécurité et de sérieux nécessaires à des publications scientifiques … 497671-rea-197588-011-580x310

Pour dépasser ces problèmes et les conflits d’intérêt qu’ils pourraient occasionner, le Comité des sciences sociales de Science Europe, propose une « voie de diamant », ou plutôt un ‘engagement de diamant comme le souligne Marin Dacos dans son post sur Blogo-numericus. Avec cet engagement les « productions scientifiques seront nativement numériques et nativement en accès ouvert, sans frais à payer pour l’auteur (APC : Articles Processing Fees) ». Pour cela les auteurs devront demander aux éditeurs l’autorisation de déposer leur publication dans une archive ouverte sous la forme de ‘postprint’ (version auteur acceptée et revue par les pairs avant correction et mise en page par l’éditeur). Les éditeurs gardent ainsi une certaine marge dans leurs publications. Marin Dacos regrette que ce dispositif ne concerne que les archives ouvertes, comme SPIRE de Sciences Po, et ne prend pas en compte les plateformes de publications comme Revues.org ou OpenEditionBooks. Sonia Livingstone, professeur en media et communication à London School of Economics (LSE), interviewé sur The Impact Blog, apprécie beaucoup la facilité et le professionnalisme des archives ouvertes et notamment LSE Rechearch Online, le dépôt institutionnel de la LSE. Elle y dépose toutes sortes de travaux : articles, mais aussi rapports de recherche, questionnaires, chapitres d’ouvrages, etc. La chercheuse préfère aussi déposer la version ‘postprint’, prête à être publiée. Et si ses articles sont encore sous paywall (embargo d’un ou deux ans) chez un éditeur commercial, les résultats d’une recherche sur Google Scholar affichent les PDF disponibles dans le dépôt de la LSE.

Martin Haspelmath a une autre vision pour cet engagement dans son post sur Free Science Blog ; il part d’abord d’un constat : le mouvement open access stagne. Malgré le fait qu’un sixième de toutes les publications est en libre accès, la majorité des abonnements (payants) est stable. Les experts en OA n’en cherchent pas la raison. Pourtant l’explication est simple, personne n’a envie que ça change : les éditeurs font des bénéfices avec leurs abonnements et les chercheurs ont besoin des éditeurs pour publier dans des revues prestigieuses pour leur carrière … ! Or les publications scientifiques ne sont pas un service qu’on peut déléguer à un prestataire extérieur (outsourcing), elles sont une partie intégrale du processus scientifique. Ce sont seulement quelques aspects techniques comme la mise en page ou l’hébergement qui peuvent sous-traités à des fournisseurs extérieurs. Ce que propose ce chercheur, c’est que les pouvoirs publics et les universités financent des éditions universitaires plutôt que d’arroser les maisons d’éditions commerciales. Chaque éditeur institutionnel pourrait créer un bouquet de revues prestigieuses et les financer comme on paye pour le personnel et les bâtiments de la recherche. Les lecteurs et les auteurs n’auraient rien à payer pour ces revues en accès libre ‘diamant’. Les financeurs tireront profit de ces investissements de la même façon qu’ils tirent profit de la recherche : en accroissant leur prestige !

Comme le souligne Sonia Livingstone, « tous les chercheurs doivent repenser leur attitude en matière de publications scientifiques … Je me réjouis de la lutte (encore incertaine) entre la propriété [intellectuelle] et l’accès au savoir ».

access-open-e1367915910684

Dacos, Marin. – Un engagement de diamant pour l’open access : position du Comité des sciences sociales de Science Europe. – Blogus numéricus, 18/08/15

Contribution de l’ABDU à la consultation nationale « Ambition sur le numérique » : TDM et open access. – ABDU, 09/15

Livingstone, Sonia. – Five minutes with Professor Sonia Livingstone on the benefits of open access and institutional repositories : entretien. – Impact of Social Sciences, 20/10/15

Lau-Suchet, Soliné. – Les enjeux de la science ouverte : retour sur les 6es journées « open access » (1/4) #OA. – Bulac, 23/10/15

« Open access » pour les revues scientifiques : il faut plusieurs modèles. – The Conversation, 10/11/15

Projet de loi pour une République numérique. – Assemblée nationale, 09/12/15

Report on Berlin 12 Open Access Conference. – Association of Research Libraries, 18/12/15

Haspelmath, Martin. - How to switch Quickly to diamond open access: the best journals are free for authors and readers – Free Science Blog, 28/12/15

Clavey, Martin. – Publications scientifiques : l’open access va entrer dans la loi. – Educpros, 09/12/15

Archives ouvertes et licences Creative Commons : des synergies à conforter. – S.I.Lex, 19/01/16

Mazin, Cécile. – Axelle Lemaire : Le gouvernement, fossoyeur de la recherche ou les éditeurs. – Actualitté, 20/01/16

Langlais, Pierre-Carl. – Vite, une loi pour garantir l’accès aux connaissances. - Hôtel Wikipédia – L’Obs-Rue 89, 20/01/16

La CPU et le CNRS demandent la libre diffusion des publications scientifiques et des fouilles de données à la mesure des enjeux scientifiques. – CNRS : communiqués de presse, 21/01/16

Academic social networks and Open Access: French Researchers at the Crossroads. – InfoDoc Microveille, 24/01/16

Esposito, Joseph. – An Interview with Jeffrey Beall. – Scholarly Kitchen, 08/02/16

 

 

Quel prêt pour le livre numérique ? La controverse autour du projet PNB

Des-écrits-aux-écrans1Un an après l’ouverture au public du premier dispositif de prêt numérique dans les bibliothèques publiques (Projet PNB), une polémique divise les bibliothécaires, notamment après la mise en service de ce prêt dans les bibliothèques de la Ville de Paris le 13 octobre.

Le Collectif SavoirsCom1 a même appelé à bloquer le système en téléchargeant des fichiers de livres disponibles jusqu’à épuisement avec le mot d’ordre « chasse aux jetons ». Pour ce groupe de bibliothécaires, chercheurs et juristes, ce modèle est inabordable pour des budgets publics et surtout l’implantation de DRM (verrous numériques) dans les fichiers des e-books va à l’encontre de la philosophie des communs communs – célébré la même semaine par les bibliothèques de Paris avec le Festival Numok pendant « Le Temps des communs ». La CGT Culture de la Ville de Paris soutient aussi l’action du Collectif en dénonçant « l’indigence du système comme du modèle ». Le livre numérique coûte plus cher à la bibliothèque que le livre papier (jusqu’à trois ou quatre fois), et de plus, il s’agit d’une licence et non d’une acquisition définitive. Cette licence est limitée dans le temps (6 ans pour la Ville de Paris) et en nombre d’emprunts simultanés (30 maximum). Ensuite la bibliothèque est obligée de racheter un exemplaire … Le syndicat appelle à « un autre rapport de force avec les éditeurs et à un droit de prêt similaire au droit du livre papier sans contrainte de durée et de nombre de prêt ».

Le Réseau Carel avait alerté dès 2013 sur le coût élevé de l’acquisition au titre et sur le choix de la licence à la place de l’achat définitif dans le projet PNB. Les budgets des bibliothèques n’y résisteraient pas et ces dernières perdraient leur rôle patrimonial en n’étant plus propriétaires des collections.

De son côté, l’ABF (Association des bibliothécaires de France) s’est inquiétée dans un communiqué « du manque de transparence de l’expérimentation PNB, et à part quelques retours, d’aucune évaluation de ce service un an après sa mise en œuvre ». L’ABF rappelle aussi que ce dispositif entre en contradiction avec les accords interprofessionnels du 8 décembre 2014 « qui appelle à la diversité des modèles du livre numérique en bibliothèque ». Le PNB risque aussi de provoquer une fracture territoriale dans la mesure où ce sont de très grandes collectivités (Montpellier, Grenoble, Paris), disposant de suffisamment de ressources financières, qui mettent en œuvre ce service. Le PNB crée donc « une inégalité d’accès à la lecture sur l’ensemble du territoire français ». De plus, la complexité du modèle avec les DRM rend difficile d’accès à ce service une grande partie des usagers qui ne sont pas à l’aise avec le numérique. Cette exclusion entre en contradiction avec les principes fondamentaux de la charte BibLib. L’ABF demande enfin au Ministère de la Culture de « diligenter une véritable étude indépendante qui puisse faire le point sur cette année d’évaluation ».

Comble d’incompréhension, des bibliothécaires parisien(ne)s qui ont pris l’initiative de relayer ce communiqué sur twitter ont été sommés de retirer immédiatement leurs twits par le Bureau des bibliothèques (BBL) rattaché au cabinet de Bruno Julliard … ! Le travail de veille des professionnels se voit ainsi censuré ! Même si le BBL est revenu ensuite sur sa décision

Comment en est-on arrivé là ? A la différence des BU, les bibliothèques publiques ne disposaient pas véritablement de prêt de e-books, exceptées quelques expériences de prêt de liseuses. 6a00d8342e8a5353ef01b8d120387c970c

La première vague d’initiative remonte à 2011 pour la phase de prospection et de concertation. Le projet PNB regroupant les établissements de Montpellier, Grenoble, Aulnay-Sous-Bois et Levallois s’est ouvert au public à l’automne 2014. Il intervient dans un contexte où seules 4% des grandes bibliothèques disposent d’un service de prêt d’e-books malgré la multiplication des distributeurs (Bibliovox, Lekti, Numilog, l’Harmatèque, etc.).

L’originalité du modèle PNB – projet interprofessionnel soutenu par le CNL – réside dans l’existence d’une interface réalisée par l’opérateur Dilicom qui permet l’articulation entre les différents acteurs : éditeurs et diffuseurs (catalogue de livres) ; libraires (offres des distributeurs aux collectivités) ; bibliothèques et usagers. Les livres peuvent être téléchargés ou lus en ligne (streaming).

La chaîne de gestion du prêt numérique prend en charge l’ensemble des étapes nécessaires au fonctionnement du service. Chaque collectivité établit les partenariats qui lui conviennent ; Montpellier, par exemple, avec la librairie Sautemps, le logiciel Archimed et le prestataire ePagine. L’objectif est de préserver et de stabiliser la place des libraires.

Des expériences semblables ont lieu dans le monde. Au niveau francophone, le Québec et la Belgique ont adopté le même modèle, avec la participation de librairies agrées. En 2014, le système québécois pretnumerique.ca a enregistré près d’un million d’emprunt avec une moyenne de 20 000 prêt par mois. La licence fonctionne comme pour le prêt papier : 1 copie = 1 utilisateur (pas de prêt simultané) ce qui rend l’exemplaire emprunté immédiatement indisponible pour les autres lecteurs ! Là aussi, les e-books empruntés sont chrono-dégradables, ils s’effacent automatiquement à la fin de la période de prêt ; chaque copie peut être empruntée 55 fois, ensuite il faut acquérir un nouvel exemplaire. Jean-François Cusson, responsable du service, reconnait qu’il peut paraître absurde d’introduire la notion d’exemplaire dans l’univers numérique, mais pour des raisons pragmatiques, les bibliothèques ont préféré utiliser les systèmes de diffusion existants …
En Belgique francophone, un consortium de bibliothèques a rejoint le dispositif PNB.

Aux Etats-Unis et au Canada anglophone, les bibliothèques s’adressent directement aux plateformes de distribution commerciales sans passer par la médiation des libraires. home-big-image-220772a036b791a8c8cd39132d932b2a

La présence des libraires dans le dispositif PNB est un des principaux arguments utilisés dans la réponse à l’offensive de SavoirsCom1. Grâce à leur médiation, les bibliothèques ne se font pas cannibaliser par les acteurs commerciaux du Net (Google, Amazon) qui proposent des abonnements à la Netflix au consommateur-lecteur … Et concurrencent le service public !

Laurent Soual, bibliothécaire consultant, rappelle dans une tribune sur Actualitté, que c’est l’avenir des bibliothèques qui est en jeu : ce sont « les seules institutions légitimes pour proposer un service de prêt numérique aux usagers. Si ce service n’est pas efficient, elles perdront toute légitimité aux yeux des décideurs et des élus pour continuer à proposer leurs services traditionnels ou pour en proposer de nouveaux » !

Les bibliothécaires des établissements qui ont expérimenté le projet PNB ont posté une réponse collective aux critiques de SavoirsCom1 et de l’ABF : coût élevé du système et des livres numériques, utilisation des DRM et complexité du dispositif, service réservé aux grandes bibliothèques, offre de livres numériques restreinte, etc… Les bibliothécaires expérimentateurs explicitent leurs choix en soulignant qu’une évaluation est prévue au bout de deux ans et la plupart des bibliothèques sont à moins d’un an d’expérience.Le Collectif SavoirsCom1 s’est empressé d’y répondre avec Dix idées reçues pour prolonger le débat sur PNB et le prêt numérique ….

Après les bibliothécaires et les lecteurs, ce sont à présent les auteurs qui se sentent floués par le PNB. Dans le prêt numérique, l’auteur touche une part sur le prix du livre, mais ne touche aucune compensation pour le prêt, alors qu’un e-book peut être emprunté entre 20 et 40 fois ! Ce manque de compensation touche aussi les éditeurs. Même si la rémunération est supérieure à celle du livre imprimé, cette offre va permettre des usages défavorables à toute la chaîne du livre.

Affaire à suivre …

Mazin, Cécile. – Des e-books en bibliothèque, certes, mais à certaines conditions.Actualitté, 09/10/13

Oury, Antoine. – Première approche de PNB pour les bibliothécaires français. – Actualitté, 11/08/14

Bibliothèque de Grenoble : ouverture de Bibook, l’offre de livres numériques PNB . – Aldus, 08/09/14

PNB ou le livre numérique inabordable pour les bibliothèques. - SavoirsCom1, 12/2014

Des livres numériques : où je veux, quand je veux ! - Paris.fr Bibliothèques, 14/10/15

Mercier, Sylvère. – Prêt numérique en bibliothèque : critique constructive d’un modèle inadapté. – SavoirsCom1, 10/2015

Collectif SavoirsCom1. – Prêter des livres numériques comme des livres papier : une fausse évidence. – Rue 89, 15/10/15

L’ABF alerte sur le sur dispositif Prêt numérique en Bibliothèque. – ABF, 16/10/15

Les critiques contre les conditions de prêt numérique en bibliothèque (PNB) rendent fou Bruno Julliard. – Social Nec Mergitur, 19/10/15

Bibliothèques : le prêt numérique en question en France. – Aldus, 19/10/15

Ne serait-il pas dommage de refuser sa chance au projet PNB ?Actualitté, 21/10/15

Soual, Laurent. - Prêt numérique en bibliothèque n’est pas le TGV Lyon-Turin. – Actualitté, 22/10/15

Oury, Antoine. – PNB : la rémunération des auteurs reste problématique. – Actualitté, 23/10/15

Dix idées reçues sur le débat sur PNB et le prêt numérique. – SavoirsCom1, 10/2015

 

Loi numérique : quelle ambition pour la France ?

formationnumerique2En attendant le Projet de loi sur le numérique prévu pour la rentrée, Manuel Valls a présenté le 18 juin 2015 la stratégie numérique du gouvernement qui s’appuie sur le Rapport du Centre National du Numérique (CNNum) « Ambition numérique », synthèse de la concertation lancée en octobre 2014.

Comme le souligne la chercheuse Francesca Musini dans son interview sur la Commission parlementaire sur le numérique « Jusqu’à présent les parlements ont plutôt légiféré de façon réactive par rapport au numérique, sur des questions spécifiques. C’est une bonne idée d’essayer de faire autrement, d’avoir une réflexion sur le long terme. »

Le gouvernement a avancé 14 mesures qui reprennent plus ou moins les 70 propositions du rapport Ambition numérique (4 thèmes et 70 propositions ayant impliqué la participation de 5000 personnes et de près de 18 000 contributions en ligne … !)

Alors que les programmes précédents se limitaient souvent au champ économique ou à la propriété intellectuelle comme la LCEN (Loi pour la confiance en l’économie numérique) en 2004 et la HADOPI (Loi favorisant la diffusion et la protection de la création sur internet) en 2009, le projet de loi numérique 2015 envisage tous les domaines touchés par le numérique. Comme l’affirme Benoît Thieulin, Président du Conseil national du numérique dans la préface du rapport « plusieurs numériques sont possibles et il est temps de construire un numérique européen, plus politique, plus conforme aux promesses d’’empouvoirement’ comme à celles des pères fondateurs. Il revient à la France et à l’Europe de définir ce numérique et de mettre en place des
politiques publiques pour le construire. »

Politique et gouvernance de l’internet
Pour Axelle Lemaire, interviewée dans Le Monde, « la France ne peut pas « se permettre d’être passive dans cette révolution, nous devons mettre la barre le plus haut possible et imprimer le changement partout pour moderniser l’action publique ». »

– inscription de la neutralité du net dans la loi « Je souhaite inscrire dans la loi une définition claire de la neutralité du Net qui assure à tous un même accès aux réseaux à tous les opérateurs » Manuel Valls, Gaité Lyrique, 18/06/15.

– ouverture des données publiques déjà entamée avec Etalab. Instauration d’une administration générale des données. En 2016, la France prendra la présidence du « Partenariat pour un gouvernement ouvert » (Open Governement Partnership).

– instauration d’une « Charte des droits du citoyen et du numérique » avec le Conseil de l’Europe.

– création d’un « État plateforme » avec des API (interface de programmation d’application) pour interroger les bases de données de l’État et créer de nouveaux services

Économie : croissance, innovation, disruption
Intégrer les nouveaux paradigmes : rapidité de croissance, concurrence internationale et innovation sous toutes ses formes. Accélérer la transformation numérique des entreprises et fluidifier leurs relations : charte entre grands groupes et start-upsAxelle Lemaire :« Montrer que la France est un pays attractif, que nous y innovons, que nos entreprises décrochent des contrats ».

- A l’international : soutenir la montée en puissance de la « French Tech », rencontre entre start-ups et grands financeurs, mais aussi accompagner la révolution technologique des pays du Sud.

– Promouvoir une « économie de la donnée » avec la création de « données d’intérêt général » dans des secteurs clés : transport, santé, énergie et tourisme

– encourager la coopération entre entreprises traditionnelles et start-ups et la transition numérique pour les TPE et PME avec des services numériques pour chaque filière

Cependant, l’innovation numérique dans l’économie fera aussi l’objet d’une loi « Macron 2″ au second semestre comme le révèle la Lettre de l’Audiovisuel du 21/07.

Médiation numérique et protection de l’utilisateur

– Renforcer la médiation numérique pour accompagner son usage pour les particuliers

– Inspection par les services de la concurrence des « conditions générales d’utilisation » sur grands sites opérant en France

– modification de la loi sur les données personnelles ; possibilité de transporter ses données d’un service à un autre

– Régulation des plateformes pour protéger les utilisateurs sans brider l’innovation

Enseignement et recherche

– Favoriser une science ouverte par la libre diffusion des publications et des données de la recherche

– Mise en place de « la grande école du numérique »  : labellisation des formations centrées sur le numérique (universités, collectivités, associations)

– Déploiement du plan numérique pour l’éducation : 200 collèges pilotes à la rentrée 2015, généralisation à la rentrée 2016

Social et Santé

– lancement de l' »Emploi Store » : bouquet de services Pôle Emploi (site + applications) pour les demandeurs d’emploi

– Déploiement du plan « Médecine du futur » : filières françaises de biotechnologies, médecine personnalisée et dispositifs connectés.

Si ces mesures collent à l’actualité et semblent même devancer les directives européennes (neutralité du net, données personnelles) avec certaines innovations (données d’intérêt général, start-ups d’Etat), on a malgré tout l’impression de se trouver devant un catalogue d’initiatives hétéroclites, loin de l’atmosphère inspirée du rapport Ambition numérique.

Ce dernier réaffirme d’abord le socle de principes qui décrivent l’horizon de la société numérique : le numérique doit être au service d’une société solidaire « inclusion de tous, bénéfices au niveau individuel et collectif, garanties propres au droit commun grâce à une « Collaboration entre société civile, réseau académique, communauté technique et acteurs économiques ».  Aller vers une ‘société ouverte’ et favorisant l’horizontalité dans l’organisation et la participation de tous les acteurs (salariés, agents, clients, utilisateurs) ; préserver l’État de droit et la protection des droits fondamentaux. « C’est un modèle nouveau qu’il faut inventer : celui qui met le numérique au service du pouvoir d’agir et de l’émancipation individuelle comme collective. » (Préface de B. Thieulin)

Les propositions d’Ambition numérique

Pour un gouvernement plus ouvert « renforcer la transparence et la traçabilité de ses processus décisionnels en généralisant les outils de visualisation des textes normatifs et de leur élaboration. Évaluation des politiques publiques sur le principe de l’open data ». Renforcer la littératie numérique des agents publics. Pour les services numériques au public : « partir des usages pour améliorer leur conception. »

- Loyauté dans l’environnement numérique : Protéger les libertés fondamentales, implication dans la gouvernance du Net et affirmation du principe de la neutralité du Net.
Internet est un ‘bien commun’, bénéficiant à l’ensemble de la société. Favoriser une approche globale, alliant la neutralité des réseaux avec une gouvernance du numérique démocratique et des règles de fiscalité internationale équitables.

Reconnaissance d’un droit à l’autodétermination informationnelle en donnant aux individus la maîtrise sur leurs données personnelles pour qu’ils puissent tirer parti de leurs valeurs d’usage.

Principe de loyauté des plateformes et des algorithmes destinés à la personnalisation, au classement et au référencement.
Loyauté des plateformes vis-à-vis de leurs clients et utilisateurs, particuliers et professionnels. Obligation générale de transparence, d’information et de non-discrimination.
Réaffirmation de l’Etat de droit, incompatible avec des régimes d’exception pour pouvoir garantir l’équilibre entre sécurité et libertés publiques.

Ce thème reprend les conclusions de la « Commission de réflexion et de propositions ad hoc sur le droit et les libertés à l’âge du numérique » à l’Assemblée nationale. Voir à ce sujet l’Interview de la sociologue Francesca Musini sur Mysciencework : «  Il y a deux grandes questions sur lesquelles on a commencé à réfléchir. D’un côté, l’équilibre entre surveillance et vie privée, comment préserver les données personnelles face à tout un ensemble de stratégies de surveillance des utilisateurs. De l’autre, la liberté d’expression sur internet et les moyens techniques qui permettraient d’assurer la diversité des opinions, comme par exemple en préservant la neutralité du Net. »
Ces principes ne peuvent qu’entrer en contradiction avec la Loi sur le renseignement adopté en juin 2015.

- La société face à la métamorphose numérique Numerique

Affirmer un objectif politique d’’empouvoirement’ des individus : pouvoir de contrôle, mais aussi pouvoir d’agir, individuellement et collectivement.
Refaire société par les communs : promotion des pratiques collaboratives. Encourager l’économie collaborative tout en la régulant.
Promouvoir un espace informationnel partagé pour réaliser la diffusion d’un internet ouvert : la co-création comme mode d’inclusion et d’éducation. Faire de la publication ouverte une obligation légale pour la recherche bénéficiant de fonds publics. Définir positivement et élargir le domaine public. Faire évoluer et clarifier l’exception pédagogique pour une meilleure adéquation avec les usages numériques.

S’appuyer sur le numérique pour réduire les inégalités par un travail d’éducation et de médiation autour de la littératie numérique. Cette préconisation reprend l’idée du Rapport Camani/Verdier sur la Médiation numérique : responsabilité de l’Etat qui « doit veiller à ce que toute personne puisse acquérir les compétences numériques qui lui garantissent un accès au droit, à l’emploi, à la connaissance, à l’épanouissement individuel et à la vie collective ».
« L’État devrait donc, en particulier s’assurer que le développement de ces  technologies ne conduise pas à accentuer des clivages existants, qu’ils soient de nature sociale, culturelle, générationnelle ou liés à des disparités géographiques. »
Repenser nos systèmes collectifs entre optimisation, réforme et rupture.
Relation avec la Communauté Européenne pour un marché unique du numérique : principales orientations : réforme du copyright, régulation des plateformes et lutte contre le « géoblocking ». « A l’échelon européen, la France doit être une force de mobilisation et d’interpellation » Benoît Thieulin.

Le débat

Mais ces préconisations pour la loi numérique ne satisfont pas tout le monde. Alors que « Savoirscom1 » salue les orientations du rapport du CNNum en faveur des Communs, des organisations de professionnels de l’informatique comme Syntec numérique ou l’AFDEL ont réagi de façon mitigée, comme le souligne l’article du Monde informatique. Tout en reconnaissant le travail de grande ampleur réalisé par le CNN et l’aspect très riche de ses contributions, ces organisations professionnelles se démarquent de l’enthousiasme ambiant.

Le syndicat Syntec s’inquiète de la remise en cause de la neutralité technologique de l’achat public « L’ouverture forcée des codes sources est une demande inacceptable en matière de propriété intellectuelle » indique Syntec dans un communiqué. L’Afdel rejette, quant à elle « une vision anti-industrielle du numérique ». L’Association française des éditeurs de logiciels juge ‘dogmatiques’ les propositions sur le logiciel libre et estime « anxiogènes et éloignées du marché » les propositions autour des plateformes et des données personnelles. « L’exclusion des éditeurs de logiciels de la commande publique au profit des projets de développement spécifiques est une atteinte inacceptable au principe de neutralité technologie » ; « L’Afdel souhaite que l’Etat s’appuie au contraire sur les PME et les start-ups du numérique, quel que soit leur modèle, pour se numériser ». Quant à la régulation des plateformes, il s’agit pour l’Afdel, d’une ‘vison défensive’ du numérique et elle juge ‘iconoclaste’ les propositions d’encadrement des algorithmes … !

D’autre part, une controverse s’est ouverte ces derniers jours autour des ‘données d’intérêt général’, données détenues ou collectées par des SPIC (Service Public à caractère Industriel et Commercial) comme la SNCF, la RATP ou l’INSEE. SavoirsCom1 explique que la « réticence à ouvrir les données de certains secteurs stratégiques, comme les transports, est souvent liée à la crainte qu’elles ne soient ensuite accaparées par de gros acteurs en position dominante (Google par exemple). » Pour contrer ces monopoles on envisage la mise en place de redevances ou de systèmes Freemium. Pour sa part, « SavoirsCom1 préconise d’appliquer les mêmes principes que ceux qui ont cours dans le champ du logiciel libre … en choisissant des licences comportant une clause de partage à l’identique ».

L’adoption du projet de loi sur le renseignement et de la loi Macron contredisent dans une certaine mesure les affirmations sur l’économie et la société ouverte et collaborative préconisée par le Rapport « Ambition numérique ». Quelle proportion de ce rapport sera définitivement conservée dans la Loi numérique ? C’est ce qui permettra d’évaluer la distance entre une généreuse utopie et la ‘realpolitik’ ….

Diconet1

Bonnes vacances et bel été à tous !

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. – Légifrance, 22/06/04

Loi n° 2009-669 du 12 juin 2009 favorisant la diffusion et la protection de la création sur internet (1).- Légifrance, 13/06/09

Kadri, Pierre-Sofiane. - Une sociologue intègre la commission « droit et liberté à l’âge du numérique à l’Assemblée. – Mysciencework, 16/07/14

Elbaze, Gérald/ – Le rapport Carmani-Verdier : un rapport historique pour la médiation numérique. – Médias-cité, 30/10/14

Lemoine, Philippe. – La transformation numérique de l’économie française : Rapport au gouvernement.- Ministère de l’économie, novembre 2014. pdf.

François Hollande « Le numérique est devenu notre langue ». – Regards sur le numérique, 07/05/15

Ambition numérique : Pour une politique française et européenne de la transition numérique. Rapport remis au Premier ministre. – CNNum, 18/06/15

Bohic, Clément. – Projet de loi numérique : les préconisations du CNNum. – ITespresso, 18/06/15

Belouezzane, Sarah ; Untersinger, Martin. – Le gouvernement présente sa stratégie numérique pour la France. – Le Monde, 18/06/15 – MAJ 17/07/15

Samama, Pascal. – Concertation numérique : une charte entre le CAC 40 et les startups.01Net, 22/06/15

Mettons les Communs au coeur de la future loi sur le numérique ! – SavoirsCom1, juin 2015

Le projet de loi sur le numérique rendu public en juillet. – Le Monde informatique, 22/06/15

Projet de loi relatif au renseignement (PRMX1504410L). – Légifrance, 25/06/15

France vs Union européenne : Quelle évolution pour le droit d’auteur ?

llc_droit_d_auteurLa Commission européenne avait lancé début 2014 une consultation sur la modernisation du droit d’auteur (cf Prospectibles). Parmi les propositions qui serviront de base à la nouvelle directive se trouve le rapport au Parlement européen de la jeune eurodéputée allemande du Parti Pirate (apparenté écologiste) Julia Réda.

Ce rapport qui sera soumis au vote fin mai a été présenté au Sénat le 3 avril par Julia Reda elle-même. Un des principaux objectifs de ce rapport est l’harmonisation du droit d’auteur au sein de l’Union européenne et aussi une mise à jour de ce droit dans le contexte de la société numérique, la dernière directive datant de 2001 (avant Facebook et YouTube) …

Cet « aggiornamento » voudrait pouvoir accorder plus de choix aux utilisateurs sans pour autant réduire les prérogatives des auteurs.

En effet, si la directive 2001 s’applique à l’ensemble des membres de l’UE, chaque pays dispose d’exceptions différentes. Par exemple, dans le cas de l’entrée dans le domaine public : « Le petit prince » d’Antoine de Saint-Exupéry, disparu en 1944, devrait être partout dans le domaine public (70 ans après la disparition de l’auteur) … Sauf en France, où Saint-Exupéry, héro de guerre, dispose de 30 ans de plus … !

Le rapport fait déjà l’objet de 550 amendements et d’un intense lobbying, notamment de la part d’organismes français, soutenus par la Ministre de la Culture Fleur Pellerin. « La position de la France devrait être simple à établir : ne pas accepter le principe de la réouverture de cette directive tant que la nécessité réelle des solutions existantes n’a pas été démontrée » : c’est la conclusion du rapport du juriste Pierre Sirinelli, présenté le 18 novembre au Conseil supérieur de la propriété littéraire et artistique.

On comprend que les ayants-droit s’inquiètent de cette réforme : le Commissaire européen au numérique Günther Oettinger, ayant déclaré le sujet prioritaire et sa volonté de « libérer la créativité » et briser les barrières nationales, confortant sur ce point le projet de ‘marché unique numérique’ du Président de la Commission Jean-Claude Juncker.copyright

Si l’on comprend bien les préoccupations des syndicats d’auteurs et de créateurs qui ne désirent pas un ‘nivellement par le bas’ de la diversité culturelle européenne où l’on favorise les « tuyaux » au détriment des contenus (JM Cavada), il faut reconnaître qu’avec l’internet le consommateur culturel est devenu transfrontalier. Il peine à comprendre pourquoi il peut avoir accès à certains contenus (presse, revues, réseaux sociaux) partout, (ou du moins dans les pays où la censure ne sévit pas) et pas à d’autres (films, séries, programmes TV) en fonction de réglementations spécifiques de chaque pays …

Les propositions du Projet de Rapport Reda

  • Reconnaissance de la nécessité d’une protection juridique pour les auteurs et créateurs et interprètes et aussi pour les producteurs et éditeurs dans la commercialisation des œuvres. Amélioration de la position contractuelle des auteurs par rapport aux intermédiaires.
  • Introduction d’un titre européen unique du droit d’auteur qui s’appliquerait directement et uniformément dans l’ensemble de l’UE pour pallier le manque d’harmonisation de la directive 2001/29 CE
  • Poursuite de la suppression des obstacles à la réutilisation des informations du secteur public en exemptant les œuvres du secteur public de la protection du droit d’auteur.
  • Protection des œuvres du domaine public, par définition non soumises au droit d’auteur et qui devraient pouvoir être utilisées et réutilisées sans obstacles techniques ou contractuels.
  • Harmonisation de la durée de protection du droit d’auteur qui ne dépasse pas les normes internationales fixées dans la Convention de Berne (50 ans après le décès de l’auteur).
  • Exceptions et limitations : harmonisation des exceptions ; rendre obligatoires les exceptions facultatives (droit à la citation, copie privée) ; création de nouvelles exceptions : représentation (photos ou vidéos) d’œuvres d’arts ou de monuments sur internet ; prêt numérique (e-books) pour les bibliothèques ; extension du droit de citation (vidéo). Suppression des limitations territoriales (audiovisuel ; chronologie des médias). Les droits se négocieraient au niveau européen plutôt qu’au niveau national.

Rien de très révolutionnaire dans ces propositions, si ce n’est la volonté d’étendre à l’ensemble de l’Union des lois qui existent pour certains Etats-membres. Comme l’explique Julia Reda sur son blog « Nous devons promouvoir la diversité culturelle. Mais la diversité culturelle n’est pas la même chose qu’une diversité de lois. »

Une des principales critiques contre ce projet est que la suppression des limites territoriales serait une porte ouverte pour les GAFA et autres multinationales américaines comme Netflix qui profiteraient d’un copyright unique européen pour imposer leurs conditions aux créateurs et éditeurs. Ces entreprises sont déjà bien installées sur le web européen et profitent plus de la manne publicitaires que les acteurs traditionnels (médias, éditeurs). C’est cette part grandissante des « intermédiaires techniques » qui ne soutiendraient pas assez la création que dénonce le rapport Sirinelli, commandé par le Ministère de la culture pour défendre le point de vue français dans cette réforme du droit d’auteur. Ce rapport voudrait pouvoir surtout renforcer le droit d’auteur et réduire les exceptions. Il s’oppose également au « fair use » à l’américaine qui serait une ‘liste ouverte d’exceptons’. En revanche, l’exception de copie privée devrait être rendue obligatoire pour le paiement de la redevance dans les pays qui y sont encore opposés. Le rapport demande aussi un réexamen de la directive sur le commerce électronique.droitsdauteurs2

En effet, pour ses détracteurs, le projet Reda ne s’attaque pas assez au problème du piratage et de la contrefaçon … Et le fait que la rapporteure est membre du Parti Pirate n’arrange pas les choses !

Mais les acteurs français ne sont pas tous contre la réforme du droit d’auteur. Les bibliothécaires et les chercheurs soutiennent l’idée d’un ‘fair copyright’ qui permet les exceptions pédagogiques et le prêt numérique. Contrairement à ce que soutenait Lionel Maurel au lendemain du Congrès de l’IFLA dans son blog S.I.Lex, les professionnels de l’information ne se limitent pas à défendre les exceptions. L’Interassociation Archives Bibliothèques Documentation (IABD) soutient le London Manifesto des bibliothécaires britanniques en affirmant : « Une législation sur le droit d’auteur équilibrée (fair copyright) à travers l’Europe sont des droits essentiels.  Sans eux, nous ne parviendrions pas à soutenir efficacement la recherche, l’innovation et la croissance et nous entraverions l’ambition d’un marché unique du numérique. ».

Les préconisations des bibliothécaires français et britanniques sont assez proches du rapport Reda : harmonisation des exceptions, normes ouvertes, droit de prêt numérique, harmonisation de la durée de protection, droit d’acquérir une licence d’utilisation, droit d’explorer (fouille de textes) : analyse informatique des ouvrages pour les bibliothèques, droits pour les personnes handicapées : ratification du Traité de Marrakech, droits d’usages transnationaux, numérisation de masse, etc.

On retrouve ces préoccupations chez les chercheurs, comme dans la présentation d’Eric Verdeil à l’Ecole doctorale SHS de Lyon « Publications scientifiques en sciences humaines et sociales à l’ère du numérique : enjeux pour les chercheurs » : valorisation du ‘fair use’, copyleft et Creative Commons.

On est encore loin d’avoir épuisé les domaines d’application du droit d’auteur : les impressions 3D font partie des prochains défis : les sénateurs viennent finalement de décider que les imprimantes 3D ne seraient pas soumises à la redevance pour copie privée … ! En revanche, les tracteurs ‘connectés’ (cf le dernier post d’Affordance) vont devoir embarquer des DRM dans les codes informatiques qui les font fonctionner et empêcher les utilisateurs de ‘bidouiller’ pour les dépanner !

copyright1

IFLA 2014 : les bibliothèques et le piège des exceptions. – S.I.Lex, 29/09/14

Günter Oettinger promet une réforme du droit d’auteur d’ici deux ans.Euractiv, 30/09/14

Rapport de la mission sur la révision de la directive 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Pierre Sirinelli – Conseil supérieur de la propriété littéraire et artistique, octobre 2014

Mon rapport sur le droit d’auteur dans l’UE. - Julia Reda, 16/12/14

Rees, Marc. – Fleur Pellerin aiguise ses armes pour défendre les ayants droits à Bruxelles. – NextInpact, 13/01/15

Projet de rapport sur la mise en œuvre de la directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information/Julia Reda – Parlement européen ; Commission des affaires juridiques, 15/01/2015

Un rapport parlementaire plaide pour le détricotage du droit d’auteur. – Euractiv, 20/01/15

Rees, Marc. – Rapport Reda : la commission ITRE veut concilier anciens et modernes. – NextInpact, 03/03/15

La mobilisation sur le droit d’auteur devrait étendre le champ de la réforme en cours. – Euractiv, 13/03/15

Gary, Nicolas. – Auteurs et éditeurs : les relations empirent en France. – Actualitté, 20/03/15

The London Manifesto : Time for reform ? – 1709 Blog, 01/03/15

La culture européenne n’est pas confinée aux frontières nationales – n’utilisons pas le droit d’auteur pour la forcer à l’être (discours au Sénat). – Julia Reda, 04/04/15

L’IABD soutient le London Manifesto qui prône une réforme européenne du droit d’auteur favorable aux bibliothèques, aux archives et aux services de documentation. – IABD, 04/94/15

Gary, Nicolas. - IABD : pour une législation équilibrée du droit d’auteur, le fair copyright. – Actualitté, 06/04/15

Langlais, Pierre-Carl. – Le droit d’auteur ne fait vivre qu’une minorité d’artistes. – L’Obs, 08/04/15

Verdiel, Eric. – Publications scientifiques en sciences humaines et sociales à l’heure du numérique : enjeux pour les chercheurs. – Lyon, Ecole doctorale SHS, session 2015 [Slideshare]

Rees, Marc. – Pas de taxe copie privée pour les imprimantes 3D. – NextInpact, 27/04/15

Du Digital labor au copytalisme. – Affordance.info, 28/04/15

 

Staypressed theme by Themocracy