Economie des plateformes : entre partage des communs et post-salariat capitaliste

ozwilloLes plateformes occupent  une place de plus en plus prépondérante dans l’activité numérique actuelle. Que ce soit sur des applications mobiles ou à propos de nouveaux services publics ou associatifs, on retrouve cette même notion à la définition un peu floue.

Définition et réglementation

Sur Wikipédia, on est un peu déçu : entre plateforme pétrolière et géologique, la plateforme en informatique est décrite comme « une base de travail à partir de laquelle on peut écrire, lire, utiliser, développer un ensemble de logiciels ».

Dans l’avant-projet de la loi Lemaire, cité dans l’article de Marc Rees dans NextInpact : la régulation proposée vise des activités « consistant à classer ou référencer des contenus, biens ou services proposés ou mis en ligne par des tiers, ou de mettre en relation, par voie électronique, plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service, y compris à titre non rémunéré, ou de l’échange ou du partage d’un bien ou d’un service ».

Cela reprend en partie la définition du Conseil national du numérique dans son Rapport sur la neutralité des plateformes , citée par Aurélie Barbaux dans un article d’Usine Digitale « une plateforme est un service occupant une fonction d’intermédiaire dans l’accès aux informations, contenus, services ou biens, édités ou fournis par des tiers. Au-delà de sa seule interface technique, elle organise et hiérarchise les contenus en vue de leur présentation et leur mise en relation aux utilisateurs finaux. A cette caractéristique commune s’ajoute parfois une dimension écosystémique caractérisée par des relations entre services convergents ».

La plateforme prend donc la forme d’un service intermédiaire entre fournisseurs (d’informations, de biens, de services) et les utilisateurs finaux. Elle représente en fin de compte la médiation numérique par excellence. C’est cette fonction que vont alimenter les professionnels de tous secteurs pour mettre des contenus à disposition des usagers. La structuration de cette infrastructure incontournable de la société de l’information passe par la programmation de logiciels dédiés : les fameux algorithmes qui ajoutent une pincée d’intelligence artificielle à la gestion des transactions.

La Loi numérique s’est donné aussi pour objectif d’encadrer cette activité, notamment par la création d’indicateurs et la diffusion de « bonnes pratiques visant à renforcer leurs obligations de transparence et de loyauté ». Ces obligations concernent les plateformes dépassant un certain seuil de connexions. Le Ministère de l’économie et le Secrétariat au numérique se réserve par ailleurs la possibilité de faire des enquêtes et de publier la liste des plateformes qui ne respectent pas ces obligations … plateformes

Plateformes services publics ou associatifs

De nombreuses plateformes ont été conçues dans les services publics pour mettre à la disposition des usagers un certain nombre d’informations et de données ouvertes. La dernière mise à jour (octobre 2016) concerne l’enseignement supérieur et la recherche. Cette plateforme Open data propose 55 jeux de données ouvertes sur l’enseignement supérieur et la recherche. Son interface, plus lisible, facilite l’accès aux données. Elle est synchronisée avec la plateforme nationale data.gouv.fr, de la mission Etalab, qui propose toutes les données publiques ouvertes.

Toujours dans le contexte de l’éducation nationale, Mediaéducation, la plateforme d’accès à la presse à l’école. Fruit d’un partenariat entre le ministère de l’Education nationale et l’opérateur de publications numériques miLibris, la plateforme Lire l’Actu propose 13 titres de quotidiens et de magazines français et étrangers à découvrir sur les tablettes et les ordinateurs fixes des lycées et collèges. D’autres titres seront progressivement ajoutés, notamment en presse régionale.

L’Enssib devrait mettre aussi en ligne, en partenariat avec l’ABF, « une plateforme des projets destinée à valoriser les projets portés dans les bibliothèques de France. L’objectif de cette plateforme est de rendre visibles les projets en cours ou déjà réalisés et faciliter les échanges entre professionnels aux objectifs communs. » Elle proposera aussi une cartographie des activités des bibliothèques et des centres de documentation français.

D’autres plateformes existent dans le secteur des bibliothèques, comme e-shelf service, pour gérer
les collections de livres numériques. Sa particularité, comme le souligne Thomas Fourmeux dans Biblio numéricus, réside dans la prise en charge par l’entreprise des négociations avec les éditeurs. Cette plateforme a été développée « par un consortium de bibliothèques à but non lucratif qui se consacre au développement de services à destination des bibliothèques. Leur mission est de promouvoir le partage de ressources et l’émergence de services innovants à travers la collaboration. »

 

Les plateformes de services e-commerce ou de partagebusit-usages-wo

Mais si le terme générique « plateforme » recouvre des activités de toutes sortes, allant du covoiturage (Blablacar) ou de partage de canapé (couchsurfing) à des sociétés de taxis (Uber) ou de location de chambres ou d’appartement (AirBnB), ces services recouvrent deux réalités économiques différentes. Comme le souligne Philippe Portier dans son article du Monde, on trouve, d’un côté, ‘l’économie collaborative stricto sensu’ qui mutualise les biens, les espaces et les outils en favorisant l’usage par rapport à la possession et l’organisation en réseaux ou en communautés des citoyens ; de l’autre ‘l’économie ubérisée’ « qui traduit l’émergence de professionnels d’un nouveau genre, concurrençant les modèles traditionnels grâce à la combinaison d’outils technologiques, communs à l’économie collaborative (les plateformes, les outils numériques et les objets connectés) et de l’autoentrepreneuriat. ». Le premier modèle relève de l’économie non marchande qui participe de la philosophie des ‘communs’, basée sur la mutualisation des biens et des savoirs ; le second représente « un nouveau modèle d’entreprise horizontalisée, dématérialisée, idéalement sans salariés ni bureaux, capable de concurrencer les acteurs traditionnels, via la mobilisation (par les technologies numériques) un grand nombre de prestataires, sans en assurer la charge. ».

C’est ce que souligne aussi Michel Bauwens, théoricien de l’économie collaborative, dans son article du Monde : « Uber et Airbnb n’ont rien à voir avec l’économie du partage ». Pour ce chercheur, « l’économie ‘pair à pair’ où les individus s’auto-organisent pour créer un bien commun, a un potentiel émancipatoire important ». Avec des sociétés comme Uber, « il s’agit plutôt d’une mise sur le marché de ressources qui, jusque-là n’étaient pas utilisées. ».

Cela nous amène à la question soulevée par Ivan Best dans la Tribune « le numérique met-il fin au salariat ? ». Dans son compte-rendu des Rencontres d’Aix du Cercles des économistes, le journaliste souligne l’acuité de la crise actuelle. Si toutes les révolutions industrielles par le passé ont connu aussi des destructions d’emplois en masse, d’autres jobs sont toujours apparus pour les remplacer ; en revanche, selon Andrew McAfee, économiste du MIT « cette fois, c’est différent ». Le professeur souligne les éléments nouveaux qui font douter du fonctionnement de la théorie du déversement préconisée par Ricardo : le pouvoir d’achat stagne depuis 20 ans, la classe moyenne en voie d’érosion, la part des salaires dans la valeur ajoutée diminue … Avec l’accélération technologique qui permet non seulement de supprimer les tâches répétitives, mais prend de plus en plus en charge des travaux de conception, les services sont de moins en moins qualifiés. Avec le GPS, par exemple, les chauffeurs de taxis n’ont plus besoin de connaître les rues des villes. Le recours au contrat de travail est moins fréquent. A terme, le travail humain devient de moins en moins nécessaire …

On retrouve ce questionnement  dans l’article d’Olivier Ertzscheid sur InaGlogal « Du digital labor à l’ubérisation du travail ». Il souligne la « part croissante de l’automatisation et de l’algorithmie dans des missions jusqu’ici considérées comme régaliennes (transport, santé, éducation).»  Pour ce chercheur, il faudrait se préparer et prendre la pleine mesure de cette transformation de la société contemporaine. Uber représente le phénomène le plus abouti de cette évolution : « Über a permis, pour la première fois à cette échelle, de fractionner notre rapport au travail, à l’outil de travail, de la même manière qu’avant lui Airbnb avait permis de fractionner notre rapport à la propriété. ». Ce qui lui fait prédire que « la révolution sera ubérisée » avec des conflits sociaux d’un nouveau genre. Face à cela, le politique est impuissant et le recours à la loi, complexe et inabouti … Avec comme seule stratégie, l’interdiction d’une application…

robots-option-binaireD’où l’importance de réfléchir à de nouveaux modèles d’organisation du travail (qui est l’employeur, qui est l’employé et à quel(s) moment(s) ?) et de protection sociale. C’est aussi la question que se pose Hubert Guillaud dans son article  d’InternetActu « Qui des algorithmes ou des clients seront nos nouveaux patrons ? ». Partant de l’anecdote du Huffington Post où une société hongkongaise avait nommé un algorithme à son conseil d’administration, il arrive à cette constatation : c’est l’algorithme d’Uber qui est le vrai patron des chauffeurs ! Et les clients deviennent les cadres intermédiaires avec le système de notation … Difficile dans ces conditions d’être un auto-entrepreneur libre de ses décisions ….

C’est ce que dénonce aussi Eric Sadin dans son article de Libération « La «silicolonisation», c’est la conviction que ce modèle représente l’horizon indépassable de notre temps et qui, de surcroît, incarnerait une forme lumineuse du capitalisme ». Pour le philosophe, c’est un modèle de société fondé sur la ‘marchandisation intégrale de la vie et l’automatisation intégrée de la société qui est en train de s’instaurer ». Pour Eric Sadin,  « la figure du contremaître disparaît au profit de résultats d’équations […] auxquelles il difficile voire impossible de s’opposer ». Pour contrer le ‘technolibéralisme’, qualifié de « criminalité en hoodie (sweat à capuche) », Sadin en appelle au civisme des consommateurs pour boycotter tous ces objets connectés et services de l’économie des plateformes …

Bernard Stiegler est moins pessimiste dans son article de l’Humanité : s’il reconnaît qu’avec l’automatisation « le travailleur est dépossédé de son savoir-faire au profit d’un logiciel qui rend la tâche automatisable » et qu’en fin de compte le travailleur est licencié … Le philosophe propose une solution : que l’économie numérique « redistribue une partie des gains de productivité en vue de financer un temps de capacitation de tout un chacun au sein d’une économie contributive permettant de valoriser les savoirs de chacun. C’est pour cela que nous préconisons l’adoption d’un revenu contributif, ce qui n’est pas la même chose que le revenu universel. ».

Une solution consisterait en la généralisation des « communs » contre la monopolisation des échanges de données dans l’économie des plateformes (GAFA, Uber, Airbnb). C’est ce que préconise Michel Bauwens : en généralisant cette pratique qui remonte au Moyen-Age (mutualisation des terres + règles pour ne pas les épuiser) et avec les moyens technologiques dont on dispose, on pourrait créer de grands communs de la connaissance, des logiciels, du design, et permettre à tous les citoyens d’y contribuer et d’y puiser. Mais aussi « Il faut accompagner cette évolution, réguler pour protéger les consommateurs et les travailleurs dont les positions sont affaiblies face à ces nouveaux monopoles. ». Mais surtout « De nouvelles solutions sont à envisager ». « Il s’agit de passer d’un capital extractif, qui capte la valeur des communs sans rien reverser, à un capital génératif où ceux qui contribuent à ce commun créent leur propre économie éthique. » bien-communRéférences

Neutralité des plateformes : Réunir les conditions d’un environnement ouvert et soutenable/Conseil national du numérique, mai 2014

Best, Ivan. – Travail, le numérique met-il fin au salariat ? - La Tribune, 05/07

Legros, Claire (propos recueillis). – Michel Bauwens « Uber et AirBnb n’ont rien à voir avec l’économie du partage« . – Le Monde, maj. 20/07/15

Duthoit, Aurélien. – Comprendre les mécanismes de l’économie du partage. – La Tribune, 26/08/15

Barbeaux, Aurélie. – Au fait, c’est quoi une plateforme ?Usine Digitale, 19/10/15

Gardette, Hubert. – Uber, Amazon, Airbnb : lenumérique nous rend-il socialement irresponsable ? - Du grain à moudre – France Culture, 28/10/15

Cardon, Dominique ; Tesquet, Olivier. – Les algorithmes sont-ils vraiment tout puissants ? EntretienTélérama, 02/11/15

Portier, Philippe. – Économie collaborative : « La solution n’est pas dans un excès de réglementation ». – Le Monde,
maj. 06/11/15

Rees, Marc. – Loi Lemaire, les plateformes régulées sous la menace d’une liste noire.NextInpact, 09/11/15

Guillaud, Hubert. – Qui des algorithmes ou des clients seront nos nouveaux patrons ? - InternetActu, 10/11/15

Fourmeux, Thomas. – E-shelf service : un nouveau service de livres numériques pour les bibliothèques. – Biblio Numericus, 30/01/16

Plateforme des projets de la communauté professionnelle. - Enssib, 23/03/16

Biseul, Xavier. - Transfo numérique : « les avocats ne doivent pas être les taxis de demain ». - ZDNet, 04/04/16

Marrissal, Pierric ; Masson, Paule. – Bernard Stiegler « Nous devons rendre aux gens le temps gagné par l’automatisation » Entretien - L’Humanité, 17/06/16

Ertzschein, Olivier. – Du digital labor à l’ubérisation du travail. – InaGlobal, maj. 29/08/16

Lire l’actu, plateforme d’accès à la presse à l’école. – Médiaéducation, 06/10/16

Projet de loi pour une République numérique. – Sénat, maj. 10/10/16

Villin, Philippe ; Cosnard, Denis (propos recueillis). - Economie collaborative : « Pas difficile d’être compétitif quand on ne respecte rien » Entretien. – Le Monde, 10/10/16

Féraud, Jean-Christophe. – Eric Sadin  : « L’anarcho-libéralisme numérique n’est plus tolérable ». – Libération, 20/10/16

Laval, Christian. – « Commun » et « communauté » : un essai de clarification sociologique.SociologieS [En ligne] in Dossiers, Des communs au commun : un nouvel horizon sociologique ?, 21 octobre 2016

 

Où va l’internet ? Les perspectives du numérique dans la société de la connaissance

formationnumerique2En faisant le point sur les différentes avancées du numérique, cinq domaines d’activités ressortent :

La réalité virtuelle et augmentée
L’internet des objets
L’intelligence artificielle
Le développement des plateformes de services
La surveillance électronique et la sécurité des réseaux

Nous allons examiner les trois premiers aujourd’hui, les deux autres feront l’objet d’un prochain post.

 

La réalité virtuelle et la réalité augmentée

La popularité du jeu vidéo Pokemon Go montre l’importance que prennent ces technologies d’immersion dans des mondes différents (réalité augmentée pour le jeu). Mais si les GAFA les ont investies ce n’est pas uniquement pour leur aspect ludique. Facebook, par exemple ; qui a acquis le casque Oculus Rift ne compte pas uniquement l’utiliser pour le ‘gaming’, mais surtout pour la communication, « pour partager des moments et des expériences ensemble » comme l’affirme Mike Schroepfer, CTO de Facebook, cité dans l’article d’Arthur de Villamendy dans l’Atelier.streetart2

Ces technologies vont de plus en plus être intégrées dans des œuvres documentaires et de fiction où l’on expérimente une immersion dans des univers réels ou imaginaires, comme les films des chaînes Arte (film en 360° sur l’auteur de SF Philip K. Dick) et France Télévision (diffusion des matchs de Roland Garros en 360° et 4K).

Beaucoup plus sérieusement, les réalités virtuelle et augmentée devraient servir de plus en plus à la chirurgie grâce à la modélisation 3D. Il en est de même pour les psychothérapies, notamment pour soigner les phobies.

 

L’Internet des objets

L’internet ne sera plus uniquement localisé sur le web et les appareils mobiles. Il est en train de migrer sur l’ensemble des objets qui nous entourent grâce à des capteurs et aux connexions des puces RFID. Ces objets connectés sont souvent gérés par des systèmes automatiques. internet-objets-connectes-france

Ces objets, que l’on considérait jusqu’à présent comme une série de gadgets connectés que l’on porte comme des accessoires de mode (bracelets, vêtements) vont prendre une place de plus en plus importante, aussi bien dans l’industrie que dans la vie quotidienne. D’après l’étude de Machina Research, cité par un post de Viuz, on prévoit 27 milliards de connexion en 2025 contre 6 milliards en 2015 ! Le marché des objets connectés devrait passer de 750 milliards à 3000 milliards … Ces connexions concerneront principalement trois usages : l’électronique grand public, la sécurité et l’automatisation des bâtiments. Mais sur les réseaux mobiles, les véhicules représenteront 45% des objets connectés.

Dans l’usine 4.0, la place de l’humain sera de plus réduite, comme le souligne Elisabeth Noirfontaine dans un article de l’Usine digitale. Les hommes seront remplacés par des objets connectés : des capteurs intelligents, parfois intégrés aux vêtements, ont commencé à être développés pour mesurer les valeurs et les temps d’exposition aux facteurs de pénibilité ! Tout comme le POC (Proof of Concept), boitier pénibilité, application mobile permettant de comptabiliser et de vérifier le nombre d’heure de pénibilité de chaque salarié. « Le dispositif  détecte grâce à un capteur infrarouge les cartes RFID portées par les salariés, permettant ainsi de définir le début et la fin de l’activité ». On retrouve ici la problématique de surveillance et de traçage qui nourrissent les polémiques autour des données personnelles. La consultante écarte ce problème en assurant que la loi Informatique et libertés obligent les DRH « à bien veiller à utiliser ces données personnelles au seul usage du compte pénibilité » …

 

L’Intelligence artificielle et les NBIC  intelligence-artificielle-robot-crane

Comme nous l’avions déjà souligné dans le post « Le Meilleur des mondes des GAFA », les multinationales de l’internet ont investi massivement les secteurs de l’intelligence artificielle et des biotechnologies. Cette tendance se confirme. Que ce soit au niveau de l’apprentissage, où Google lance un groupe de recherche, ou pour nous proposer des abonnements à la presse sur les réseaux sociaux comme avec les ‘chatbots’ (robots conversationnels) de Facebook, sans oublier les automates écrivains, ou même les juristes où des ‘legaltechs’ automatisent des taches jusqu’alors dévolues à des juristes juniors … !

Après les craintes et les mises en garde de Bill Gates et de Stephen Hawking, c’est au tour d’Elon Musk, directeur de Tesla de présenter sa vision d’un futur peuplé de cyborgs et d’une intelligence artificielle despotique, mais aussi un système de démocratie directe sur Mars … ! Mais contrairement au pessimisme de l’astrophysicien, Elon Musk a confiance dans les contre-pouvoirs que représente, en autres, le mouvement pour les logiciels libres. Au niveau de l’intelligence artificielle, l’entrepreneur considère que nous sommes déjà des cyborgs, ou plutôt des ‘cyberborgs’ ! Dans un futur proche, » l’IA deviendrait une part de nous-même, comme une couche supérieure du cortex, qui ferait de nous un humain symbiotique, où le numérique communiquerait avec le corps et l’esprit …

Mais comme le souligne Jacques-François Marchandise (FING) aux rencontres d’été du CRAP, cité par Cécile Blanchard dans les Cahiers pédagogiques, « Le numérique n’est pas un outil, c’est d’abord un fait social, interprétable en matière économique, sociologique … […] les technologies m’intéressent à travers ce qu’elles suscitent comme possibilités, comme pouvoir d’agir ». C’est ce ‘pouvoir d’agir’ qui va nous permettre de transformer notre rapport au monde et aux autres, notamment au niveau du transfert des connaissances ainsi que pour ‘faire société autrement’.

C’est aussi la position que défend Hervé Le Crosnier dans son cours « Perspectives : vectorialisme ou communs ». « Ce nouveau paysage technique, en évolution permanente, rencontre une réorganisation du monde ». « Nous quittons un monde dans lequel quelques uns s’adressaient au plus grand nombre pour une situation plus fluide, dans laquelle cohabitent des formes unidirectionnelles et des co-constructions d’informations et de connaissances ». Le chercheur analyse les exemples de Wikipédia et des pratiques collaboratives (co-voiturage, etc.) en les opposant aux politiques de surveillance et de contrôle des GAFA et des Etats, dévoilées par les lanceurs d’alertes.

En effet, on pourrait craindre que les progrès de l’intelligence artificielle, en particulier au travers de la puissance des algorithmes ne nous rendent dépendants de nos propres ‘productions’… Et si l’internet est conçu pour nous manipuler comme l’affirme Elliot Berkman dans  l’article de Quartz, en utilisant des pièges psychologiques qui exploitent nos structures mentales inconscientes, notre réponse doit s’assimiler à la stratégie d’Ulysse pour résister aux chants des sirènes : s’attacher au mât du navire en se bouchant les oreilles … Des applications existent comme Cold Turkey ou Self Control (pour Mac) qui aident les internautes à soigner leur addiction en bloquant pendant un certain temps les sites ‘distrayants’ …

NumeriquePour en revenir à nos ‘possibilités d’agir’ plutôt que de subir, Dominique Cardon nous propose d’ »ouvrir la boite noire des algorithmes ». Dans son entretien à Libération, il précise que « les algorithmes ne sont pas les simples reflets des intérêts économiques de la Silicon Valley ». Ces représentations statistiques de la société cherchent à organiser le monde d’une certaine façon.  Le sociologue identifie quatre types d’algorithme de classement en fonction des sites et des réseaux sociaux : popularité, autorité, réputation et prédiction. Tous ces mondes sont différents : c’est pourquoi « En entrant dans les algorithmes on peut les politiser pour savoir quel monde nous voulons ».  En ouvrant ces boites noires, on s’aperçoit que ces choix sont discutables et doivent être discutés. Les algorithmes des big data calculent les individus en fonction de leurs comportements passés. Si les personnes ont toujours les mêmes comportements (mêmes idées, mêmes goûts), les calculateurs les enferment dans leur régularité : si quelqu’un n’écoute que Béyoncé, il n’aura que Béyoncé ! En revanche, des comportements plus divers, des relations plus hétérogènes vont provoquer les algorithmes à élargir leurs choix et même à leur faire découvrir des horizons nouveaux ! « En calculant nos traces, les algorithmes reproduisent en fait les inégalités de ressources entre les individus. ». Pour reprendre la main par rapport aux multinationales qui gèrent les Big data, D. Cardon propose de faire « de la rétro-ingénierie, de la recherche, en s’appuyant sur l’Etat, sur le droit, sur les autorités ». Car, « en calculant par le bas et sans catégories, on fabrique aussi du racisme, du sexisme ou de la discrimination. ». Plutôt que de fuir le monde numérique, Cardon nous encourage à « passer en manuel » : développer une culture critique de ces outils, pour avoir prise sur nos données et sur la manière dont nous sommes calculés ».

prédictions-1900-futur-e1365458441758

 

Villemendy, Arthur de. – La réalité virtuelle au cœur de la stratégie de Facebook. – L’Atelier, 31/03/15

Pourquoi Stephen Hawking et Bill Gates ont peur de l’intelligence artificielle ?France Culture, 08/07/15

Dominique Cardon « En calculant nos traces, les algorithmes reproduisent les inégalités entre les individus. » – Libération, 09/10/16

L’avenir de l’internet. – Arte, 02/02/16

Biseul, Xavier. – Transfo numérique « les avocats ne doivent pas être les taxis de demain ». – ZDNet, 03/04/16

Jaimes, Nicolas. – Comment les bots vont envahir Messenger … Et le reste d’internet.Journal du Net, 13/04/16

Champeau, Guillaume. – IA despotique, démocratie directe sur Mars, cyborgs … Les craintes et espoirs d’Elon Musk Numérama, 02/06/16

Tual, Morgane. – Intelligence artificielle : Google lance un groupe de recherche européen sur l’apprentissage. – Le Monde, 17/06/16

Blanchard, Cécile. – De quoi serons-nous capable avec le numérique ? Conférence de Jacques-François Marchandise. – Cahiers pédagogiques, 21/08/16

 

Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

Livre numérique : comment expliquer ce retard au décollage ?

ebookIl y a près de dix ans, en 2007, au moment du lancement de la liseuse Kindle, le marché des e-books s’annonçait prometteur. Et aujourd’hui les livres numériques devraient avoir supplanté le papier comme les téléchargements musicaux l’ont fait pour le vinyle ! Or, si le secteur de l’édition se porte bien, en France comme dans le monde, c’est essentiellement dû aux livres imprimés.

Comme le rappelle Edouard Laugier dans le Nouvel Economiste, le livre est le premier marché culturel du monde : « en 2014, les ventes mondiales  ont généré 125 milliards de dollars de revenus » (Kurt Salmon). Le livre numérique représente 15% du chiffre d’affaire global. En France aussi, le livre est la première industrie culturelle avec un chiffre d’affaire de 4,06 milliards € (GFK). Au niveau mondial, les e-books représentent 10% des ventes, 25% dans le monde anglo-saxon et 2 à 3% en France …

Il faut reconnaître qu’en France, la consommation de produits culturels numériques est moins importante que dans d’autres pays développés, exception faite de la musique. Comme l’explique Christophe Bys dans l’Usine digitale, seuls 9% de Français souscrivent à une offre de vidéo à la demande, contre 60% aux Etats-Unis, 23% au Royaume Uni et 19% en Allemagne … Il est vrai que les publics valorisent de plus en plus la logique de l’accès (streaming) à celle de la propriété (achat de produits), sauf en matière de jeux vidéo où l’hybridation domine entre dématérialisation (jeux en ligne) et matériels (console +jeux).

Marché et consommation de e-books en France llc_droit_d_auteur

Alors qu’aux Etats-Unis les livres numériques représentent 25% du marché du livre, d’après le baromètre KPMG, la consommation de livres numériques en France est inférieure à 2% en 2015 et 74% des Français ne comptent pas en lire selon un sondage Opinion Way ! Néanmoins, le nombre de lecteurs de livres numériques  est en légère augmentation (20% de la population française) d’après les enquêtes 2016 du 6e Baromètre sur les usages du livre numérique (Sofia-SNE-SGDL), les deux supports « coexistent dans un marché stable qui confirme la pratique d’un usage mixte». Si la demande est si faible, l’offre est plutôt opaque et les éditeurs traditionnels hésitent à abandonner la proie pour l’ombre virtuelle des ouvrages.

Pourtant le processus numérique est bien intégré dans la production éditoriale : rédaction, édition et fabrication informatique ont permis de réduire les coûts et les délais et d’améliorer la productivité. Il en est de même pour la gestion des catalogues et les bases de données clients. Si 62% des éditeurs disposent d’une offre numérique (surtout les grandes maisons), la promotion des e-books a bien ralenti depuis 2011 surtout en raison de difficultés dans la commercialisation et la compréhension du marché. En fait, comme l’explique Clément Solyme dans son article d’Actualitté, « le numérique pour les éditeurs, ce ne sont pas des coûts en moins, mais des recettes en plus ». En effet, sur les grandes ventes, le coût de fabrication ne fait pas vraiment la différence et les coûts de stockage sont réduits grâce à la technologie. Aujourd’hui, on imprime seulement pour trois mois, puis on réédite si nécessaire …

Seul le secteur professionnel et universitaire profite de la révolution numérique : les éditions juridiques et scientifiques sont très numérisées. Les éditeurs de revues STM (sciences, technologies, médecine) réalisent 40% de leur chiffre d’affaire grâce aux publications numériques et jusqu’à 80% aux Etats-Unis ! Quant aux ouvrages juridiques, la mise à jour est quasi-directe depuis les tribunaux …

Freins à la consommation : les prix, la TVA

app_ebook_bundleUn des principaux atouts des plateformes d’e-books au début de leur lancement, était les prix attractifs, avec le plafond de $ 9.99 initié par Amazon. Et ce, avec un confort de téléchargement immédiat ; il suffisait de cliquer sur un titre sur sa liseuse ou sur l’ordinateur et l’ouvrage est immédiatement téléchargé, et le compte débité aussi vite ! Or, l’année dernière, les principaux éditeurs américains ont décidé d’une augmentation substantielle : on a immédiatement assisté à un renversement du marché : une baisse de 11% des ventes d’e-books entre 2014 et 2015 ! Le marché est très « price sensitive », certaines différences de prix sont jugées insuffisantes pour passer du papier au numérique, l’écart de prix est d’environ 30% : ex : 20 € l’exemplaire papier, 13,99 € pour l’e-book. Ce dernier peut même être plus cher que le livre papier comme dans le cas des livres de poche …. Le ‘juste prix’ pour les e-lecteurs se situerait autour de 7€.

Mais c’est essentiellement l’arrivée de l’iPad d’Apple qui a imposé des prix plus élevés (plus de 17%) sur sa plateforme iBooks suite à une entente avec six éditeurs ! Ensuite, Amazon a imposé de nouvelles conditions contractuelles … La plupart des éditeurs traditionnels ont augmenté leurs prix, ce qui a rendu les e-books moins accessibles pour les lecteurs.

Mais ces éditeurs ne représentent pas l’ensemble de la publication des livres numériques. D’après Clément Solyme, aux Etats-Unis, sur 10 000 titres vendus en mai 2015, 27% sont publiés par des grands groupes au prix moyen de $8,22 et 73% par des petits éditeurs ou par autopublication, au prix moyen de $4,58. En fait, comme le souligne une étude citée par The Guardian, la baisse du marché numérique ne prenait en compte que la moitié des e-books vendus aux Etats-Unis. Rappelons aussi qu’en France, plus de la moitié des lecteurs de livres numériques (59%) les acquièrent gratuitement car ceux-ci appartiennent au domaine public.

Au niveau de la TVA, si la France a adopté depuis un an un faible taux de TVA (5,5%), la plupart des  pays de l’Union européenne conservent encore un taux élevé pour les e-books, jusqu’à 20% au Royaume Uni. Mais la Commission a prévu une baisse du taux pour fin 2016.

Autres freins : liseuses, formats, DRM drm

Aux Etats-Unis, le marché des liseuses est saturé : il a été évincé par la multiplication des smartphones et des tablettes qui séduisent par leur aspect multisupports. Comme le dit Hervé Essa , cité par Edouard Laugier dans le Nouvel Economiste, « les liseuses sont des équipements marginaux. Le secteur de l’édition n’a pas anticipé cette demande des publics. Les offres ne sont ni marketées, ni adaptées aux usages. ». Michel Beck dans Numérama ajoute même que la chaîne de librairies britannique Waterstones a enlevé les Kindle de ses vitrines… Et ce n’est pas le dernier-né des Kindle, Oasis, lancé cette semaine, qui inversera cette tendance. Malgré de nombreux atouts en plus de l’encre électronique (éclairage LED, batterie qui dure plusieurs mois, option pour gauchers, etc.), Amazon le propose à un prix (près de 300 €) qui en dissuadera plus d’un … !

En France 4% des foyers sont équipés de liseuses et 10,7 millions d’unités achetées.

Mais si le e-book a des avantages au niveau de la mobilité, ce produit présente des handicaps par rapport au livre physique : dans la plupart des cas, la revente, le prêt ou le don ne sont pas permis par les conditions d’utilisation. Les DRM (dispositifs techniques de gestion d’une œuvre numérique) agissent comme des verrous pour empêcher les possesseurs d’un livre numérique de le partager, de le diffuser ou de le revendre. Seule solution pour partager des œuvres entre proches, paramétrer toutes les liseuses de la même famille avec le même compte … ! Evidemment, cela n’est possible qu’avec un même format de liseuse : Kobo (FNAC), Kindle (Amazon) ou iBooks (Apple) … 13377-drm

Comme le rappelle Neelie Kroes, Commissaire européenne à l’économie numérique, citée par Joaquim Rodriguez  dans Publishing Perspectives « Quand vous achetez un livre papier, il est à vous et vous pouvez l’emporter où vous voulez. Cela devrait être la même chose avec un e-book. Aujourd’hui, on peut ouvrir un même document dans plusieurs ordinateurs, pourquoi n’en serait-il pas de même pour un e-book sur différentes plateformes avec différentes applications. » Malgré la résistance des éditeurs, Neelie Kroes rappelle que l’interopérabilité des formats est à l’ordre du jour dans l’agenda numérique européen.

Pour Coralie Piton, directrice du livre à la FNAC, interviewée dans Numérama « Il faut trouver un modèle qui protège l’ensemble de la filière », mais pas question d’abandonner les DRM qui les protègent contre les pirates. C’est pourtant ce qu’a choisi Bragelonne en préférant le tatouage numérique  plutôt que les verrous. Les responsable de cette maison sont « convaincus que le seul moyen de combattre le piratage, c’est de créer une offre légale qui convient aux attentes des lecteurs. ».

Cette idée d’une protection « user friendly » est aussi celle des DRM LCP (Lightweight Content Protection), solution développée par le consortium Readium qui se présente comme l’alternative européenne à la DRM Adobe pour le format EPUB qui permet l’interopérabilité des formats. On pourra ainsi consulter un e-book sur n’importe quel appareil. Ces DRM ‘poids plume’ sont destinés prioritairement au prêt en bibliothèques à travers le système PNB. Mais la concurrence, notamment Adobe et les sociétés américaines, ne l’entend pas de cette oreille et menace de lancer une guerre des brevets … !

Cette mesure permettrait de desserrer un peu le carcan des e-books qui n’ont pas encore acquis la légitimité d’œuvres autonomes en France au moment où l’Assemblée nationale rejette l’amendement permettant de créer un dépôt légal numérique. La BNF ne peut que moissonner les œuvres sur le web et les robots d’archivages risquent de ne pas voir les ouvrages protégés par des DRM …

Beck, Michel. – Qui veut la peau du livre numérique ?Numerama, 22/01/16

Beuve-Méry, Alain. – La résistible ascension du livre numérique. – Le Monde, 24/02/16

Un marché stable qui confirme la pratique d’un usage mixte. – Baromètre Sofia/SNE/SGDL, 16/03/16

Rodriguez, Joaquim. – Will Ebooks Ever Circulate Freely in Europe ?Publishing Perspectives, 22/03/16

Laugier, Edouard. – Le livre numérique, l’innovation dont personne ne veut vraiment. – Le Nouvel Économiste, 22/03/16

Hoang, Kristine. – AAP :Ebooks Sales Down 12.7 Percent.Digital Book World, 22/03/16

Solym, Clément. – L’intérêt pour le livre numérique décline, ou les prix  sont devenus moins attractifs ?Actualitté, 23/03/16

Oury, Antoine. – L’Association des Bibliothécaires de France favorable à un dépôt légal numérique. – Actualitté, 31/03/16

Bys, Christophe. – Les industries culturelles doivent se transformer plus vite que leurs clients se digitalisent. – Usine digitale, 04/04/16

Hugueny, Hervé. – Jean-Claude Junker redit son soutien à une TVA unique numérique/papier. – Livres Hebdo, 05/04/16

Woitier, Chloé. – L’industrie européenne du livre veut offrir une alternative à Amazon.Le Figaro, 07/04/16

Oury, Antoine. – La DRM LCP : grands enjeux, risques élevés. – Actualitté, 11/04/16

Berne, Xavier. – La TVA réduite pour les ebooks et la presse en ligne : une proposition législative fin 2016. – Next INPact, 11/04/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? II – L’exploration de contenus

text_mining_analytics_survey_softwareAprès la disposition permettant aux chercheurs de mettre gratuitement en ligne leurs publications réalisées dans le cadre de recherches sur fonds publics, nous allons examiner l’impact des amendements autorisant la fouille automatique de textes et de données (Text and Data Mining –TDM) sur le développement de la recherche.

Au départ cette mesure ne devait pas apparaître dans la loi ; en attendant une réglementation européenne sur la question, le Ministère de la Culture et de la Communication avait nommé une mission pour en faciliter le recours comme exception au droit d’auteur comme le signale Antoine Oury dans un article d’Actualitté. Les éditeurs, dans leur ensemble, étaient plutôt réticents à ouvrir leurs collections, même si certains grands acteurs, comme Elsevier ou Springer, accordaient des licences limitées aux chercheurs.

Le TDM : aspects juridique et technique

Que représente exactement ce traitement et qu’apporte-t-il à la recherche ? Une partie de la réponse se trouve dans la tribune parue dans le Monde le 7 mars dernier, signé par un grand nombre de chercheurs « Pour une science ouverte à tous ». Après avoir rappelé l’importance du libre accès des publications scientifiques, notamment dans l’archive ouverte HAL, les chercheurs invitent les sénateurs à voter l’article 18 bis en s’assurant que la fouille de données ne soit pas soumise à des négociations avec un tiers. « La fouille de données doit devenir un droit ».

L’article en faveur du TDM permettra donc « d’extraire de l’ensemble de la production scientifique mondiale de nouvelles connaissances grâce à l’exploitation automatisée, à l’aide d’algorithmes, de corpus désormais gigantesques. » Application-du-processus-de-fouille-de-donnees-dusage-du-web-sur-les-fichiers-logs-du-site-cubba16

Contrairement à d’autres pays (Etats-Unis, Royaume Uni), en France, les chercheurs n’étaient pas autorisés à pratiquer cette fouille de contenus de façon automatique et certains laboratoires étaient obligés de se rendre à l’étranger pour réaliser cette opération … ! Si certains éditeurs accordent des licences, celles-ci sont limitées (10 000 articles par semaine pour Elsevier sur la plateforme Science Direct). La Contribution de l’ABDU au CNNUM est très claire sur cette question : 10 000 articles/semaine cela peut paraître beaucoup, mais si l’hypothèse de recherche n’est pas validée au bout de X jeux de 10 000 articles de Science Direct, comment explorer les Y jeux nécessaires, et aussi sur d’autres bases de données ? Et ce, sans jamais pouvoir fouiller en une seule fois l’ensemble du corpus. De plus, Elsevier impose aux chercheurs de publier sous licence CC-BY-NC (pas d’utilisation commerciale) les extraits pertinents retenus en limitant leur longueur à 350 mots … Quant à Springer, il impose que chaque projet de TDM portant sur ses contenus soit décrit et enregistré via à un formulaire en ligne et se réserve le droit de décider si la demande est fondée … « Une ingérence inacceptable du point de vue de l’indépendance de la recherche ».

En effet, en procédant à ce traitement, les chercheurs n’ont pas comme objectif « la dissémination indue de ces contenus sous droit ou de leur exploitation commerciale ». Mais cette ‘lecture computationnelle’ implique la création d’une copie numérique du corpus à fouiller, ce qui soulève un problème de propriété intellectuelle. Il est évident qu’une solution doit être trouvée pour les ayants droit, d’autant que la plupart des chercheurs impliqués sont eux-mêmes des auteurs … !

Les éditeurs ont fait pression sur l’UE pour qu’une solution contractuelle soit priorisée par rapport à une révision du cadre juridique qui passerait par la création d’une nouvelle exception au droit d’auteur. C’est déjà le cas au Royaume Uni où la loi a consacré une nouvelle exception au droit d’auteur couvrant les ‘analyses computationnelles’ de contenus protégés, effectuées dans un cadre de recherche sans but lucratif, comme le souligne Calimaq dans un post de S.I.Lex sur l’exploration des données. C’est aussi la raison pour laquelle les chercheurs insistent sur la désignation d’un ‘tiers de confiance’, extérieur au milieu de l’édition commerciale, pour réaliser ces opérations. C’est ce que propose l’ABDU : une super base de données sur une plateforme publique pouvant « héberger tous les corpus du web visible et invisible aux seules fins d’en permettre la lecture algorithmique». Cette immense base de contenus constituerait une ‘base maître’ qui ne serait accessible et manipulable que par le tiers de confiance. Pour chaque demande de recherche, un ‘bac à sable’ serait constitué en copiant les corpus à partir de la ‘base maître’ ; cette copie serait détruite en ne conservant que les occurrences pertinentes, une fois les opérations de TDM terminées. Cela permet de répondre aux besoins des chercheurs tout en assurant la protection des ayants droit.

Le TDM comme service aux chercheurs text-mining

Dans les sciences dites ‘dures’ l’exploitation des données de la recherche est largement répandue et souvent effectuée par les chercheurs eux-mêmes ; c’est beaucoup moins le cas en sciences humaines et sociales (SHS) et dans les humanités où la formation aux outils numériques est moins répandue. Le traitement linguistique nécessaire à la fouille de texte est généralement confié à un service hybride de documentation et d’ingénierie linguistique. Frédérique Bordignon analyse ce service dans un récent billet du Carnet’IST. Cette ingénieure de recherche explique le fonctionnement d’un des outils nécessaire à la fouille automatique de textes RapidMiner et le service que ces spécialistes peuvent apporter aux chercheurs. Cette nouvelle activité pourrait s’imposer auprès des bibliothèques et des laboratoires de recherche, comme le Medialab à Sciences Po.

C’est cette activité de ‘data librarian’ qu’évoque Alexandre Tur dans un article de Catherine Muller sur le blog de l’ENSSIB. Ce conservateur de bibliothèque a effectué son stage au Canada dans le département de services aux chercheurs de la Quenn’s University de Kingston (Ontario). Il a travaillé surtout sur l’assistance à la gestion de données de la recherche auprès des chercheurs en humanités et à la promotion de l’open access dans l’université. text-mining _1

Alexandre Tur prend soin de distinguer les données scientifiques des données publiques qui sont proposées librement, les ‘open data’ (données ouvertes). Ces dernières proviennent généralement des Etats et des administrations publiques, en France c’est la Mission ETALAB qui les représente, (statistiques économiques, démographiques, géographiques, sociales et culturelles). Comme le souligne le Comité d’éthique du CNRS (COMETS) dans son avis du 7 mai 2015 sur les enjeux éthiques du partage des données, « Les politiques qui promeuvent l’ouverture des données publiques n’ont pas les mêmes objectifs que celles du partage des données scientifiques ». Si les données scientifiques produites sur fonds publics ont vocation à devenir publiques, les données publiques ont vocation à devenir scientifiques lorsqu’elles concernent l’environnement, la société ou la santé. Dans ces domaines, les questions éthiques doivent être évoquées lorsque ces données sont sensibles et relèvent de la vie privée.

Les bibliothèques de recherche représentent un partenaire ‘naturel’ pour héberger et gérer ces données. Comme l’explique William M. Cross dans son article du Library Journal : les bibliothèques vont se développer comme un ‘écosystème open data’. On va passer de l’idée d’infrastructure des données, centrée autour des revues scientifiques et des dépôts institutionnels à une ‘écologie des données de la recherche’. Cette  écologie implique une évolution dans plusieurs domaines, comme le développement de nouvelles normes autour de la validation des données de la recherche, de l’identification de la provenance des jeux de données et des nouveaux types de gestion et de propriété de ces données.

Les métadonnées deviennent centrales dans ce processus de transition entre le web documentaire et le web de données. Comme le dit Valérie Tesnières, citée dans « Gérer les données de la recherche », une formation de la TGIR Humanum, « L’enjeu est moins de produire des données que de les connecter les unes avec les autres […] Produire des métadonnées permet à la fois l’interopérabilité des données et à en assurer une meilleure pérennisation »

C’est ce que soutient aussi Gildas Ilien dans un récent article d’Archimag : de nouveaux formats doivent permettre d’adapter le catalogage à l’environnement web et numérique des bibliothèques. Cette « revanche des données » nous oblige à revenir à une sorte de catalogue pour s’y retrouver dans la jungle du numérique, même si l’usager n’a pas besoin de les voir … ! Seules les machines les traiteront. Ce retour aux sources (catalogage) implique néanmoins un changement de structures et de système : la transition bibliographique où la logique du document s’efface au profit de la logique de l’information.

Cette ‘révolution copernicienne’ dans la documentation  explique le slogan des chercheurs du LERU (Ligue des universités européennes de recherche) justifiant la fouille de textes et de données « The right to read is the right to mine » (Le droit de lire est le droit d’explorer).

llc_droit_d_auteur

Langlais, Pierre-Carl. - Text mining : vers un nouvel accord avec Elsevier. – Sciences communes, 29/10/14

Exploration des données : un environnement juridique en évolution. – S.I.Lex, 05/12/14

Consultation du Conseil national du numérique : contributions de l’ABDU.- ABDU, 02/15

Les enjeux éthiques du partage de données scientifiques : avis du COMETS. – CNRS, 07/05/15

Oury, Antoine. – Déclaration de la Haye : le copyright contre les connaissances. – Actualitté, 11/05/15

Naegelen, Pierre. – Données de la recherche : quel positionnement et quels rôles pour les bibliothèques ? – SCD Université Toulouse III Paul Sabatier, 15/06/15

LERU Statement : the right to read is the right to mine. – League of European Research Universities, 15/06/15

Demange, Julie. – Gérer les données de la recherche, de la création à l’interopérabilité (1/3). – Archives des mondes contemporains, 14/10/15

Fradin, Andrea. – Premier bug : la fouille automatique de données es adoptée.Rue89/L’Obs, 21/01/16

Oury, Antoine. – France : une mission pour faciliter la fouille et l’exploration de textes et de données. – Actualitté, 21/01/16

La circulation des données et du savoir. Projet de loi pour une République numérique adopté par l’Assemblée nationale en première lecture. – Assemblée nationale, 26/01/16

Cross, William M. – Libraries support data-sharing across the research lifecycle. – Librairy Journal, 01/02/16

Langlais, Pierre-Carl. – Text-mining : une licence nationale contre l’exception ? - Sciences communes, 19/02/16

Bordignon, Frédérique. – Le text-mining comme service aux chercheurs.CarnetIST, 05/03/16

Pour une science ouverte à tous. – Le Monde, 08/03/16

Ilien, Gildas. – Transition bibliographique : la revanche des données ?Archimag, 14/03/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? I – Publications en libre accès

actu_edition-scientifique-passe,-present-et-perspectives_22_2000_2000_MAX_2b768Deux dispositions, adoptées dans le cadre du Projet de loi numérique vont sensiblement changer le travail des chercheurs en France. Elles concernent, d’une part la publication en libre accès d’articles scientifiques dans certaines conditions, d’autre part le traitement et la fouille automatique de données dans un corpus constitué.

Des parlementaires déterminés ont bravé l’opposition des éditeurs et même d’une partie du gouvernement pour faire passer certains amendements !

L’article 17 de la future loi pour une République numérique permet aux auteurs dont les travaux sont financés à hauteur de 50% sur fonds publics de mettre gratuitement en ligne leurs articles, au terme d’un délai maximum de de 6 mois après la première publication (12 mois pour les Humanités/SHS), même si l’auteur a accordé l’exclusivité à un éditeur ! Ce droit s’étend aussi à d’autres publications comme les actes de congrès et de colloques ainsi que les recueils de mélange. Les données associées aux articles sont aussi concernées. Comme le souligne Axelle Lemaire sur France Inter, citée par Actualitté « La recherche, si elle n’est pas ouverte, si elle n’est pas internationale, si elle n’est pas partagée avec la communauté des chercheurs la plus élargie possible, eh bien elle ne rayonne pas. Donc, moi je me pose la question : est-ce bien le gouvernement qui se veut le fossoyeur de la recherche en 2016, lorsqu’il cherche à étendre le périmètre d’influence des chercheurs, ou sont-ce les éditeurs ? »

En matière de données de la recherche, une série d’amendements a été adoptée en faveur de la fouille automatique de texte et de données (TDM, Text and Data Mining) contre l’avis du gouvernement et même du rapporteur ! Comme le fait remarquer Andrea Fradin dans son article sur l’Obs/Rue 89, malgré l’avènement du Big data et de ses outils de traitement, il était jusqu’alors impossible pour les chercheurs d’extraire automatiquement des mots ou des données d’un corpus de documents informatisés. Avec cet amendement, la France devance même l’UE en la matière, celle-ci n’ayant pas encore statué sur la question. Axelle Lemaire s’était d’ailleurs abritée derrière cet argument pour ne pas prendre parti, préconisant d’attendre la directive européenne …

Ces deux dispositions vont permettre à la recherche française d’être moins dépendante du lobby de l’édition scientifique. En effet, comme le rappelle Pierre Carl Langlais sur son blog Hôtel Wikipedia, « dans l’édition scientifique, les auteurs ne sont jamais payés (ils paient même pour être publiés) ».open-access-button_logo

Libre accès : voie verte, voie dorée … Ou en diamant !

La voie dorée, c’est la stratégie que certains éditeurs ont trouvé pour répondre au mouvement du libre accès (Open Access Initiative) lancé en 1996 : obliger les chercheurs à payer pour voir leurs travaux publiés … Et les lecteurs pourront y accéder gratuitement ! La ‘voie dorée’ (gold open access) se positionne par rapport à la ‘voie verte’ (green open access) en mettant en avant la qualité d’une édition scientifique professionnelle avec surtout la sélection et l’évaluation des articles par des spécialistes (‘peer review’). Tout n’est pas à condamner à priori dans ce modèle et certains auteurs y trouvent leur compte … Mais il existe des éditeurs qui sont de véritables prédateurs : c’est ce que démontre Jeffrey Beall, bibliothécaire chargé des publications en ligne et professeur associé à l’Université de Denver, Colorado dans une interview à Scholarly Kitchen. Contacté par de nombreux éditeurs ‘gold’, il s’est rendu compte, que pour certains « leur mission n’était pas de promouvoir et rendre disponibles les travaux de recherche mais plutôt d’exploiter le modèle de gold open access ‘auteurs-payants’ ». Pour lutter contre cette déviance et permettre aux chercheurs de choisir les revues pour leurs publications en connaissance de cause, Beall a publié une liste noire de ces éditeurs.

Les chercheurs déposent de plus en plus leurs travaux sur des plateformes de partage comme Academia.edu ou ResearchGate. Mais ces sites gratuits ne semblent pas présenter toutes les garanties de sécurité et de sérieux nécessaires à des publications scientifiques … 497671-rea-197588-011-580x310

Pour dépasser ces problèmes et les conflits d’intérêt qu’ils pourraient occasionner, le Comité des sciences sociales de Science Europe, propose une « voie de diamant », ou plutôt un ‘engagement de diamant comme le souligne Marin Dacos dans son post sur Blogo-numericus. Avec cet engagement les « productions scientifiques seront nativement numériques et nativement en accès ouvert, sans frais à payer pour l’auteur (APC : Articles Processing Fees) ». Pour cela les auteurs devront demander aux éditeurs l’autorisation de déposer leur publication dans une archive ouverte sous la forme de ‘postprint’ (version auteur acceptée et revue par les pairs avant correction et mise en page par l’éditeur). Les éditeurs gardent ainsi une certaine marge dans leurs publications. Marin Dacos regrette que ce dispositif ne concerne que les archives ouvertes, comme SPIRE de Sciences Po, et ne prend pas en compte les plateformes de publications comme Revues.org ou OpenEditionBooks. Sonia Livingstone, professeur en media et communication à London School of Economics (LSE), interviewé sur The Impact Blog, apprécie beaucoup la facilité et le professionnalisme des archives ouvertes et notamment LSE Rechearch Online, le dépôt institutionnel de la LSE. Elle y dépose toutes sortes de travaux : articles, mais aussi rapports de recherche, questionnaires, chapitres d’ouvrages, etc. La chercheuse préfère aussi déposer la version ‘postprint’, prête à être publiée. Et si ses articles sont encore sous paywall (embargo d’un ou deux ans) chez un éditeur commercial, les résultats d’une recherche sur Google Scholar affichent les PDF disponibles dans le dépôt de la LSE.

Martin Haspelmath a une autre vision pour cet engagement dans son post sur Free Science Blog ; il part d’abord d’un constat : le mouvement open access stagne. Malgré le fait qu’un sixième de toutes les publications est en libre accès, la majorité des abonnements (payants) est stable. Les experts en OA n’en cherchent pas la raison. Pourtant l’explication est simple, personne n’a envie que ça change : les éditeurs font des bénéfices avec leurs abonnements et les chercheurs ont besoin des éditeurs pour publier dans des revues prestigieuses pour leur carrière … ! Or les publications scientifiques ne sont pas un service qu’on peut déléguer à un prestataire extérieur (outsourcing), elles sont une partie intégrale du processus scientifique. Ce sont seulement quelques aspects techniques comme la mise en page ou l’hébergement qui peuvent sous-traités à des fournisseurs extérieurs. Ce que propose ce chercheur, c’est que les pouvoirs publics et les universités financent des éditions universitaires plutôt que d’arroser les maisons d’éditions commerciales. Chaque éditeur institutionnel pourrait créer un bouquet de revues prestigieuses et les financer comme on paye pour le personnel et les bâtiments de la recherche. Les lecteurs et les auteurs n’auraient rien à payer pour ces revues en accès libre ‘diamant’. Les financeurs tireront profit de ces investissements de la même façon qu’ils tirent profit de la recherche : en accroissant leur prestige !

Comme le souligne Sonia Livingstone, « tous les chercheurs doivent repenser leur attitude en matière de publications scientifiques … Je me réjouis de la lutte (encore incertaine) entre la propriété [intellectuelle] et l’accès au savoir ».

access-open-e1367915910684

Dacos, Marin. – Un engagement de diamant pour l’open access : position du Comité des sciences sociales de Science Europe. – Blogus numéricus, 18/08/15

Contribution de l’ABDU à la consultation nationale « Ambition sur le numérique » : TDM et open access. – ABDU, 09/15

Livingstone, Sonia. – Five minutes with Professor Sonia Livingstone on the benefits of open access and institutional repositories : entretien. – Impact of Social Sciences, 20/10/15

Lau-Suchet, Soliné. – Les enjeux de la science ouverte : retour sur les 6es journées « open access » (1/4) #OA. – Bulac, 23/10/15

« Open access » pour les revues scientifiques : il faut plusieurs modèles. – The Conversation, 10/11/15

Projet de loi pour une République numérique. – Assemblée nationale, 09/12/15

Report on Berlin 12 Open Access Conference. – Association of Research Libraries, 18/12/15

Haspelmath, Martin. - How to switch Quickly to diamond open access: the best journals are free for authors and readers – Free Science Blog, 28/12/15

Clavey, Martin. – Publications scientifiques : l’open access va entrer dans la loi. – Educpros, 09/12/15

Archives ouvertes et licences Creative Commons : des synergies à conforter. – S.I.Lex, 19/01/16

Mazin, Cécile. – Axelle Lemaire : Le gouvernement, fossoyeur de la recherche ou les éditeurs. – Actualitté, 20/01/16

Langlais, Pierre-Carl. – Vite, une loi pour garantir l’accès aux connaissances. - Hôtel Wikipédia – L’Obs-Rue 89, 20/01/16

La CPU et le CNRS demandent la libre diffusion des publications scientifiques et des fouilles de données à la mesure des enjeux scientifiques. – CNRS : communiqués de presse, 21/01/16

Academic social networks and Open Access: French Researchers at the Crossroads. – InfoDoc Microveille, 24/01/16

Esposito, Joseph. – An Interview with Jeffrey Beall. – Scholarly Kitchen, 08/02/16

 

 

Numérique : quelques prévisions pour 2016

mail-delivery-what-1900-french-artists-thought-the-year-200-would-be-likeRien de particulièrement révolutionnaire dans les différentes prédictions pour 2016. Les principales tendances amorcées ces dernières années se confirment : prépondérance des appareils mobiles, cloud et mégadonnées, automatisation et intelligence artificielle, notamment avec l’internet des objets et les villes connectées. On retrouve l’essentiel des prédictions tech/médias du rapport Deloitte pour 2015, cité par Barbara Chazelles dans Méta-média : abandon de la télévision par les jeunes au profit des vidéos sur mobiles et généralisation des paiements mobiles ; renouvellement des smartphones (phablettes) ; internet des objets, imprimantes 3D et drones (surtout pour les entreprises). En revanche, les e-books ne décollent toujours pas, le livre papier conservant la préférence des lecteurs !

objets-connectesLa sécurité des protocoles et des applications va devenir le grand défi dans le contexte des mégadonnées et de l’internet des objets comme le souligne Mike Martin, responsable de la société d’engineering internet Nfrastructure, dans l’interview accordée à ITBriefcase.

Au niveau de l’enseignement et de la formation, les Moocs et la formation en ligne et à distance investissent la formation professionnelle. L’intelligence artificielle pénètre aussi le champ de l’éducation avec la présence d’algorithmes qui vont intégrer l’école et l’Université pour évaluer la progression des apprenants tout en recueillant une quantité importante de données personnelles, comme l’évoque Audrey Watters dans The algorithmic future of education

1200px-france_in_xxi_century._school1Enfin, les représentations visuelles évoluent aussi, c’est ce que démontre la banque d’image Getty Image avec les tendances 2016 Creative in Focus, expliqué par Alice Pairo dans Méta-Média : 6 types d’images se profilent pour 2016 : l’outsider, le divin, l’homme augmenté, le disgracieux, la solitude et le surréalisme ….!

Bonnes fêtes et meilleurs voeux pour 2016 !

prédictions-1900-futur-e1365458441758

Chazelle, Barbara. – 10 prédictions tech/médias pour 2015 (Deloitte). – Méta-média, 04/02/15

Watters, Audrey. – The Algorithmic Future of Education. – Hackeducation, 22/10/15

IT Briefcase Exclusive Interview : Top IOT Trends and Predictions for Organizations in 2016. – IT Briefcase, 02/12/15

Pairo, Alice. – Social media : 10 tendances pour 2016. – Méta-média, 06/12/15

Les villes intelligentes connecteront 1,6 milliards d’objets communicants en 2016. – L’embarqué, 08/12/15

Économie du numérique : Axway dévoile 10 prévision pour 2016. – Axway, 08/12/15

Noirfontaine, Elisabeth. – L’internet des objets, allié des ressources humaines ou outil de déshumanisation du travail ?Usine digitale, 22/12/15

Larcher, Stéphane. – Google travaille sur une messagerie instantanée dopée à l’IA et aux chatbots. – L’informaticien, 23/12/15

Cavazza, Frédéric. – Mes 10 prédictions pour 2016. – FredCavazza, 23/12/15

Pairo, Alice. – 6 tendances visuelles pour 2016. – Méta-média, 23/12/15

Ezratty, Olivier. – Méta-prédictions pour 2016. – Opinions libres, 27/12/15

Environnement et numérique : opposition ou complémentarité. Le cas des « cleantechs »

logoCop21Apparus tous deux dans les années 1970, les enjeux de l’environnement et du numérique sont souvent associés dans les ruptures sociétales du 21e siècle (les premiers ‘geeks’ étaient souvent écolos), mais aussi opposés en raison de l’énorme consommation énergétique et des pollutions provoquées par l’usage des technologies de l’information et de la communication. L’empreinte écologique d’internet et des dispositifs numériques a notamment été interrogée et suspectée de participer au dérèglement climatique. Un certain nombre d’associations ont tiré le signal d’alarme et on assiste depuis quelque temps à des propositions de solutions ‘propres’ et responsables aussi bien de la part de grandes sociétés que de jeunes pousses, les ‘cleantechs’.

L’empreinte écologique : la consommation énergétique du numérique

L’internet pèserait 300 millions de tonnes de CO2 par an d’après le site Ecolo Info. Quant aux data centers, ils représenteraient à eux seuls près de 3% des 10% de l’électricité mondiale consommée par l’écosystème numérique d’après le blog de Completel. Comme l’a rappelé Axelle Lemaire lors de sa présentation des cleantechs ambassadrices à la COP21 le 30 novembre, les seuls mails du Ministère (Bercy) consomment l’équivalent de 14 allers-retours Paris-New-York !

On pourrait multiplier les chiffres, cela n’épuiserait pas le sujet …. C’est ce qu’explique Hubert Guillaud dans son dernier post : si la consommation énergétique d’internet s’est sensiblement réduite depuis quelques années, l’augmentation des utilisateurs du réseau et surtout la consommation croissante d’énergie par chacun (multiplication des appareils mobiles, même s’ils consomment moins que les fixes) augmente la consommation énergétique globale, surtout en raison de la consommation de données distantes et particulièrement de vidéos.

Ce qu’il faudrait c’est une « limitation de vitesse » sur internet comme sur l’autoroute … Le réseau des réseaux serait peut-être un peu moins performant mais plus durable dans une économie décarbonnée ! Si les géants du Net (Apple, Facebook, Google) font des efforts pour utiliser des énergies renouvelables dans leurs data centers, comme le reconnaît Greenpeace, cité par Guillaume Serries dans son article sur ZDNet, Microsoft est obligé d’admettre, en revanche, que « sa neutralité carbone », réalisée depuis 2012, est remise en question par la croissance des services de cloud …empreinte-ecologique-avenir-investir

Ces grandes infrastructures (data centers, cloud) ne sont pas les seules en cause dans la surconsommation d’énergie : tous les appareils en mode ‘veille’ sont également impliqués. En outre, de plus en plus d’équipements domestiques et industriels doivent rester en permanence en fonctionnement : ordinateurs de bureau, serveurs, routeurs, caméras de surveillance …

L’empreinte écologique : les pollutions chimique et électronique

Notre communication quotidienne ne pourrait pas se réaliser sans le concours de matériaux toxiques indispensables (jusqu’à présent) à la fabrication des appareils mobiles, notamment pour les batteries : les ‘terres rares’ ou lanthanides. Comme le souligne l’article de Géo : « l’extraction et le traitement des terres rares polluent et produisent des déchets toxiques ». Et évidemment, cette extraction se passe souvent dans les pays du Sud et dans des conditions souvent indignes : « en Mongolie intérieure, la radioactivité mesurée dans les villages près de la mine de Baotou serait 32 fois supérieure à la normale (contre 14 fois à Tchernobyl) » !

Une solution serait le recyclage des déchets électroniques pour répondre à la demande croissante de terres rares. Mais là aussi, ce n’est pas toujours le comportement responsable qui prévaut dans cette industrie. Le recyclage des ‘Déchets d’équipements électriques et électroniques’ ou D3E est très contrôlé et encadré en France et en Europe, comme l’explique la FAQ de Future Arte, mais il existe un trafic international d’exportations illégales de déchets électroniques où les conditions de travail et d’exploitation de matériaux échappent à toute réglementation … !

Un peu plus controversé, l’effet nocif des ondes électromagnétiques. Des cas de personnes électrohypersensibles ont été reconnus, dus à l’intolérance aux ondes électromagnétiques provenant des équipements de téléphonie mobile dans l’environnement. Même si l’Agence nationale de sécurité sanitaire de l’environnement française (ANSES) estime que les données scientifiques ne montrent pas d’’effet avéré’ des ondes sur la santé, elle préconise néanmoins un certain nombre de précautions aux personnes hypersensibles, les effets à long terme étant encore inconnus (article de TVinfo). En revanche, les associations comme EHS-MCS préconisent une totale isolation du système numérique aux personnes électrohypersensibles !

Le numérique au secours des dérèglements climatiques : désinvestissement des énergies fossiles et investissement dans l’économie décarbonnéecampaign_di_0

Tous les jours, de grandes entreprises, des institutions et des collectivités locales abandonnent les énergies fossiles pour investir dans l’énergie propre. Lors de la présentation Cleantech, Pascal Canfin évoque $ 500 milliards d’investissement public et privé dans des projets qui contribuent à la décarbonisation de l’économie.

De grands patrons de multinationales dont plusieurs du secteur numérique (Bill Gates de Microsoft, Jeff Bezos d’Amazon, Marc Zuckerberg de Facebook, Xavier Niel de Free, Jack Ma d’Alibaba, etc.) ont fondé l’initiative « Breakthrough energy coalition » qui a pour objectif est d’investir dans les technologies d’énergie propre en misant sur les entreprises émergentes.

Ces initiatives sont révélatrices de l’émergence d’une disruption dans l’industrie et l’économie mondiale. Pascal Canfin a comparé la situation actuelle à celle de l’Europe à la veille de la Première guerre mondiale : dans les années 1900, Paris était envahi par le crottin de cheval qui représentait une véritable pollution à l’époque … Le développement de l’automobile pendant la guerre de 14 a fait disparaître ce problème (tout en créant un autre). Pour parvenir à une économie décarbonnée, neutre en carbone en 2060, il n’y a pas d’autre moyen que la jonction de l’économie verte et de l’économie numérique. En 2006, Nicolas Stern, chef du service économique britannique, a présenté dans un rapport indépendant (Stern Review) le caractère inéluctable du changement climatique et analysé ses coûts et conséquences sur la croissance et le développement. Cet économiste, qui est à présent le vice-président de la Banque Mondiale, a démontré que si on n’apportait pas de solutions durables à ce problème, le changement climatique risquait de coûter plus cher à l’économie mondiale … !

La COP21 représente une partie de ce défi (politique mondiale), mais il faut aussi que des entrepreneurs le relèvent aussi. L’économie contemporaine finance encore trop de projets avec l’énergie fossile …

L’innovation au service du climat : la recherche-développement des ‘cleantechs’

climate-solutions-idea-bulb-lead-972x514Comme l’a souligné Axelle Lemaire, il y a urgence à apporter des solutions par l’innovation. C’est pourquoi la French Tech se met au vert. Le numérique est devenu une transition nécessaire dans la transition écologique.

Des géants industriels aussi bien que des universités et des centres de recherche ont fait le pari de l’innovation en soutenant des jeunes pousses.

Au côté de grands groupes, les organismes de recherche participent à une exposition au Grand Palais pour présenter au public l’action des scientifiques sur la question climatique à l’occasion de la COP21. Les chercheurs partagent leurs connaissances avec les visiteurs et présentent des solutions pour lutter et s’adapter au changement climatique. L’INRIA, représentant la recherche en informatique et automatique, est partie prenante de plusieurs projets (énergie alternative, recyclage des déchets, transport, ville intelligente).

Au niveau des entreprises innovantes, les start-ups ‘greentech’ ont l’avantage d’être agiles et participatives. Sur les 21 start-ups sélectionnées pour être les ambassadrices à la COP21, 13 ont été choisies par le public. Le contenu des solutions numériques est aussi transversal et transdisciplinaire. Certaines solutions permettent le suivi précis et prédictif des consommations d’énergie. L’intelligence des mégadonnées permet de créer des ‘smart data’, notamment avec des objets connectés et de promouvoir de nouveaux usages, comme l’application Plume Labs. Créée par une équipe de jeunes ingénieurs pour démocratiser l’accès à l’information concernant la qualité de l’air urbain, cette start-up française permet aux utilisateurs de suivre, prédire et réduire leur exposition à la pollution de l’air !

Ces jeunes pousses s’appuient aussi bien sur la participation du public que sur un partenariat industriel public et privé. Ces initiatives ne sont qu’un premier pas dans un cercle vertueux qui devrait amener à une prochaine révolution industrielle. C’est le thème du Forum de l’OCDE qui doit se tenir à Paris les 14 et 15 décembre 2015.

nasa-climate-change-projection

 

HM Treasury – Cabinet Office. – Stern Review on the Economics of Climate Change. – The National Archives, [2006]. Pdf.

Rapport Stern : coût des changements climatiques.Réseau Action Climat France, 12/10/06

Manach, Jean-Marc. – Ecologie : le numérique fait partie de la solution, pas du problème. – InternetActu, 14/04/09

Livre ou Ipad ?Carbone 4, 2012 [Métro, 03/03/11]

La Porte, Xavier de. – Energie, pollution et internet. – InternetActu, 01/10/12

Flipo, Fabrice ; Dobré, Michèle ; Michot, Manon. – La face cachée du numérique : l’impact environnemental des nouvelles technologies. – Paris, L’Echappée, 2013

Weiler, Nolwlenn. – Cette empreinte écologique que les consommateurs ont bien du mal à voir.Bastamag, 20/01/14

Le numérique c’est plus écologique ? Kaizen, 22/04/14

Paris désinvestit des énergies fossiles. Maison de la Chimie, 1er Septembre 2015. – European Greens.

Redefining industrial revolution : OECD 2015 Green Growth and Sustainable Development Forum (14-15 December 2015, Paris). – OECD Insights, 07/11/15

21 start-ups des cleantechs ambassadrices de la French Tech à la COP21 : le concours du 12 au 27 novembre 2015/ Sous le haut patronage du Ministère de l’Economie, de l’industrie et du Numérique. – Dossier de presse pdf.

Serries, Guillaume. – COP21 : quid de l’impact des data centers ? ZDNet, 27/11/15

COP21 : La recherche se mobilise pour le climat. Solutions Cop21, Paris 2015. – Ministère de l’Enseignement supérieur et de la recherche, 27/11/15

Breackthrough Energy coalition. – [28 November 2015]

Dolan, Kerry A. – Bill Gates, Mark Zuckerberg & more than 20 other billionaires launch coalition to invest in clean energy. – Forbes, 29/11/15

Jost, Clémence. – COP21 : nos pratiques numériques sont-elles écologiques ? Archimag, 30/11/15

Guillaud, Hubert. – Avons-nous besoin d’une vitesse limitée sur l’internet ?InternetActu, 01/12/15

.

Quel prêt pour le livre numérique ? La controverse autour du projet PNB

Des-écrits-aux-écrans1Un an après l’ouverture au public du premier dispositif de prêt numérique dans les bibliothèques publiques (Projet PNB), une polémique divise les bibliothécaires, notamment après la mise en service de ce prêt dans les bibliothèques de la Ville de Paris le 13 octobre.

Le Collectif SavoirsCom1 a même appelé à bloquer le système en téléchargeant des fichiers de livres disponibles jusqu’à épuisement avec le mot d’ordre « chasse aux jetons ». Pour ce groupe de bibliothécaires, chercheurs et juristes, ce modèle est inabordable pour des budgets publics et surtout l’implantation de DRM (verrous numériques) dans les fichiers des e-books va à l’encontre de la philosophie des communs communs – célébré la même semaine par les bibliothèques de Paris avec le Festival Numok pendant « Le Temps des communs ». La CGT Culture de la Ville de Paris soutient aussi l’action du Collectif en dénonçant « l’indigence du système comme du modèle ». Le livre numérique coûte plus cher à la bibliothèque que le livre papier (jusqu’à trois ou quatre fois), et de plus, il s’agit d’une licence et non d’une acquisition définitive. Cette licence est limitée dans le temps (6 ans pour la Ville de Paris) et en nombre d’emprunts simultanés (30 maximum). Ensuite la bibliothèque est obligée de racheter un exemplaire … Le syndicat appelle à « un autre rapport de force avec les éditeurs et à un droit de prêt similaire au droit du livre papier sans contrainte de durée et de nombre de prêt ».

Le Réseau Carel avait alerté dès 2013 sur le coût élevé de l’acquisition au titre et sur le choix de la licence à la place de l’achat définitif dans le projet PNB. Les budgets des bibliothèques n’y résisteraient pas et ces dernières perdraient leur rôle patrimonial en n’étant plus propriétaires des collections.

De son côté, l’ABF (Association des bibliothécaires de France) s’est inquiétée dans un communiqué « du manque de transparence de l’expérimentation PNB, et à part quelques retours, d’aucune évaluation de ce service un an après sa mise en œuvre ». L’ABF rappelle aussi que ce dispositif entre en contradiction avec les accords interprofessionnels du 8 décembre 2014 « qui appelle à la diversité des modèles du livre numérique en bibliothèque ». Le PNB risque aussi de provoquer une fracture territoriale dans la mesure où ce sont de très grandes collectivités (Montpellier, Grenoble, Paris), disposant de suffisamment de ressources financières, qui mettent en œuvre ce service. Le PNB crée donc « une inégalité d’accès à la lecture sur l’ensemble du territoire français ». De plus, la complexité du modèle avec les DRM rend difficile d’accès à ce service une grande partie des usagers qui ne sont pas à l’aise avec le numérique. Cette exclusion entre en contradiction avec les principes fondamentaux de la charte BibLib. L’ABF demande enfin au Ministère de la Culture de « diligenter une véritable étude indépendante qui puisse faire le point sur cette année d’évaluation ».

Comble d’incompréhension, des bibliothécaires parisien(ne)s qui ont pris l’initiative de relayer ce communiqué sur twitter ont été sommés de retirer immédiatement leurs twits par le Bureau des bibliothèques (BBL) rattaché au cabinet de Bruno Julliard … ! Le travail de veille des professionnels se voit ainsi censuré ! Même si le BBL est revenu ensuite sur sa décision

Comment en est-on arrivé là ? A la différence des BU, les bibliothèques publiques ne disposaient pas véritablement de prêt de e-books, exceptées quelques expériences de prêt de liseuses. 6a00d8342e8a5353ef01b8d120387c970c

La première vague d’initiative remonte à 2011 pour la phase de prospection et de concertation. Le projet PNB regroupant les établissements de Montpellier, Grenoble, Aulnay-Sous-Bois et Levallois s’est ouvert au public à l’automne 2014. Il intervient dans un contexte où seules 4% des grandes bibliothèques disposent d’un service de prêt d’e-books malgré la multiplication des distributeurs (Bibliovox, Lekti, Numilog, l’Harmatèque, etc.).

L’originalité du modèle PNB – projet interprofessionnel soutenu par le CNL – réside dans l’existence d’une interface réalisée par l’opérateur Dilicom qui permet l’articulation entre les différents acteurs : éditeurs et diffuseurs (catalogue de livres) ; libraires (offres des distributeurs aux collectivités) ; bibliothèques et usagers. Les livres peuvent être téléchargés ou lus en ligne (streaming).

La chaîne de gestion du prêt numérique prend en charge l’ensemble des étapes nécessaires au fonctionnement du service. Chaque collectivité établit les partenariats qui lui conviennent ; Montpellier, par exemple, avec la librairie Sautemps, le logiciel Archimed et le prestataire ePagine. L’objectif est de préserver et de stabiliser la place des libraires.

Des expériences semblables ont lieu dans le monde. Au niveau francophone, le Québec et la Belgique ont adopté le même modèle, avec la participation de librairies agrées. En 2014, le système québécois pretnumerique.ca a enregistré près d’un million d’emprunt avec une moyenne de 20 000 prêt par mois. La licence fonctionne comme pour le prêt papier : 1 copie = 1 utilisateur (pas de prêt simultané) ce qui rend l’exemplaire emprunté immédiatement indisponible pour les autres lecteurs ! Là aussi, les e-books empruntés sont chrono-dégradables, ils s’effacent automatiquement à la fin de la période de prêt ; chaque copie peut être empruntée 55 fois, ensuite il faut acquérir un nouvel exemplaire. Jean-François Cusson, responsable du service, reconnait qu’il peut paraître absurde d’introduire la notion d’exemplaire dans l’univers numérique, mais pour des raisons pragmatiques, les bibliothèques ont préféré utiliser les systèmes de diffusion existants …
En Belgique francophone, un consortium de bibliothèques a rejoint le dispositif PNB.

Aux Etats-Unis et au Canada anglophone, les bibliothèques s’adressent directement aux plateformes de distribution commerciales sans passer par la médiation des libraires. home-big-image-220772a036b791a8c8cd39132d932b2a

La présence des libraires dans le dispositif PNB est un des principaux arguments utilisés dans la réponse à l’offensive de SavoirsCom1. Grâce à leur médiation, les bibliothèques ne se font pas cannibaliser par les acteurs commerciaux du Net (Google, Amazon) qui proposent des abonnements à la Netflix au consommateur-lecteur … Et concurrencent le service public !

Laurent Soual, bibliothécaire consultant, rappelle dans une tribune sur Actualitté, que c’est l’avenir des bibliothèques qui est en jeu : ce sont « les seules institutions légitimes pour proposer un service de prêt numérique aux usagers. Si ce service n’est pas efficient, elles perdront toute légitimité aux yeux des décideurs et des élus pour continuer à proposer leurs services traditionnels ou pour en proposer de nouveaux » !

Les bibliothécaires des établissements qui ont expérimenté le projet PNB ont posté une réponse collective aux critiques de SavoirsCom1 et de l’ABF : coût élevé du système et des livres numériques, utilisation des DRM et complexité du dispositif, service réservé aux grandes bibliothèques, offre de livres numériques restreinte, etc… Les bibliothécaires expérimentateurs explicitent leurs choix en soulignant qu’une évaluation est prévue au bout de deux ans et la plupart des bibliothèques sont à moins d’un an d’expérience.Le Collectif SavoirsCom1 s’est empressé d’y répondre avec Dix idées reçues pour prolonger le débat sur PNB et le prêt numérique ….

Après les bibliothécaires et les lecteurs, ce sont à présent les auteurs qui se sentent floués par le PNB. Dans le prêt numérique, l’auteur touche une part sur le prix du livre, mais ne touche aucune compensation pour le prêt, alors qu’un e-book peut être emprunté entre 20 et 40 fois ! Ce manque de compensation touche aussi les éditeurs. Même si la rémunération est supérieure à celle du livre imprimé, cette offre va permettre des usages défavorables à toute la chaîne du livre.

Affaire à suivre …

Mazin, Cécile. – Des e-books en bibliothèque, certes, mais à certaines conditions.Actualitté, 09/10/13

Oury, Antoine. – Première approche de PNB pour les bibliothécaires français. – Actualitté, 11/08/14

Bibliothèque de Grenoble : ouverture de Bibook, l’offre de livres numériques PNB . – Aldus, 08/09/14

PNB ou le livre numérique inabordable pour les bibliothèques. - SavoirsCom1, 12/2014

Des livres numériques : où je veux, quand je veux ! - Paris.fr Bibliothèques, 14/10/15

Mercier, Sylvère. – Prêt numérique en bibliothèque : critique constructive d’un modèle inadapté. – SavoirsCom1, 10/2015

Collectif SavoirsCom1. – Prêter des livres numériques comme des livres papier : une fausse évidence. – Rue 89, 15/10/15

L’ABF alerte sur le sur dispositif Prêt numérique en Bibliothèque. – ABF, 16/10/15

Les critiques contre les conditions de prêt numérique en bibliothèque (PNB) rendent fou Bruno Julliard. – Social Nec Mergitur, 19/10/15

Bibliothèques : le prêt numérique en question en France. – Aldus, 19/10/15

Ne serait-il pas dommage de refuser sa chance au projet PNB ?Actualitté, 21/10/15

Soual, Laurent. - Prêt numérique en bibliothèque n’est pas le TGV Lyon-Turin. – Actualitté, 22/10/15

Oury, Antoine. – PNB : la rémunération des auteurs reste problématique. – Actualitté, 23/10/15

Dix idées reçues sur le débat sur PNB et le prêt numérique. – SavoirsCom1, 10/2015

 

Le « Meilleur des mondes » des GAFA : l’intelligence artificielle et les biotechnologies aux commandes des « Big companies » du Net

1cf44d7975e6c86cffa70cae95b5fbb2-2Les GAFA (Google Apple Facebook Amazon) – que l’on devrait désormais appeler AAFA, Google, le moteur de recherche historique n’étant plus qu’un département de l’entité Alphabet qui couvre plusieurs champs de recherche – misent de plus en plus sur l’intelligence artificielle et les sciences et technologies de la santé dans leur course à l’hégémonie sur la toile …

Si XLab, labo de recherche  de Google a déjà lancé la Google Car (voiture autonome) et les Google Glasses (lunettes de réalité augmentée), d’après 01Net « M », l’assistant personnel de Facebook nous promet de trouver le cadeau idéal pour nos ‘amis’ en utilisant les millions de données personnelles que le réseau social recueille (à leur insu souvent …) sur le web. Avec un milliard d’utilisateurs, c’est un jeu d’enfant !

Mais, qu’il s’agisse de mégadonnées (big data) ou d’intelligence artificielle, on reste encore dans l’informatique, or les Géants du net ont voulu se diversifier dans un domaine qui va prendre de plus en plus d’importance au 21e siècle : la santé et les biotechnologies. C’est Bill Gates, l’ancien patron de Microsoft qui s’est lancé le premier avec sa fondation contre le paludisme.

Comme l’explique Olivier Ertzscheid dans Rue 89, Le Web 4.0 sera celui du génome : on est passé du web 1.0 qui a permis d’indexer des documents et de les rechercher (moteurs de recherche) au web 2.0, le web social qui recense les profils sur les réseaux sociaux ; avec le web 3.0 on passe aux objets connectés et au World Wide Wear « où le corps devient une interface comme les autres ». Après cela, après les plateformes de l’’économie du partage’ qui concurrencent de plus en plus de secteurs traditionnels, que reste-il à indexer ? L’ADN. C’est ce champ que les big companies vont investir pour créer le « web généticiel ». Olivier Ertzschied cite une étude du MIT l’Internet de l’ADN « dont l’objectif est de documenter chaque variation de chaque gène humain et de déterminer quelles sont les conséquences de ces différences ». Il évoque ainsi la possibilité « de structurer une économie de ‘servicialisation’ du vivant ». Dans cette bio-économie, Google est, bien sûr, très présent. Mais pour le moment, en dehors des délires transhumanistes du gourou Ray Kurtzweil, fondateur de la Singularity University, dont le modeste objectif est de « vaincre la mort », la société de biotech Calico du groupe Alphabet, pose ses jalons. Elle vient de s’allier avec les laboratoires français SANOFI pour travailler sur le traitement du diabète ; la société de biotechnologie avait déjà réalisé un partenariat avec la firme de santé Dexcom sur des minuscules capteurs permettant de mesurer le taux de glucose dans le sang et Google X avec Novartis pour des lentilles de contact connectées pour le même objectif, mais là à partir des larmes … !090422165949

Les autres grands acteurs du net s’investissent aussi dans d’autres secteurs comme les plateformes de services ou les objets connectés. « Amazon Home Services » connecte l’internaute à des professionnels de services à domicile, du plombier au professeur de yoga comme l’indique Charlotte Volta dans un post de l’Atelier, tandis que le Pentagone s’allie à Apple pour créer des objets connectés militaires (article du Monde Informatique).
Google se retrouve évidemment dans ce genre de plateformes, la société prévoit même de lancer sa propre place de marché permettant de connecter les internautes avec les fournisseurs de services directement, à partir de la page de résultats ! Quant aux TICE et à l’éducation en ligne, Google a déjà sa plateforme, cf post de Frédéric Lardinois sur Techcrunch, et propose son école en ligne devançant toutes les réformes des éducations nationales ! Toujours au niveau de l’éducation, Amazon fournit désormais les manuels scolaires aux écoles de New York pour une période de trois ans. Mais, comme le souligne l’article d’Actualitté, les e-books comportent des DRM qui les rendent impossibles à utiliser pour les malvoyants …

Mais les géants du Net ne sont pas tous américains … Alibaba, la star montante chinoise investit aussi dans l’intelligence artificielle pour traiter les big data. C’est ce qu’explique Guillaume Périssat dans l’Informaticien : la société « vient d’ouvrir une plateforme cloud dédiée à l’analyse de grands volumes de données, mêlant deep learning, machine learning et analyse prédictive avec une puissance de calcul inégalée et une ergonomie à toute épreuve ».000010180_imageArticlePrincipaleLarge

Devant toutes ces initiatives, notamment dans les secteurs de la santé et de l’éducation, on peut se poser la question : quid des États et des institutions internationales ? Or, comme le souligne le chirurgien Laurent Alexandre, cité par Hervé le Crosnier, invité des Matins d’été sur France Culture « Google et les autres géants du net sont plus puissants que les Etats. Quel Etat peut investir un milliard de dollars dans la recherche ? Pourtant, il est de la responsabilité du politique d’investir dans les nouvelles technologies ». Or comme rappelle Hervé le Crosnier, « un milliard c’est ce que Google doit au fisc français … ». Ces activités donnent un pouvoir énorme à ces entreprises : les algorithmes mis en œuvre permettent de comprendre beaucoup de choses à partir des données personnelles et à agir. Grâce à l’intelligence artificielle et au ‘deep learning’, ils peuvent non seulement classifier et interpréter les données recueillies, mais aussi analyser les émotions (ex : reconnaissance faciale des photos dans Facebook) et ainsi définir les « besoins » des utilisateurs. Des chercheurs de Cambridge assurent dans une étude pouvoir déduire l’âge, le genre, la religion et l’opinion politique des utilisateurs à partir des seuls « like » du réseau social … !

D’autre part, lorsque l’ont fait une recherche sur Google, le ‘Page rank’, l’algorithme du moteur de recherche, va sélectionner sur l’ensemble des résultats ceux qui correspondent le plus à l’utilisateur : à partir des recherches précédentes mais aussi de la géolocalisation (programmes du cinéma d’à côté, par ex.). Cet algorithme représente le modèle que Google se fait de ce que nous sommes. On arrive ici à la limite de la personnalisation.

Comme l’exprime Henri Verdier dans son blog, « C’est le réel lui-même qui est retranscrit en données, qui est analysé à un nouveau niveau de granularité ». Le ‘quantified self’, ce ‘moi quantifié’ peut traduire, à travers les mesures des objets connectés de bien-être (bracelets, vêtements), soit « un désir de maitrise de son propre destin, de connaissance de soi, soit une menace sur la vie privée […] la pénétration de l’empire du management dans la sphère la plus intime du corps ».

Comme le rappelle Sophie Coisne, rédactrice en chef de La Recherche, la médecine personnalisée, si elle peut apporter des réponses appropriées dans des cas très précis, peut aussi représenter un grand danger, par exemple dans le cas des médicaments adaptés à chacun, car on n’a plus aucun contrôle sur les données … Cela implique des protocoles de recherche qui coûtent des millions, un pur fantasme !

Il faut réfléchir à la question : « Qui fixe les buts ? La machine ou les humains ? » « Deviendrons-nous les ‘entrepreneurs’ de nos données, ou serons-nous progressivement enserrés dans des étaux, asservis voire ‘marchandisés’ » (Henri Verdier) ?

Il existe néanmoins des projets institutionnels dans ces technologies de pointe. L’Union européenne, à travers son programme H2020 présente 17 projets de robotique (robots industriels, bras articulés, humanoïdes de compagnie) impliquant de l’intelligence artificielle et des éléments de cognitique.

Il en est de même en France dans le cadre du Commissariat général à la Stratégie et à la Prospective qui a produit l’étude « La dynamique d’internet : Prospective 2030 ».

A la différence de ceux des Gafa, ces projets prennent en compte les contraintes juridiques liées aux données personnelles, du moins on peut l’espérer …

objets-connectes

France ; Premier Ministre ; Commissariat général à la stratégie et à la prospective. – La dynamique d’internet : Prospective 2030. – Études n°1, 2013. via Slideshare.

L’intelligence artificielle, le nouveau dada de Google. – ITespresso, 24/10/14

Bazin, Amélie ; Pacary, Jade ; Jean, Camille. – La lovotique : vers des machines reconnaissant les émotions ?Culturenum, 03/12/14 (U. de Caen – notes de synthèses par les étudiant(e)s).

Regalado, Antonio. – Internet of DNA. – MIT Technology Review, 2015.

European Commission ; CORDIS. – Robotics gets celebrated with 17 new projects under H2020.Cordis.europa, 27/01/15

Intelligence artificielle : jusqu’où iront les réseaux sociaux ?La Recherche, avril 2015

Voltat, Charlotte. – Quand les géants du Net s’attaquent à l’industrie du service.L’Atelier, 30/04/15

Ertzscheid, Olivier. – Le web 4.0 sera celui du génome, et il y a de quoi flipper. – Rue 89-L’Obs, 07/03/15

Belfort, Guillaume. – Google signe avec Novartis pour des lentilles de contact connectées. – Clubic, 15/07/15

Intelligence artificielle, transhumanisme : quel futur les GAFA nous préparent-ils ? – Avec Sophie Coisne et Hervé Le Crosnier. – Les matins d’été – France Culture, 19/08/15

Lardinois, Frédéric. – Google classroom gets an update ahead of new school year. – Techcrunch, 24/08/15

Périssat, Guillaume. – Alibaba lance une offre de service en intelligence artificielle destinée au Big Data. – L’informaticien, 25/08/15

Gary, Nicolas. – New-York signe avec Amazon, aveugle aux problème de lecture ? - Actualitté, 27/08/15

Facebook annonce « M », un assistant personnel intégré à la messagerie.01Net, 28/08/15

Filippone, Dominique. – Le Pentagone s’allie avec Apple pour créer des objets connectés militaires.Le Monde informatique, 28/08/15

Le Quantified self, pivot de la révolution des données. – Henri Verdier Blog, 30/08/15

Dove, Jackie. – Google Life Sciences teams up withe Sanofi to,take down diabetes. – The Next Web, 01/09/15

Fredouelle, Aude. – Quels sont les projets connus de Google X ?Journal du Net, 02/09/15


Staypressed theme by Themocracy