Humanités numériques : nouvelle discipline ou méthodologie des Sciences humaines et sociales ?

perles-alphabet-en-bois-300-perlesComme le rappelait  Etienne Cavalié (Lully) dans son post de Bibliothèques (reloaded) en janvier 2015 « le concept d’humanités numériques est vraiment en train de se répandre » depuis quelques années. Mais que représente cette notion qui prend de plus en plus de place dans le champ des sciences humaines et sociales (SHS) ? L’annonce d’une série « Humanités numérique » au baccalauréat général de même que la création d’un Executive Master Digital Humanities à Sciences Po interroge encore plus sur la place de cet objet ‘technoscientifique’ …

Définition

« Les humanités numériques2 sont un domaine de recherche, d’enseignement et d’ingénierie au croisement de l’informatique et des arts, lettres, sciences humaines et sciences sociales.
Elles se caractérisent par des méthodes et des pratiques liées à l’utilisation des outils numériques, en ligne et hors ligne, ainsi que par la volonté de prendre en compte les nouveaux contenus numériques, au même titre que des objets d’étude plus traditionnels.
Les humanités numériques s’enracinent souvent d’une façon explicite dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir. »

Dans cette définition de Wikipédia on retrouve les deux pôles de ce champ de connaissance : ‘un domaine de recherche et d’ingénierie’ où l’informatique s’intègre dans les sciences humaines grâce aux outils numériques. La définition ne se limite pas aux méthodes et pratiques que ces outils instaurent, mais souligne aussi « la volonté de prendre en compte nouveaux contenus numériques ». On voit dans cette acceptation un dépassement de l’opposition que notait Alexandre Moatti dans Bibnum en octobre 2014 où il soulignait « deux tendances […] : ceux qui pensent que les des DH sont d’abord et avant tout une pratique, un outil, à intégrer aux champs disciplinaires universitaires […] ; ceux qui pensent que ce doit être une théorie, une discipline … ». Le chercheur se rattache lui-même à la première tendance (méthode, outil) tout en reconnaissant que les deux acceptations puissent coexister. Social_Network_Analysis_Visualization

C’est cette dimension transversale des HN, « ce carrefour, cette convergence entre savoirs et savoir-faire technologiques » qu’analyse Elydia Barret dans son mémoire ENSSIB. Pour elle, les « SHS et les disciplines littéraires et artistiques connaissent une mutation numérique ». Ce sont aussi bien « les méthodes et les modes de travail que les problématiques et les productions scientifiques qui évoluent sous l’effet de la généralisation du numérique ». On se trouve donc bien devant un nouveau domaine de recherche qui requiert des compétences aussi bien des chercheurs dans chaque discipline mais aussi d’autres professionnels de l’information : informaticiens mais aussi bibliothécaires/documentalistes, archivistes et autres gestionnaires de productions esthétiques et sémantiques (conservateurs de musées, iconographes, etc.). C’est l’objet de ce mémoire qui souligne l’importance de la coopération entre chercheurs et bibliothécaires « Les humanités numériques font appel à des problématiques et à des compétences familières aux bibliothèques ». C’est aussi le point de vue que défend Etienne Cavalié dans son Projet de mode d’emploi sur les Humanités numériques où il explique un projet de livre sur les HN réalisé par deux tandems chercheurs/bibliothécaires « Les chercheurs vont progressivement s’emparer des technologies et méthodologies comprises dans l’appellation d’humanités numériques «

De plus, comme le rappelle la définition de Wikipédia, les HN « s’enracinent souvent dans un mouvement en faveur de la diffusion, du partage et de la valorisation du savoir ». Ce mouvement des « Archives ouvertes », lancé par des collectifs de chercheurs à la fin des années 1990, a été soutenu, relayé et alimenté par des professionnels de la documentation. dig-hum

Périmètre des Humanités numériques

Que recouvrent les HN et quelles sont les pratiques habituellement désignées par ces termes ?

  • Numérisation et archivage électronique des différents objets concernés : textes, image, sons, etc.
  • Edition électronique « open access » à travers des dépôts institutionnels comme HAL ou Spire à Sciences Po, mais aussi édition d’ouvrages et de revues en ligne à travers le portail Open Edition
  • Constitution de corpus numériques : textes, images et son, soit par numérisation de documents existants, soit par recueil de documents ‘nativement numériques’ : sites web, réseaux sociaux, etc. Exemple : le corpus COP21 réalisé par le Médialab et la Bibliothèque de Sciences Po
  • Capture, analyse et traitement des données numériques : traitement linguistique (TAL), fouille de textes, traitement de l’image et du son, etc.
  • Représentation graphique et visualisation des données.

Comme le rappelle Elydia Barret dans son mémoire, l’utilisation d’outils informatiques pour traiter les humanités n’est pas si nouvelle, puisque, dès la fin des années 1940, le père Roberto Busa entreprend l’élaboration d’un index des œuvres de Saint Thomas d’Aquin avec l’aide des informaticiens d’IBM, soit 11 millions de mots ! Ces ‘Humanities Computing’ continuent dans les années 1960 à 1980 et concernent essentiellement le traitement linguistique de corpus de textes comme le Brown Corpus aux Etats-Unis où un million de mots sont sélectionnés pour représenter la langue américaine … Les humanités numériques se distinguent en effet de ses précurseurs par la diversité et l’hétérogénéité de leurs objets, aussi bien que des méthodes et des outils mis en œuvre.

64018-cartographie-des-tweets-du-thatcamp-www-martingrandjean-ch-cc-by-nc-sa-3-0Les HN : nouvelles méthodes ou discipline spécifique ?

Cette controverse continue de diviser les différents acteurs (chercheurs, ingénieurs, professionnels de l’information). Comme le souligne Laurence Monnoyer-Smith dans son article « Ouvrir la boite à outils de la recherche numérique » : « Si les méthodes numériques mobilisées dans le cadre de recherche en sciences humaines ne sont pas radicalement différentes, elles renouvellent toutefois les débats épistémologiques provenant du croisement entre informatique et SHS ». Elle cite à ce propos l’article de Noortje Marres qui défend la théorie d’une ‘redistribution’ des méthodes qui a lieu au sein de la recherche numérique. D’après cette auteure, « les outils numériques et les sources de données en ligne transposent sur le web des méthodes traditionnelles en SHS, tout en les adaptant aux nouvelles propriétés du support ». Les chercheurs adaptent donc ces méthodes et les modifient pour faire face à de nouveaux défis épistémologiques.

En revanche, le Manifeste des Digital Humanities (THATCAMP 2010) proclame « Les Digital Humanities désignent une transdiscipline, porteuse des méthodes, des dispositifs et des perspectives heuristiques liées au numérique dans le domaine des sciences humaines et sociales ». Les participants du Thatcamp ne négligent pas pour autant les méthodes traditionnelles « elles s’appuient sur l’ensemble des paradigmes, savoir-faire et connaissances propres à ces disciplines tout en mobilisant les outils et les perspectives singulières du champ du numérique ».

Il est indéniable que le numérique a changé notre rapport aux objets généralement étudiés par les humanités et les SHS. Par rapport à l’écrit par exemple, aussi bien la lecture que l’écriture connaissent une transformation par le numérique, grâce aux liens hypertexte et l’éditorialisation des contenus, sans oublier les groupes de lecture ou d’écriture en réseau … Quant aux pratiques sociales, elles ont été ‘cannibalisées’ par les outils de communication et de réseaux sociaux et l’utilisation d’algorithmes à l’intérieur de ces dispositifs changent complètement la donne !

Face à ce changement radical qui transforme notre relation cognitive au monde, Michel Wieviorka dans son manifeste l’Impératif numérique [analyse de Jean-François Blanchard] exhorte les chercheurs « à ne pas abandonner le domaine à des spécialistes et à prendre la mesure des enjeux qui sont vitaux pour les SHS. Utiliser les ressources numériques, intégrer le numérique dans les méthodes de travail et les objets d’étude constituerait une première avancée vers une appropriation du changement ».  bandeau_humanum

Manifeste des Digital Humanities/par Marin Dacos. – THATCAMP Paris, 2010 maj. 25/01/12. – Hypothèse.org

Berra, Aurélien. – Faire des humanités numériques. – in Read/Write 2/Pierre Mounier, dir. – Open Edition Books, p.25-43. – 2012

Plantin, Jean-Christophe ; Monnoyer-Smith. – Ouvrir la boite à outils de la recherche numérique. – Tic&Société vol.7:n°2, 2e semestre 2013

Blanchard, Jean-François. – Michel Wieviorka, l’impératif numérique ou la nouvelle ère des sciences humaines et sociales ? - Lectures Revues.org. – comptes-rendus 2013

Barret, Elydia. – Quel rôle pour les bibliothèques dans les humanités numériques ? Mémoire d’étude – ENSSIB -Université de Lyon, janvier 2014

Dacos, Marin ; Mounier, Pierre. – Rapport Humanités numériques. – Institut français ; Open Édition, 20/06/14 via Slideshare.net

Humanités numériques. – Institut français, 2014. – Publication d’une étude consacrée aux humanités numériques, soutien à la participation de chercheurs français à la conférence Digital Humanities 2014 de Lausanne, table ronde au Salon du livre, rencontres et débats dans le réseau culturel.

Humanités et cultures numériques : éléments d’histoire et de prospective/Milad Douehi ; Louise Merzeau. – DHNord 2014 Humanisme et humanités numériques. – Publie.meshs, 27/05/14

Dunleavy, Patrick. – Big data and the future of social sciences. – LSE podcasts – Audible impact episode 3, 06/08/14

Moatti, Alexandre. – Quelle acceptation du terme « humanités numériques ». – Bibnum, 19/11/14

Levy, Pierre. – My talk at « The Future of Text 2014. Communication presented at The Future of Text symposium IV at the Google’s headquarters in London (2014). – Pierre Levy’s Blog, 02/11/14

Quels agencements pour les humanités numériques ?/ Eddie Soulier.dirLes Cahiers du numérique. – Numéro spécial, vol.10 – 2014/4. – via Cairn.info

Cavalié, Etienne. – Projet de mode d’emploi des humanités numériques. – Bibliothèques (reloaded), 30/01/15

Qu’est-ce que les humanités numériques ? - France Culture Plus, 25/05/15 [Alexandre Gefen (fabula.org), Pierre Mounier (CLEO), Michel Wieviorka (FMSH). Rencontre animée par Xavier de La Porte (France Culture) au Salon du Livre, Paris 2014).

 

Livre numérique : comment expliquer ce retard au décollage ?

ebookIl y a près de dix ans, en 2007, au moment du lancement de la liseuse Kindle, le marché des e-books s’annonçait prometteur. Et aujourd’hui les livres numériques devraient avoir supplanté le papier comme les téléchargements musicaux l’ont fait pour le vinyle ! Or, si le secteur de l’édition se porte bien, en France comme dans le monde, c’est essentiellement dû aux livres imprimés.

Comme le rappelle Edouard Laugier dans le Nouvel Economiste, le livre est le premier marché culturel du monde : « en 2014, les ventes mondiales  ont généré 125 milliards de dollars de revenus » (Kurt Salmon). Le livre numérique représente 15% du chiffre d’affaire global. En France aussi, le livre est la première industrie culturelle avec un chiffre d’affaire de 4,06 milliards € (GFK). Au niveau mondial, les e-books représentent 10% des ventes, 25% dans le monde anglo-saxon et 2 à 3% en France …

Il faut reconnaître qu’en France, la consommation de produits culturels numériques est moins importante que dans d’autres pays développés, exception faite de la musique. Comme l’explique Christophe Bys dans l’Usine digitale, seuls 9% de Français souscrivent à une offre de vidéo à la demande, contre 60% aux Etats-Unis, 23% au Royaume Uni et 19% en Allemagne … Il est vrai que les publics valorisent de plus en plus la logique de l’accès (streaming) à celle de la propriété (achat de produits), sauf en matière de jeux vidéo où l’hybridation domine entre dématérialisation (jeux en ligne) et matériels (console +jeux).

Marché et consommation de e-books en France llc_droit_d_auteur

Alors qu’aux Etats-Unis les livres numériques représentent 25% du marché du livre, d’après le baromètre KPMG, la consommation de livres numériques en France est inférieure à 2% en 2015 et 74% des Français ne comptent pas en lire selon un sondage Opinion Way ! Néanmoins, le nombre de lecteurs de livres numériques  est en légère augmentation (20% de la population française) d’après les enquêtes 2016 du 6e Baromètre sur les usages du livre numérique (Sofia-SNE-SGDL), les deux supports « coexistent dans un marché stable qui confirme la pratique d’un usage mixte». Si la demande est si faible, l’offre est plutôt opaque et les éditeurs traditionnels hésitent à abandonner la proie pour l’ombre virtuelle des ouvrages.

Pourtant le processus numérique est bien intégré dans la production éditoriale : rédaction, édition et fabrication informatique ont permis de réduire les coûts et les délais et d’améliorer la productivité. Il en est de même pour la gestion des catalogues et les bases de données clients. Si 62% des éditeurs disposent d’une offre numérique (surtout les grandes maisons), la promotion des e-books a bien ralenti depuis 2011 surtout en raison de difficultés dans la commercialisation et la compréhension du marché. En fait, comme l’explique Clément Solyme dans son article d’Actualitté, « le numérique pour les éditeurs, ce ne sont pas des coûts en moins, mais des recettes en plus ». En effet, sur les grandes ventes, le coût de fabrication ne fait pas vraiment la différence et les coûts de stockage sont réduits grâce à la technologie. Aujourd’hui, on imprime seulement pour trois mois, puis on réédite si nécessaire …

Seul le secteur professionnel et universitaire profite de la révolution numérique : les éditions juridiques et scientifiques sont très numérisées. Les éditeurs de revues STM (sciences, technologies, médecine) réalisent 40% de leur chiffre d’affaire grâce aux publications numériques et jusqu’à 80% aux Etats-Unis ! Quant aux ouvrages juridiques, la mise à jour est quasi-directe depuis les tribunaux …

Freins à la consommation : les prix, la TVA

app_ebook_bundleUn des principaux atouts des plateformes d’e-books au début de leur lancement, était les prix attractifs, avec le plafond de $ 9.99 initié par Amazon. Et ce, avec un confort de téléchargement immédiat ; il suffisait de cliquer sur un titre sur sa liseuse ou sur l’ordinateur et l’ouvrage est immédiatement téléchargé, et le compte débité aussi vite ! Or, l’année dernière, les principaux éditeurs américains ont décidé d’une augmentation substantielle : on a immédiatement assisté à un renversement du marché : une baisse de 11% des ventes d’e-books entre 2014 et 2015 ! Le marché est très « price sensitive », certaines différences de prix sont jugées insuffisantes pour passer du papier au numérique, l’écart de prix est d’environ 30% : ex : 20 € l’exemplaire papier, 13,99 € pour l’e-book. Ce dernier peut même être plus cher que le livre papier comme dans le cas des livres de poche …. Le ‘juste prix’ pour les e-lecteurs se situerait autour de 7€.

Mais c’est essentiellement l’arrivée de l’iPad d’Apple qui a imposé des prix plus élevés (plus de 17%) sur sa plateforme iBooks suite à une entente avec six éditeurs ! Ensuite, Amazon a imposé de nouvelles conditions contractuelles … La plupart des éditeurs traditionnels ont augmenté leurs prix, ce qui a rendu les e-books moins accessibles pour les lecteurs.

Mais ces éditeurs ne représentent pas l’ensemble de la publication des livres numériques. D’après Clément Solyme, aux Etats-Unis, sur 10 000 titres vendus en mai 2015, 27% sont publiés par des grands groupes au prix moyen de $8,22 et 73% par des petits éditeurs ou par autopublication, au prix moyen de $4,58. En fait, comme le souligne une étude citée par The Guardian, la baisse du marché numérique ne prenait en compte que la moitié des e-books vendus aux Etats-Unis. Rappelons aussi qu’en France, plus de la moitié des lecteurs de livres numériques (59%) les acquièrent gratuitement car ceux-ci appartiennent au domaine public.

Au niveau de la TVA, si la France a adopté depuis un an un faible taux de TVA (5,5%), la plupart des  pays de l’Union européenne conservent encore un taux élevé pour les e-books, jusqu’à 20% au Royaume Uni. Mais la Commission a prévu une baisse du taux pour fin 2016.

Autres freins : liseuses, formats, DRM drm

Aux Etats-Unis, le marché des liseuses est saturé : il a été évincé par la multiplication des smartphones et des tablettes qui séduisent par leur aspect multisupports. Comme le dit Hervé Essa , cité par Edouard Laugier dans le Nouvel Economiste, « les liseuses sont des équipements marginaux. Le secteur de l’édition n’a pas anticipé cette demande des publics. Les offres ne sont ni marketées, ni adaptées aux usages. ». Michel Beck dans Numérama ajoute même que la chaîne de librairies britannique Waterstones a enlevé les Kindle de ses vitrines… Et ce n’est pas le dernier-né des Kindle, Oasis, lancé cette semaine, qui inversera cette tendance. Malgré de nombreux atouts en plus de l’encre électronique (éclairage LED, batterie qui dure plusieurs mois, option pour gauchers, etc.), Amazon le propose à un prix (près de 300 €) qui en dissuadera plus d’un … !

En France 4% des foyers sont équipés de liseuses et 10,7 millions d’unités achetées.

Mais si le e-book a des avantages au niveau de la mobilité, ce produit présente des handicaps par rapport au livre physique : dans la plupart des cas, la revente, le prêt ou le don ne sont pas permis par les conditions d’utilisation. Les DRM (dispositifs techniques de gestion d’une œuvre numérique) agissent comme des verrous pour empêcher les possesseurs d’un livre numérique de le partager, de le diffuser ou de le revendre. Seule solution pour partager des œuvres entre proches, paramétrer toutes les liseuses de la même famille avec le même compte … ! Evidemment, cela n’est possible qu’avec un même format de liseuse : Kobo (FNAC), Kindle (Amazon) ou iBooks (Apple) … 13377-drm

Comme le rappelle Neelie Kroes, Commissaire européenne à l’économie numérique, citée par Joaquim Rodriguez  dans Publishing Perspectives « Quand vous achetez un livre papier, il est à vous et vous pouvez l’emporter où vous voulez. Cela devrait être la même chose avec un e-book. Aujourd’hui, on peut ouvrir un même document dans plusieurs ordinateurs, pourquoi n’en serait-il pas de même pour un e-book sur différentes plateformes avec différentes applications. » Malgré la résistance des éditeurs, Neelie Kroes rappelle que l’interopérabilité des formats est à l’ordre du jour dans l’agenda numérique européen.

Pour Coralie Piton, directrice du livre à la FNAC, interviewée dans Numérama « Il faut trouver un modèle qui protège l’ensemble de la filière », mais pas question d’abandonner les DRM qui les protègent contre les pirates. C’est pourtant ce qu’a choisi Bragelonne en préférant le tatouage numérique  plutôt que les verrous. Les responsable de cette maison sont « convaincus que le seul moyen de combattre le piratage, c’est de créer une offre légale qui convient aux attentes des lecteurs. ».

Cette idée d’une protection « user friendly » est aussi celle des DRM LCP (Lightweight Content Protection), solution développée par le consortium Readium qui se présente comme l’alternative européenne à la DRM Adobe pour le format EPUB qui permet l’interopérabilité des formats. On pourra ainsi consulter un e-book sur n’importe quel appareil. Ces DRM ‘poids plume’ sont destinés prioritairement au prêt en bibliothèques à travers le système PNB. Mais la concurrence, notamment Adobe et les sociétés américaines, ne l’entend pas de cette oreille et menace de lancer une guerre des brevets … !

Cette mesure permettrait de desserrer un peu le carcan des e-books qui n’ont pas encore acquis la légitimité d’œuvres autonomes en France au moment où l’Assemblée nationale rejette l’amendement permettant de créer un dépôt légal numérique. La BNF ne peut que moissonner les œuvres sur le web et les robots d’archivages risquent de ne pas voir les ouvrages protégés par des DRM …

Beck, Michel. – Qui veut la peau du livre numérique ?Numerama, 22/01/16

Beuve-Méry, Alain. – La résistible ascension du livre numérique. – Le Monde, 24/02/16

Un marché stable qui confirme la pratique d’un usage mixte. – Baromètre Sofia/SNE/SGDL, 16/03/16

Rodriguez, Joaquim. – Will Ebooks Ever Circulate Freely in Europe ?Publishing Perspectives, 22/03/16

Laugier, Edouard. – Le livre numérique, l’innovation dont personne ne veut vraiment. – Le Nouvel Économiste, 22/03/16

Hoang, Kristine. – AAP :Ebooks Sales Down 12.7 Percent.Digital Book World, 22/03/16

Solym, Clément. – L’intérêt pour le livre numérique décline, ou les prix  sont devenus moins attractifs ?Actualitté, 23/03/16

Oury, Antoine. – L’Association des Bibliothécaires de France favorable à un dépôt légal numérique. – Actualitté, 31/03/16

Bys, Christophe. – Les industries culturelles doivent se transformer plus vite que leurs clients se digitalisent. – Usine digitale, 04/04/16

Hugueny, Hervé. – Jean-Claude Junker redit son soutien à une TVA unique numérique/papier. – Livres Hebdo, 05/04/16

Woitier, Chloé. – L’industrie européenne du livre veut offrir une alternative à Amazon.Le Figaro, 07/04/16

Oury, Antoine. – La DRM LCP : grands enjeux, risques élevés. – Actualitté, 11/04/16

Berne, Xavier. – La TVA réduite pour les ebooks et la presse en ligne : une proposition législative fin 2016. – Next INPact, 11/04/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? II – L’exploration de contenus

text_mining_analytics_survey_softwareAprès la disposition permettant aux chercheurs de mettre gratuitement en ligne leurs publications réalisées dans le cadre de recherches sur fonds publics, nous allons examiner l’impact des amendements autorisant la fouille automatique de textes et de données (Text and Data Mining –TDM) sur le développement de la recherche.

Au départ cette mesure ne devait pas apparaître dans la loi ; en attendant une réglementation européenne sur la question, le Ministère de la Culture et de la Communication avait nommé une mission pour en faciliter le recours comme exception au droit d’auteur comme le signale Antoine Oury dans un article d’Actualitté. Les éditeurs, dans leur ensemble, étaient plutôt réticents à ouvrir leurs collections, même si certains grands acteurs, comme Elsevier ou Springer, accordaient des licences limitées aux chercheurs.

Le TDM : aspects juridique et technique

Que représente exactement ce traitement et qu’apporte-t-il à la recherche ? Une partie de la réponse se trouve dans la tribune parue dans le Monde le 7 mars dernier, signé par un grand nombre de chercheurs « Pour une science ouverte à tous ». Après avoir rappelé l’importance du libre accès des publications scientifiques, notamment dans l’archive ouverte HAL, les chercheurs invitent les sénateurs à voter l’article 18 bis en s’assurant que la fouille de données ne soit pas soumise à des négociations avec un tiers. « La fouille de données doit devenir un droit ».

L’article en faveur du TDM permettra donc « d’extraire de l’ensemble de la production scientifique mondiale de nouvelles connaissances grâce à l’exploitation automatisée, à l’aide d’algorithmes, de corpus désormais gigantesques. » Application-du-processus-de-fouille-de-donnees-dusage-du-web-sur-les-fichiers-logs-du-site-cubba16

Contrairement à d’autres pays (Etats-Unis, Royaume Uni), en France, les chercheurs n’étaient pas autorisés à pratiquer cette fouille de contenus de façon automatique et certains laboratoires étaient obligés de se rendre à l’étranger pour réaliser cette opération … ! Si certains éditeurs accordent des licences, celles-ci sont limitées (10 000 articles par semaine pour Elsevier sur la plateforme Science Direct). La Contribution de l’ABDU au CNNUM est très claire sur cette question : 10 000 articles/semaine cela peut paraître beaucoup, mais si l’hypothèse de recherche n’est pas validée au bout de X jeux de 10 000 articles de Science Direct, comment explorer les Y jeux nécessaires, et aussi sur d’autres bases de données ? Et ce, sans jamais pouvoir fouiller en une seule fois l’ensemble du corpus. De plus, Elsevier impose aux chercheurs de publier sous licence CC-BY-NC (pas d’utilisation commerciale) les extraits pertinents retenus en limitant leur longueur à 350 mots … Quant à Springer, il impose que chaque projet de TDM portant sur ses contenus soit décrit et enregistré via à un formulaire en ligne et se réserve le droit de décider si la demande est fondée … « Une ingérence inacceptable du point de vue de l’indépendance de la recherche ».

En effet, en procédant à ce traitement, les chercheurs n’ont pas comme objectif « la dissémination indue de ces contenus sous droit ou de leur exploitation commerciale ». Mais cette ‘lecture computationnelle’ implique la création d’une copie numérique du corpus à fouiller, ce qui soulève un problème de propriété intellectuelle. Il est évident qu’une solution doit être trouvée pour les ayants droit, d’autant que la plupart des chercheurs impliqués sont eux-mêmes des auteurs … !

Les éditeurs ont fait pression sur l’UE pour qu’une solution contractuelle soit priorisée par rapport à une révision du cadre juridique qui passerait par la création d’une nouvelle exception au droit d’auteur. C’est déjà le cas au Royaume Uni où la loi a consacré une nouvelle exception au droit d’auteur couvrant les ‘analyses computationnelles’ de contenus protégés, effectuées dans un cadre de recherche sans but lucratif, comme le souligne Calimaq dans un post de S.I.Lex sur l’exploration des données. C’est aussi la raison pour laquelle les chercheurs insistent sur la désignation d’un ‘tiers de confiance’, extérieur au milieu de l’édition commerciale, pour réaliser ces opérations. C’est ce que propose l’ABDU : une super base de données sur une plateforme publique pouvant « héberger tous les corpus du web visible et invisible aux seules fins d’en permettre la lecture algorithmique». Cette immense base de contenus constituerait une ‘base maître’ qui ne serait accessible et manipulable que par le tiers de confiance. Pour chaque demande de recherche, un ‘bac à sable’ serait constitué en copiant les corpus à partir de la ‘base maître’ ; cette copie serait détruite en ne conservant que les occurrences pertinentes, une fois les opérations de TDM terminées. Cela permet de répondre aux besoins des chercheurs tout en assurant la protection des ayants droit.

Le TDM comme service aux chercheurs text-mining

Dans les sciences dites ‘dures’ l’exploitation des données de la recherche est largement répandue et souvent effectuée par les chercheurs eux-mêmes ; c’est beaucoup moins le cas en sciences humaines et sociales (SHS) et dans les humanités où la formation aux outils numériques est moins répandue. Le traitement linguistique nécessaire à la fouille de texte est généralement confié à un service hybride de documentation et d’ingénierie linguistique. Frédérique Bordignon analyse ce service dans un récent billet du Carnet’IST. Cette ingénieure de recherche explique le fonctionnement d’un des outils nécessaire à la fouille automatique de textes RapidMiner et le service que ces spécialistes peuvent apporter aux chercheurs. Cette nouvelle activité pourrait s’imposer auprès des bibliothèques et des laboratoires de recherche, comme le Medialab à Sciences Po.

C’est cette activité de ‘data librarian’ qu’évoque Alexandre Tur dans un article de Catherine Muller sur le blog de l’ENSSIB. Ce conservateur de bibliothèque a effectué son stage au Canada dans le département de services aux chercheurs de la Quenn’s University de Kingston (Ontario). Il a travaillé surtout sur l’assistance à la gestion de données de la recherche auprès des chercheurs en humanités et à la promotion de l’open access dans l’université. text-mining _1

Alexandre Tur prend soin de distinguer les données scientifiques des données publiques qui sont proposées librement, les ‘open data’ (données ouvertes). Ces dernières proviennent généralement des Etats et des administrations publiques, en France c’est la Mission ETALAB qui les représente, (statistiques économiques, démographiques, géographiques, sociales et culturelles). Comme le souligne le Comité d’éthique du CNRS (COMETS) dans son avis du 7 mai 2015 sur les enjeux éthiques du partage des données, « Les politiques qui promeuvent l’ouverture des données publiques n’ont pas les mêmes objectifs que celles du partage des données scientifiques ». Si les données scientifiques produites sur fonds publics ont vocation à devenir publiques, les données publiques ont vocation à devenir scientifiques lorsqu’elles concernent l’environnement, la société ou la santé. Dans ces domaines, les questions éthiques doivent être évoquées lorsque ces données sont sensibles et relèvent de la vie privée.

Les bibliothèques de recherche représentent un partenaire ‘naturel’ pour héberger et gérer ces données. Comme l’explique William M. Cross dans son article du Library Journal : les bibliothèques vont se développer comme un ‘écosystème open data’. On va passer de l’idée d’infrastructure des données, centrée autour des revues scientifiques et des dépôts institutionnels à une ‘écologie des données de la recherche’. Cette  écologie implique une évolution dans plusieurs domaines, comme le développement de nouvelles normes autour de la validation des données de la recherche, de l’identification de la provenance des jeux de données et des nouveaux types de gestion et de propriété de ces données.

Les métadonnées deviennent centrales dans ce processus de transition entre le web documentaire et le web de données. Comme le dit Valérie Tesnières, citée dans « Gérer les données de la recherche », une formation de la TGIR Humanum, « L’enjeu est moins de produire des données que de les connecter les unes avec les autres […] Produire des métadonnées permet à la fois l’interopérabilité des données et à en assurer une meilleure pérennisation »

C’est ce que soutient aussi Gildas Ilien dans un récent article d’Archimag : de nouveaux formats doivent permettre d’adapter le catalogage à l’environnement web et numérique des bibliothèques. Cette « revanche des données » nous oblige à revenir à une sorte de catalogue pour s’y retrouver dans la jungle du numérique, même si l’usager n’a pas besoin de les voir … ! Seules les machines les traiteront. Ce retour aux sources (catalogage) implique néanmoins un changement de structures et de système : la transition bibliographique où la logique du document s’efface au profit de la logique de l’information.

Cette ‘révolution copernicienne’ dans la documentation  explique le slogan des chercheurs du LERU (Ligue des universités européennes de recherche) justifiant la fouille de textes et de données « The right to read is the right to mine » (Le droit de lire est le droit d’explorer).

llc_droit_d_auteur

Langlais, Pierre-Carl. - Text mining : vers un nouvel accord avec Elsevier. – Sciences communes, 29/10/14

Exploration des données : un environnement juridique en évolution. – S.I.Lex, 05/12/14

Consultation du Conseil national du numérique : contributions de l’ABDU.- ABDU, 02/15

Les enjeux éthiques du partage de données scientifiques : avis du COMETS. – CNRS, 07/05/15

Oury, Antoine. – Déclaration de la Haye : le copyright contre les connaissances. – Actualitté, 11/05/15

Naegelen, Pierre. – Données de la recherche : quel positionnement et quels rôles pour les bibliothèques ? – SCD Université Toulouse III Paul Sabatier, 15/06/15

LERU Statement : the right to read is the right to mine. – League of European Research Universities, 15/06/15

Demange, Julie. – Gérer les données de la recherche, de la création à l’interopérabilité (1/3). – Archives des mondes contemporains, 14/10/15

Fradin, Andrea. – Premier bug : la fouille automatique de données es adoptée.Rue89/L’Obs, 21/01/16

Oury, Antoine. – France : une mission pour faciliter la fouille et l’exploration de textes et de données. – Actualitté, 21/01/16

La circulation des données et du savoir. Projet de loi pour une République numérique adopté par l’Assemblée nationale en première lecture. – Assemblée nationale, 26/01/16

Cross, William M. – Libraries support data-sharing across the research lifecycle. – Librairy Journal, 01/02/16

Langlais, Pierre-Carl. – Text-mining : une licence nationale contre l’exception ? - Sciences communes, 19/02/16

Bordignon, Frédérique. – Le text-mining comme service aux chercheurs.CarnetIST, 05/03/16

Pour une science ouverte à tous. – Le Monde, 08/03/16

Ilien, Gildas. – Transition bibliographique : la revanche des données ?Archimag, 14/03/16

 

 

Libre accès et partage des données de la recherche … Vers une science ouverte ? I – Publications en libre accès

actu_edition-scientifique-passe,-present-et-perspectives_22_2000_2000_MAX_2b768Deux dispositions, adoptées dans le cadre du Projet de loi numérique vont sensiblement changer le travail des chercheurs en France. Elles concernent, d’une part la publication en libre accès d’articles scientifiques dans certaines conditions, d’autre part le traitement et la fouille automatique de données dans un corpus constitué.

Des parlementaires déterminés ont bravé l’opposition des éditeurs et même d’une partie du gouvernement pour faire passer certains amendements !

L’article 17 de la future loi pour une République numérique permet aux auteurs dont les travaux sont financés à hauteur de 50% sur fonds publics de mettre gratuitement en ligne leurs articles, au terme d’un délai maximum de de 6 mois après la première publication (12 mois pour les Humanités/SHS), même si l’auteur a accordé l’exclusivité à un éditeur ! Ce droit s’étend aussi à d’autres publications comme les actes de congrès et de colloques ainsi que les recueils de mélange. Les données associées aux articles sont aussi concernées. Comme le souligne Axelle Lemaire sur France Inter, citée par Actualitté « La recherche, si elle n’est pas ouverte, si elle n’est pas internationale, si elle n’est pas partagée avec la communauté des chercheurs la plus élargie possible, eh bien elle ne rayonne pas. Donc, moi je me pose la question : est-ce bien le gouvernement qui se veut le fossoyeur de la recherche en 2016, lorsqu’il cherche à étendre le périmètre d’influence des chercheurs, ou sont-ce les éditeurs ? »

En matière de données de la recherche, une série d’amendements a été adoptée en faveur de la fouille automatique de texte et de données (TDM, Text and Data Mining) contre l’avis du gouvernement et même du rapporteur ! Comme le fait remarquer Andrea Fradin dans son article sur l’Obs/Rue 89, malgré l’avènement du Big data et de ses outils de traitement, il était jusqu’alors impossible pour les chercheurs d’extraire automatiquement des mots ou des données d’un corpus de documents informatisés. Avec cet amendement, la France devance même l’UE en la matière, celle-ci n’ayant pas encore statué sur la question. Axelle Lemaire s’était d’ailleurs abritée derrière cet argument pour ne pas prendre parti, préconisant d’attendre la directive européenne …

Ces deux dispositions vont permettre à la recherche française d’être moins dépendante du lobby de l’édition scientifique. En effet, comme le rappelle Pierre Carl Langlais sur son blog Hôtel Wikipedia, « dans l’édition scientifique, les auteurs ne sont jamais payés (ils paient même pour être publiés) ».open-access-button_logo

Libre accès : voie verte, voie dorée … Ou en diamant !

La voie dorée, c’est la stratégie que certains éditeurs ont trouvé pour répondre au mouvement du libre accès (Open Access Initiative) lancé en 1996 : obliger les chercheurs à payer pour voir leurs travaux publiés … Et les lecteurs pourront y accéder gratuitement ! La ‘voie dorée’ (gold open access) se positionne par rapport à la ‘voie verte’ (green open access) en mettant en avant la qualité d’une édition scientifique professionnelle avec surtout la sélection et l’évaluation des articles par des spécialistes (‘peer review’). Tout n’est pas à condamner à priori dans ce modèle et certains auteurs y trouvent leur compte … Mais il existe des éditeurs qui sont de véritables prédateurs : c’est ce que démontre Jeffrey Beall, bibliothécaire chargé des publications en ligne et professeur associé à l’Université de Denver, Colorado dans une interview à Scholarly Kitchen. Contacté par de nombreux éditeurs ‘gold’, il s’est rendu compte, que pour certains « leur mission n’était pas de promouvoir et rendre disponibles les travaux de recherche mais plutôt d’exploiter le modèle de gold open access ‘auteurs-payants’ ». Pour lutter contre cette déviance et permettre aux chercheurs de choisir les revues pour leurs publications en connaissance de cause, Beall a publié une liste noire de ces éditeurs.

Les chercheurs déposent de plus en plus leurs travaux sur des plateformes de partage comme Academia.edu ou ResearchGate. Mais ces sites gratuits ne semblent pas présenter toutes les garanties de sécurité et de sérieux nécessaires à des publications scientifiques … 497671-rea-197588-011-580x310

Pour dépasser ces problèmes et les conflits d’intérêt qu’ils pourraient occasionner, le Comité des sciences sociales de Science Europe, propose une « voie de diamant », ou plutôt un ‘engagement de diamant comme le souligne Marin Dacos dans son post sur Blogo-numericus. Avec cet engagement les « productions scientifiques seront nativement numériques et nativement en accès ouvert, sans frais à payer pour l’auteur (APC : Articles Processing Fees) ». Pour cela les auteurs devront demander aux éditeurs l’autorisation de déposer leur publication dans une archive ouverte sous la forme de ‘postprint’ (version auteur acceptée et revue par les pairs avant correction et mise en page par l’éditeur). Les éditeurs gardent ainsi une certaine marge dans leurs publications. Marin Dacos regrette que ce dispositif ne concerne que les archives ouvertes, comme SPIRE de Sciences Po, et ne prend pas en compte les plateformes de publications comme Revues.org ou OpenEditionBooks. Sonia Livingstone, professeur en media et communication à London School of Economics (LSE), interviewé sur The Impact Blog, apprécie beaucoup la facilité et le professionnalisme des archives ouvertes et notamment LSE Rechearch Online, le dépôt institutionnel de la LSE. Elle y dépose toutes sortes de travaux : articles, mais aussi rapports de recherche, questionnaires, chapitres d’ouvrages, etc. La chercheuse préfère aussi déposer la version ‘postprint’, prête à être publiée. Et si ses articles sont encore sous paywall (embargo d’un ou deux ans) chez un éditeur commercial, les résultats d’une recherche sur Google Scholar affichent les PDF disponibles dans le dépôt de la LSE.

Martin Haspelmath a une autre vision pour cet engagement dans son post sur Free Science Blog ; il part d’abord d’un constat : le mouvement open access stagne. Malgré le fait qu’un sixième de toutes les publications est en libre accès, la majorité des abonnements (payants) est stable. Les experts en OA n’en cherchent pas la raison. Pourtant l’explication est simple, personne n’a envie que ça change : les éditeurs font des bénéfices avec leurs abonnements et les chercheurs ont besoin des éditeurs pour publier dans des revues prestigieuses pour leur carrière … ! Or les publications scientifiques ne sont pas un service qu’on peut déléguer à un prestataire extérieur (outsourcing), elles sont une partie intégrale du processus scientifique. Ce sont seulement quelques aspects techniques comme la mise en page ou l’hébergement qui peuvent sous-traités à des fournisseurs extérieurs. Ce que propose ce chercheur, c’est que les pouvoirs publics et les universités financent des éditions universitaires plutôt que d’arroser les maisons d’éditions commerciales. Chaque éditeur institutionnel pourrait créer un bouquet de revues prestigieuses et les financer comme on paye pour le personnel et les bâtiments de la recherche. Les lecteurs et les auteurs n’auraient rien à payer pour ces revues en accès libre ‘diamant’. Les financeurs tireront profit de ces investissements de la même façon qu’ils tirent profit de la recherche : en accroissant leur prestige !

Comme le souligne Sonia Livingstone, « tous les chercheurs doivent repenser leur attitude en matière de publications scientifiques … Je me réjouis de la lutte (encore incertaine) entre la propriété [intellectuelle] et l’accès au savoir ».

access-open-e1367915910684

Dacos, Marin. – Un engagement de diamant pour l’open access : position du Comité des sciences sociales de Science Europe. – Blogus numéricus, 18/08/15

Contribution de l’ABDU à la consultation nationale « Ambition sur le numérique » : TDM et open access. – ABDU, 09/15

Livingstone, Sonia. – Five minutes with Professor Sonia Livingstone on the benefits of open access and institutional repositories : entretien. – Impact of Social Sciences, 20/10/15

Lau-Suchet, Soliné. – Les enjeux de la science ouverte : retour sur les 6es journées « open access » (1/4) #OA. – Bulac, 23/10/15

« Open access » pour les revues scientifiques : il faut plusieurs modèles. – The Conversation, 10/11/15

Projet de loi pour une République numérique. – Assemblée nationale, 09/12/15

Report on Berlin 12 Open Access Conference. – Association of Research Libraries, 18/12/15

Haspelmath, Martin. - How to switch Quickly to diamond open access: the best journals are free for authors and readers – Free Science Blog, 28/12/15

Clavey, Martin. – Publications scientifiques : l’open access va entrer dans la loi. – Educpros, 09/12/15

Archives ouvertes et licences Creative Commons : des synergies à conforter. – S.I.Lex, 19/01/16

Mazin, Cécile. – Axelle Lemaire : Le gouvernement, fossoyeur de la recherche ou les éditeurs. – Actualitté, 20/01/16

Langlais, Pierre-Carl. – Vite, une loi pour garantir l’accès aux connaissances. - Hôtel Wikipédia – L’Obs-Rue 89, 20/01/16

La CPU et le CNRS demandent la libre diffusion des publications scientifiques et des fouilles de données à la mesure des enjeux scientifiques. – CNRS : communiqués de presse, 21/01/16

Academic social networks and Open Access: French Researchers at the Crossroads. – InfoDoc Microveille, 24/01/16

Esposito, Joseph. – An Interview with Jeffrey Beall. – Scholarly Kitchen, 08/02/16

 

 

Numérique : quelques prévisions pour 2016

mail-delivery-what-1900-french-artists-thought-the-year-200-would-be-likeRien de particulièrement révolutionnaire dans les différentes prédictions pour 2016. Les principales tendances amorcées ces dernières années se confirment : prépondérance des appareils mobiles, cloud et mégadonnées, automatisation et intelligence artificielle, notamment avec l’internet des objets et les villes connectées. On retrouve l’essentiel des prédictions tech/médias du rapport Deloitte pour 2015, cité par Barbara Chazelles dans Méta-média : abandon de la télévision par les jeunes au profit des vidéos sur mobiles et généralisation des paiements mobiles ; renouvellement des smartphones (phablettes) ; internet des objets, imprimantes 3D et drones (surtout pour les entreprises). En revanche, les e-books ne décollent toujours pas, le livre papier conservant la préférence des lecteurs !

objets-connectesLa sécurité des protocoles et des applications va devenir le grand défi dans le contexte des mégadonnées et de l’internet des objets comme le souligne Mike Martin, responsable de la société d’engineering internet Nfrastructure, dans l’interview accordée à ITBriefcase.

Au niveau de l’enseignement et de la formation, les Moocs et la formation en ligne et à distance investissent la formation professionnelle. L’intelligence artificielle pénètre aussi le champ de l’éducation avec la présence d’algorithmes qui vont intégrer l’école et l’Université pour évaluer la progression des apprenants tout en recueillant une quantité importante de données personnelles, comme l’évoque Audrey Watters dans The algorithmic future of education

1200px-france_in_xxi_century._school1Enfin, les représentations visuelles évoluent aussi, c’est ce que démontre la banque d’image Getty Image avec les tendances 2016 Creative in Focus, expliqué par Alice Pairo dans Méta-Média : 6 types d’images se profilent pour 2016 : l’outsider, le divin, l’homme augmenté, le disgracieux, la solitude et le surréalisme ….!

Bonnes fêtes et meilleurs voeux pour 2016 !

prédictions-1900-futur-e1365458441758

Chazelle, Barbara. – 10 prédictions tech/médias pour 2015 (Deloitte). – Méta-média, 04/02/15

Watters, Audrey. – The Algorithmic Future of Education. – Hackeducation, 22/10/15

IT Briefcase Exclusive Interview : Top IOT Trends and Predictions for Organizations in 2016. – IT Briefcase, 02/12/15

Pairo, Alice. – Social media : 10 tendances pour 2016. – Méta-média, 06/12/15

Les villes intelligentes connecteront 1,6 milliards d’objets communicants en 2016. – L’embarqué, 08/12/15

Économie du numérique : Axway dévoile 10 prévision pour 2016. – Axway, 08/12/15

Noirfontaine, Elisabeth. – L’internet des objets, allié des ressources humaines ou outil de déshumanisation du travail ?Usine digitale, 22/12/15

Larcher, Stéphane. – Google travaille sur une messagerie instantanée dopée à l’IA et aux chatbots. – L’informaticien, 23/12/15

Cavazza, Frédéric. – Mes 10 prédictions pour 2016. – FredCavazza, 23/12/15

Pairo, Alice. – 6 tendances visuelles pour 2016. – Méta-média, 23/12/15

Ezratty, Olivier. – Méta-prédictions pour 2016. – Opinions libres, 27/12/15

Environnement et numérique : opposition ou complémentarité. Le cas des « cleantechs »

logoCop21Apparus tous deux dans les années 1970, les enjeux de l’environnement et du numérique sont souvent associés dans les ruptures sociétales du 21e siècle (les premiers ‘geeks’ étaient souvent écolos), mais aussi opposés en raison de l’énorme consommation énergétique et des pollutions provoquées par l’usage des technologies de l’information et de la communication. L’empreinte écologique d’internet et des dispositifs numériques a notamment été interrogée et suspectée de participer au dérèglement climatique. Un certain nombre d’associations ont tiré le signal d’alarme et on assiste depuis quelque temps à des propositions de solutions ‘propres’ et responsables aussi bien de la part de grandes sociétés que de jeunes pousses, les ‘cleantechs’.

L’empreinte écologique : la consommation énergétique du numérique

L’internet pèserait 300 millions de tonnes de CO2 par an d’après le site Ecolo Info. Quant aux data centers, ils représenteraient à eux seuls près de 3% des 10% de l’électricité mondiale consommée par l’écosystème numérique d’après le blog de Completel. Comme l’a rappelé Axelle Lemaire lors de sa présentation des cleantechs ambassadrices à la COP21 le 30 novembre, les seuls mails du Ministère (Bercy) consomment l’équivalent de 14 allers-retours Paris-New-York !

On pourrait multiplier les chiffres, cela n’épuiserait pas le sujet …. C’est ce qu’explique Hubert Guillaud dans son dernier post : si la consommation énergétique d’internet s’est sensiblement réduite depuis quelques années, l’augmentation des utilisateurs du réseau et surtout la consommation croissante d’énergie par chacun (multiplication des appareils mobiles, même s’ils consomment moins que les fixes) augmente la consommation énergétique globale, surtout en raison de la consommation de données distantes et particulièrement de vidéos.

Ce qu’il faudrait c’est une « limitation de vitesse » sur internet comme sur l’autoroute … Le réseau des réseaux serait peut-être un peu moins performant mais plus durable dans une économie décarbonnée ! Si les géants du Net (Apple, Facebook, Google) font des efforts pour utiliser des énergies renouvelables dans leurs data centers, comme le reconnaît Greenpeace, cité par Guillaume Serries dans son article sur ZDNet, Microsoft est obligé d’admettre, en revanche, que « sa neutralité carbone », réalisée depuis 2012, est remise en question par la croissance des services de cloud …empreinte-ecologique-avenir-investir

Ces grandes infrastructures (data centers, cloud) ne sont pas les seules en cause dans la surconsommation d’énergie : tous les appareils en mode ‘veille’ sont également impliqués. En outre, de plus en plus d’équipements domestiques et industriels doivent rester en permanence en fonctionnement : ordinateurs de bureau, serveurs, routeurs, caméras de surveillance …

L’empreinte écologique : les pollutions chimique et électronique

Notre communication quotidienne ne pourrait pas se réaliser sans le concours de matériaux toxiques indispensables (jusqu’à présent) à la fabrication des appareils mobiles, notamment pour les batteries : les ‘terres rares’ ou lanthanides. Comme le souligne l’article de Géo : « l’extraction et le traitement des terres rares polluent et produisent des déchets toxiques ». Et évidemment, cette extraction se passe souvent dans les pays du Sud et dans des conditions souvent indignes : « en Mongolie intérieure, la radioactivité mesurée dans les villages près de la mine de Baotou serait 32 fois supérieure à la normale (contre 14 fois à Tchernobyl) » !

Une solution serait le recyclage des déchets électroniques pour répondre à la demande croissante de terres rares. Mais là aussi, ce n’est pas toujours le comportement responsable qui prévaut dans cette industrie. Le recyclage des ‘Déchets d’équipements électriques et électroniques’ ou D3E est très contrôlé et encadré en France et en Europe, comme l’explique la FAQ de Future Arte, mais il existe un trafic international d’exportations illégales de déchets électroniques où les conditions de travail et d’exploitation de matériaux échappent à toute réglementation … !

Un peu plus controversé, l’effet nocif des ondes électromagnétiques. Des cas de personnes électrohypersensibles ont été reconnus, dus à l’intolérance aux ondes électromagnétiques provenant des équipements de téléphonie mobile dans l’environnement. Même si l’Agence nationale de sécurité sanitaire de l’environnement française (ANSES) estime que les données scientifiques ne montrent pas d’’effet avéré’ des ondes sur la santé, elle préconise néanmoins un certain nombre de précautions aux personnes hypersensibles, les effets à long terme étant encore inconnus (article de TVinfo). En revanche, les associations comme EHS-MCS préconisent une totale isolation du système numérique aux personnes électrohypersensibles !

Le numérique au secours des dérèglements climatiques : désinvestissement des énergies fossiles et investissement dans l’économie décarbonnéecampaign_di_0

Tous les jours, de grandes entreprises, des institutions et des collectivités locales abandonnent les énergies fossiles pour investir dans l’énergie propre. Lors de la présentation Cleantech, Pascal Canfin évoque $ 500 milliards d’investissement public et privé dans des projets qui contribuent à la décarbonisation de l’économie.

De grands patrons de multinationales dont plusieurs du secteur numérique (Bill Gates de Microsoft, Jeff Bezos d’Amazon, Marc Zuckerberg de Facebook, Xavier Niel de Free, Jack Ma d’Alibaba, etc.) ont fondé l’initiative « Breakthrough energy coalition » qui a pour objectif est d’investir dans les technologies d’énergie propre en misant sur les entreprises émergentes.

Ces initiatives sont révélatrices de l’émergence d’une disruption dans l’industrie et l’économie mondiale. Pascal Canfin a comparé la situation actuelle à celle de l’Europe à la veille de la Première guerre mondiale : dans les années 1900, Paris était envahi par le crottin de cheval qui représentait une véritable pollution à l’époque … Le développement de l’automobile pendant la guerre de 14 a fait disparaître ce problème (tout en créant un autre). Pour parvenir à une économie décarbonnée, neutre en carbone en 2060, il n’y a pas d’autre moyen que la jonction de l’économie verte et de l’économie numérique. En 2006, Nicolas Stern, chef du service économique britannique, a présenté dans un rapport indépendant (Stern Review) le caractère inéluctable du changement climatique et analysé ses coûts et conséquences sur la croissance et le développement. Cet économiste, qui est à présent le vice-président de la Banque Mondiale, a démontré que si on n’apportait pas de solutions durables à ce problème, le changement climatique risquait de coûter plus cher à l’économie mondiale … !

La COP21 représente une partie de ce défi (politique mondiale), mais il faut aussi que des entrepreneurs le relèvent aussi. L’économie contemporaine finance encore trop de projets avec l’énergie fossile …

L’innovation au service du climat : la recherche-développement des ‘cleantechs’

climate-solutions-idea-bulb-lead-972x514Comme l’a souligné Axelle Lemaire, il y a urgence à apporter des solutions par l’innovation. C’est pourquoi la French Tech se met au vert. Le numérique est devenu une transition nécessaire dans la transition écologique.

Des géants industriels aussi bien que des universités et des centres de recherche ont fait le pari de l’innovation en soutenant des jeunes pousses.

Au côté de grands groupes, les organismes de recherche participent à une exposition au Grand Palais pour présenter au public l’action des scientifiques sur la question climatique à l’occasion de la COP21. Les chercheurs partagent leurs connaissances avec les visiteurs et présentent des solutions pour lutter et s’adapter au changement climatique. L’INRIA, représentant la recherche en informatique et automatique, est partie prenante de plusieurs projets (énergie alternative, recyclage des déchets, transport, ville intelligente).

Au niveau des entreprises innovantes, les start-ups ‘greentech’ ont l’avantage d’être agiles et participatives. Sur les 21 start-ups sélectionnées pour être les ambassadrices à la COP21, 13 ont été choisies par le public. Le contenu des solutions numériques est aussi transversal et transdisciplinaire. Certaines solutions permettent le suivi précis et prédictif des consommations d’énergie. L’intelligence des mégadonnées permet de créer des ‘smart data’, notamment avec des objets connectés et de promouvoir de nouveaux usages, comme l’application Plume Labs. Créée par une équipe de jeunes ingénieurs pour démocratiser l’accès à l’information concernant la qualité de l’air urbain, cette start-up française permet aux utilisateurs de suivre, prédire et réduire leur exposition à la pollution de l’air !

Ces jeunes pousses s’appuient aussi bien sur la participation du public que sur un partenariat industriel public et privé. Ces initiatives ne sont qu’un premier pas dans un cercle vertueux qui devrait amener à une prochaine révolution industrielle. C’est le thème du Forum de l’OCDE qui doit se tenir à Paris les 14 et 15 décembre 2015.

nasa-climate-change-projection

 

HM Treasury – Cabinet Office. – Stern Review on the Economics of Climate Change. – The National Archives, [2006]. Pdf.

Rapport Stern : coût des changements climatiques.Réseau Action Climat France, 12/10/06

Manach, Jean-Marc. – Ecologie : le numérique fait partie de la solution, pas du problème. – InternetActu, 14/04/09

Livre ou Ipad ?Carbone 4, 2012 [Métro, 03/03/11]

La Porte, Xavier de. – Energie, pollution et internet. – InternetActu, 01/10/12

Flipo, Fabrice ; Dobré, Michèle ; Michot, Manon. – La face cachée du numérique : l’impact environnemental des nouvelles technologies. – Paris, L’Echappée, 2013

Weiler, Nolwlenn. – Cette empreinte écologique que les consommateurs ont bien du mal à voir.Bastamag, 20/01/14

Le numérique c’est plus écologique ? Kaizen, 22/04/14

Paris désinvestit des énergies fossiles. Maison de la Chimie, 1er Septembre 2015. – European Greens.

Redefining industrial revolution : OECD 2015 Green Growth and Sustainable Development Forum (14-15 December 2015, Paris). – OECD Insights, 07/11/15

21 start-ups des cleantechs ambassadrices de la French Tech à la COP21 : le concours du 12 au 27 novembre 2015/ Sous le haut patronage du Ministère de l’Economie, de l’industrie et du Numérique. – Dossier de presse pdf.

Serries, Guillaume. – COP21 : quid de l’impact des data centers ? ZDNet, 27/11/15

COP21 : La recherche se mobilise pour le climat. Solutions Cop21, Paris 2015. – Ministère de l’Enseignement supérieur et de la recherche, 27/11/15

Breackthrough Energy coalition. – [28 November 2015]

Dolan, Kerry A. – Bill Gates, Mark Zuckerberg & more than 20 other billionaires launch coalition to invest in clean energy. – Forbes, 29/11/15

Jost, Clémence. – COP21 : nos pratiques numériques sont-elles écologiques ? Archimag, 30/11/15

Guillaud, Hubert. – Avons-nous besoin d’une vitesse limitée sur l’internet ?InternetActu, 01/12/15

.

Quel prêt pour le livre numérique ? La controverse autour du projet PNB

Des-écrits-aux-écrans1Un an après l’ouverture au public du premier dispositif de prêt numérique dans les bibliothèques publiques (Projet PNB), une polémique divise les bibliothécaires, notamment après la mise en service de ce prêt dans les bibliothèques de la Ville de Paris le 13 octobre.

Le Collectif SavoirsCom1 a même appelé à bloquer le système en téléchargeant des fichiers de livres disponibles jusqu’à épuisement avec le mot d’ordre « chasse aux jetons ». Pour ce groupe de bibliothécaires, chercheurs et juristes, ce modèle est inabordable pour des budgets publics et surtout l’implantation de DRM (verrous numériques) dans les fichiers des e-books va à l’encontre de la philosophie des communs communs – célébré la même semaine par les bibliothèques de Paris avec le Festival Numok pendant « Le Temps des communs ». La CGT Culture de la Ville de Paris soutient aussi l’action du Collectif en dénonçant « l’indigence du système comme du modèle ». Le livre numérique coûte plus cher à la bibliothèque que le livre papier (jusqu’à trois ou quatre fois), et de plus, il s’agit d’une licence et non d’une acquisition définitive. Cette licence est limitée dans le temps (6 ans pour la Ville de Paris) et en nombre d’emprunts simultanés (30 maximum). Ensuite la bibliothèque est obligée de racheter un exemplaire … Le syndicat appelle à « un autre rapport de force avec les éditeurs et à un droit de prêt similaire au droit du livre papier sans contrainte de durée et de nombre de prêt ».

Le Réseau Carel avait alerté dès 2013 sur le coût élevé de l’acquisition au titre et sur le choix de la licence à la place de l’achat définitif dans le projet PNB. Les budgets des bibliothèques n’y résisteraient pas et ces dernières perdraient leur rôle patrimonial en n’étant plus propriétaires des collections.

De son côté, l’ABF (Association des bibliothécaires de France) s’est inquiétée dans un communiqué « du manque de transparence de l’expérimentation PNB, et à part quelques retours, d’aucune évaluation de ce service un an après sa mise en œuvre ». L’ABF rappelle aussi que ce dispositif entre en contradiction avec les accords interprofessionnels du 8 décembre 2014 « qui appelle à la diversité des modèles du livre numérique en bibliothèque ». Le PNB risque aussi de provoquer une fracture territoriale dans la mesure où ce sont de très grandes collectivités (Montpellier, Grenoble, Paris), disposant de suffisamment de ressources financières, qui mettent en œuvre ce service. Le PNB crée donc « une inégalité d’accès à la lecture sur l’ensemble du territoire français ». De plus, la complexité du modèle avec les DRM rend difficile d’accès à ce service une grande partie des usagers qui ne sont pas à l’aise avec le numérique. Cette exclusion entre en contradiction avec les principes fondamentaux de la charte BibLib. L’ABF demande enfin au Ministère de la Culture de « diligenter une véritable étude indépendante qui puisse faire le point sur cette année d’évaluation ».

Comble d’incompréhension, des bibliothécaires parisien(ne)s qui ont pris l’initiative de relayer ce communiqué sur twitter ont été sommés de retirer immédiatement leurs twits par le Bureau des bibliothèques (BBL) rattaché au cabinet de Bruno Julliard … ! Le travail de veille des professionnels se voit ainsi censuré ! Même si le BBL est revenu ensuite sur sa décision

Comment en est-on arrivé là ? A la différence des BU, les bibliothèques publiques ne disposaient pas véritablement de prêt de e-books, exceptées quelques expériences de prêt de liseuses. 6a00d8342e8a5353ef01b8d120387c970c

La première vague d’initiative remonte à 2011 pour la phase de prospection et de concertation. Le projet PNB regroupant les établissements de Montpellier, Grenoble, Aulnay-Sous-Bois et Levallois s’est ouvert au public à l’automne 2014. Il intervient dans un contexte où seules 4% des grandes bibliothèques disposent d’un service de prêt d’e-books malgré la multiplication des distributeurs (Bibliovox, Lekti, Numilog, l’Harmatèque, etc.).

L’originalité du modèle PNB – projet interprofessionnel soutenu par le CNL – réside dans l’existence d’une interface réalisée par l’opérateur Dilicom qui permet l’articulation entre les différents acteurs : éditeurs et diffuseurs (catalogue de livres) ; libraires (offres des distributeurs aux collectivités) ; bibliothèques et usagers. Les livres peuvent être téléchargés ou lus en ligne (streaming).

La chaîne de gestion du prêt numérique prend en charge l’ensemble des étapes nécessaires au fonctionnement du service. Chaque collectivité établit les partenariats qui lui conviennent ; Montpellier, par exemple, avec la librairie Sautemps, le logiciel Archimed et le prestataire ePagine. L’objectif est de préserver et de stabiliser la place des libraires.

Des expériences semblables ont lieu dans le monde. Au niveau francophone, le Québec et la Belgique ont adopté le même modèle, avec la participation de librairies agrées. En 2014, le système québécois pretnumerique.ca a enregistré près d’un million d’emprunt avec une moyenne de 20 000 prêt par mois. La licence fonctionne comme pour le prêt papier : 1 copie = 1 utilisateur (pas de prêt simultané) ce qui rend l’exemplaire emprunté immédiatement indisponible pour les autres lecteurs ! Là aussi, les e-books empruntés sont chrono-dégradables, ils s’effacent automatiquement à la fin de la période de prêt ; chaque copie peut être empruntée 55 fois, ensuite il faut acquérir un nouvel exemplaire. Jean-François Cusson, responsable du service, reconnait qu’il peut paraître absurde d’introduire la notion d’exemplaire dans l’univers numérique, mais pour des raisons pragmatiques, les bibliothèques ont préféré utiliser les systèmes de diffusion existants …
En Belgique francophone, un consortium de bibliothèques a rejoint le dispositif PNB.

Aux Etats-Unis et au Canada anglophone, les bibliothèques s’adressent directement aux plateformes de distribution commerciales sans passer par la médiation des libraires. home-big-image-220772a036b791a8c8cd39132d932b2a

La présence des libraires dans le dispositif PNB est un des principaux arguments utilisés dans la réponse à l’offensive de SavoirsCom1. Grâce à leur médiation, les bibliothèques ne se font pas cannibaliser par les acteurs commerciaux du Net (Google, Amazon) qui proposent des abonnements à la Netflix au consommateur-lecteur … Et concurrencent le service public !

Laurent Soual, bibliothécaire consultant, rappelle dans une tribune sur Actualitté, que c’est l’avenir des bibliothèques qui est en jeu : ce sont « les seules institutions légitimes pour proposer un service de prêt numérique aux usagers. Si ce service n’est pas efficient, elles perdront toute légitimité aux yeux des décideurs et des élus pour continuer à proposer leurs services traditionnels ou pour en proposer de nouveaux » !

Les bibliothécaires des établissements qui ont expérimenté le projet PNB ont posté une réponse collective aux critiques de SavoirsCom1 et de l’ABF : coût élevé du système et des livres numériques, utilisation des DRM et complexité du dispositif, service réservé aux grandes bibliothèques, offre de livres numériques restreinte, etc… Les bibliothécaires expérimentateurs explicitent leurs choix en soulignant qu’une évaluation est prévue au bout de deux ans et la plupart des bibliothèques sont à moins d’un an d’expérience.Le Collectif SavoirsCom1 s’est empressé d’y répondre avec Dix idées reçues pour prolonger le débat sur PNB et le prêt numérique ….

Après les bibliothécaires et les lecteurs, ce sont à présent les auteurs qui se sentent floués par le PNB. Dans le prêt numérique, l’auteur touche une part sur le prix du livre, mais ne touche aucune compensation pour le prêt, alors qu’un e-book peut être emprunté entre 20 et 40 fois ! Ce manque de compensation touche aussi les éditeurs. Même si la rémunération est supérieure à celle du livre imprimé, cette offre va permettre des usages défavorables à toute la chaîne du livre.

Affaire à suivre …

Mazin, Cécile. – Des e-books en bibliothèque, certes, mais à certaines conditions.Actualitté, 09/10/13

Oury, Antoine. – Première approche de PNB pour les bibliothécaires français. – Actualitté, 11/08/14

Bibliothèque de Grenoble : ouverture de Bibook, l’offre de livres numériques PNB . – Aldus, 08/09/14

PNB ou le livre numérique inabordable pour les bibliothèques. - SavoirsCom1, 12/2014

Des livres numériques : où je veux, quand je veux ! - Paris.fr Bibliothèques, 14/10/15

Mercier, Sylvère. – Prêt numérique en bibliothèque : critique constructive d’un modèle inadapté. – SavoirsCom1, 10/2015

Collectif SavoirsCom1. – Prêter des livres numériques comme des livres papier : une fausse évidence. – Rue 89, 15/10/15

L’ABF alerte sur le sur dispositif Prêt numérique en Bibliothèque. – ABF, 16/10/15

Les critiques contre les conditions de prêt numérique en bibliothèque (PNB) rendent fou Bruno Julliard. – Social Nec Mergitur, 19/10/15

Bibliothèques : le prêt numérique en question en France. – Aldus, 19/10/15

Ne serait-il pas dommage de refuser sa chance au projet PNB ?Actualitté, 21/10/15

Soual, Laurent. - Prêt numérique en bibliothèque n’est pas le TGV Lyon-Turin. – Actualitté, 22/10/15

Oury, Antoine. – PNB : la rémunération des auteurs reste problématique. – Actualitté, 23/10/15

Dix idées reçues sur le débat sur PNB et le prêt numérique. – SavoirsCom1, 10/2015

 

Le « Meilleur des mondes » des GAFA : l’intelligence artificielle et les biotechnologies aux commandes des « Big companies » du Net

1cf44d7975e6c86cffa70cae95b5fbb2-2Les GAFA (Google Apple Facebook Amazon) – que l’on devrait désormais appeler AAFA, Google, le moteur de recherche historique n’étant plus qu’un département de l’entité Alphabet qui couvre plusieurs champs de recherche – misent de plus en plus sur l’intelligence artificielle et les sciences et technologies de la santé dans leur course à l’hégémonie sur la toile …

Si XLab, labo de recherche  de Google a déjà lancé la Google Car (voiture autonome) et les Google Glasses (lunettes de réalité augmentée), d’après 01Net « M », l’assistant personnel de Facebook nous promet de trouver le cadeau idéal pour nos ‘amis’ en utilisant les millions de données personnelles que le réseau social recueille (à leur insu souvent …) sur le web. Avec un milliard d’utilisateurs, c’est un jeu d’enfant !

Mais, qu’il s’agisse de mégadonnées (big data) ou d’intelligence artificielle, on reste encore dans l’informatique, or les Géants du net ont voulu se diversifier dans un domaine qui va prendre de plus en plus d’importance au 21e siècle : la santé et les biotechnologies. C’est Bill Gates, l’ancien patron de Microsoft qui s’est lancé le premier avec sa fondation contre le paludisme.

Comme l’explique Olivier Ertzscheid dans Rue 89, Le Web 4.0 sera celui du génome : on est passé du web 1.0 qui a permis d’indexer des documents et de les rechercher (moteurs de recherche) au web 2.0, le web social qui recense les profils sur les réseaux sociaux ; avec le web 3.0 on passe aux objets connectés et au World Wide Wear « où le corps devient une interface comme les autres ». Après cela, après les plateformes de l’’économie du partage’ qui concurrencent de plus en plus de secteurs traditionnels, que reste-il à indexer ? L’ADN. C’est ce champ que les big companies vont investir pour créer le « web généticiel ». Olivier Ertzschied cite une étude du MIT l’Internet de l’ADN « dont l’objectif est de documenter chaque variation de chaque gène humain et de déterminer quelles sont les conséquences de ces différences ». Il évoque ainsi la possibilité « de structurer une économie de ‘servicialisation’ du vivant ». Dans cette bio-économie, Google est, bien sûr, très présent. Mais pour le moment, en dehors des délires transhumanistes du gourou Ray Kurtzweil, fondateur de la Singularity University, dont le modeste objectif est de « vaincre la mort », la société de biotech Calico du groupe Alphabet, pose ses jalons. Elle vient de s’allier avec les laboratoires français SANOFI pour travailler sur le traitement du diabète ; la société de biotechnologie avait déjà réalisé un partenariat avec la firme de santé Dexcom sur des minuscules capteurs permettant de mesurer le taux de glucose dans le sang et Google X avec Novartis pour des lentilles de contact connectées pour le même objectif, mais là à partir des larmes … !090422165949

Les autres grands acteurs du net s’investissent aussi dans d’autres secteurs comme les plateformes de services ou les objets connectés. « Amazon Home Services » connecte l’internaute à des professionnels de services à domicile, du plombier au professeur de yoga comme l’indique Charlotte Volta dans un post de l’Atelier, tandis que le Pentagone s’allie à Apple pour créer des objets connectés militaires (article du Monde Informatique).
Google se retrouve évidemment dans ce genre de plateformes, la société prévoit même de lancer sa propre place de marché permettant de connecter les internautes avec les fournisseurs de services directement, à partir de la page de résultats ! Quant aux TICE et à l’éducation en ligne, Google a déjà sa plateforme, cf post de Frédéric Lardinois sur Techcrunch, et propose son école en ligne devançant toutes les réformes des éducations nationales ! Toujours au niveau de l’éducation, Amazon fournit désormais les manuels scolaires aux écoles de New York pour une période de trois ans. Mais, comme le souligne l’article d’Actualitté, les e-books comportent des DRM qui les rendent impossibles à utiliser pour les malvoyants …

Mais les géants du Net ne sont pas tous américains … Alibaba, la star montante chinoise investit aussi dans l’intelligence artificielle pour traiter les big data. C’est ce qu’explique Guillaume Périssat dans l’Informaticien : la société « vient d’ouvrir une plateforme cloud dédiée à l’analyse de grands volumes de données, mêlant deep learning, machine learning et analyse prédictive avec une puissance de calcul inégalée et une ergonomie à toute épreuve ».000010180_imageArticlePrincipaleLarge

Devant toutes ces initiatives, notamment dans les secteurs de la santé et de l’éducation, on peut se poser la question : quid des États et des institutions internationales ? Or, comme le souligne le chirurgien Laurent Alexandre, cité par Hervé le Crosnier, invité des Matins d’été sur France Culture « Google et les autres géants du net sont plus puissants que les Etats. Quel Etat peut investir un milliard de dollars dans la recherche ? Pourtant, il est de la responsabilité du politique d’investir dans les nouvelles technologies ». Or comme rappelle Hervé le Crosnier, « un milliard c’est ce que Google doit au fisc français … ». Ces activités donnent un pouvoir énorme à ces entreprises : les algorithmes mis en œuvre permettent de comprendre beaucoup de choses à partir des données personnelles et à agir. Grâce à l’intelligence artificielle et au ‘deep learning’, ils peuvent non seulement classifier et interpréter les données recueillies, mais aussi analyser les émotions (ex : reconnaissance faciale des photos dans Facebook) et ainsi définir les « besoins » des utilisateurs. Des chercheurs de Cambridge assurent dans une étude pouvoir déduire l’âge, le genre, la religion et l’opinion politique des utilisateurs à partir des seuls « like » du réseau social … !

D’autre part, lorsque l’ont fait une recherche sur Google, le ‘Page rank’, l’algorithme du moteur de recherche, va sélectionner sur l’ensemble des résultats ceux qui correspondent le plus à l’utilisateur : à partir des recherches précédentes mais aussi de la géolocalisation (programmes du cinéma d’à côté, par ex.). Cet algorithme représente le modèle que Google se fait de ce que nous sommes. On arrive ici à la limite de la personnalisation.

Comme l’exprime Henri Verdier dans son blog, « C’est le réel lui-même qui est retranscrit en données, qui est analysé à un nouveau niveau de granularité ». Le ‘quantified self’, ce ‘moi quantifié’ peut traduire, à travers les mesures des objets connectés de bien-être (bracelets, vêtements), soit « un désir de maitrise de son propre destin, de connaissance de soi, soit une menace sur la vie privée […] la pénétration de l’empire du management dans la sphère la plus intime du corps ».

Comme le rappelle Sophie Coisne, rédactrice en chef de La Recherche, la médecine personnalisée, si elle peut apporter des réponses appropriées dans des cas très précis, peut aussi représenter un grand danger, par exemple dans le cas des médicaments adaptés à chacun, car on n’a plus aucun contrôle sur les données … Cela implique des protocoles de recherche qui coûtent des millions, un pur fantasme !

Il faut réfléchir à la question : « Qui fixe les buts ? La machine ou les humains ? » « Deviendrons-nous les ‘entrepreneurs’ de nos données, ou serons-nous progressivement enserrés dans des étaux, asservis voire ‘marchandisés’ » (Henri Verdier) ?

Il existe néanmoins des projets institutionnels dans ces technologies de pointe. L’Union européenne, à travers son programme H2020 présente 17 projets de robotique (robots industriels, bras articulés, humanoïdes de compagnie) impliquant de l’intelligence artificielle et des éléments de cognitique.

Il en est de même en France dans le cadre du Commissariat général à la Stratégie et à la Prospective qui a produit l’étude « La dynamique d’internet : Prospective 2030 ».

A la différence de ceux des Gafa, ces projets prennent en compte les contraintes juridiques liées aux données personnelles, du moins on peut l’espérer …

objets-connectes

France ; Premier Ministre ; Commissariat général à la stratégie et à la prospective. – La dynamique d’internet : Prospective 2030. – Études n°1, 2013. via Slideshare.

L’intelligence artificielle, le nouveau dada de Google. – ITespresso, 24/10/14

Bazin, Amélie ; Pacary, Jade ; Jean, Camille. – La lovotique : vers des machines reconnaissant les émotions ?Culturenum, 03/12/14 (U. de Caen – notes de synthèses par les étudiant(e)s).

Regalado, Antonio. – Internet of DNA. – MIT Technology Review, 2015.

European Commission ; CORDIS. – Robotics gets celebrated with 17 new projects under H2020.Cordis.europa, 27/01/15

Intelligence artificielle : jusqu’où iront les réseaux sociaux ?La Recherche, avril 2015

Voltat, Charlotte. – Quand les géants du Net s’attaquent à l’industrie du service.L’Atelier, 30/04/15

Ertzscheid, Olivier. – Le web 4.0 sera celui du génome, et il y a de quoi flipper. – Rue 89-L’Obs, 07/03/15

Belfort, Guillaume. – Google signe avec Novartis pour des lentilles de contact connectées. – Clubic, 15/07/15

Intelligence artificielle, transhumanisme : quel futur les GAFA nous préparent-ils ? – Avec Sophie Coisne et Hervé Le Crosnier. – Les matins d’été – France Culture, 19/08/15

Lardinois, Frédéric. – Google classroom gets an update ahead of new school year. – Techcrunch, 24/08/15

Périssat, Guillaume. – Alibaba lance une offre de service en intelligence artificielle destinée au Big Data. – L’informaticien, 25/08/15

Gary, Nicolas. – New-York signe avec Amazon, aveugle aux problème de lecture ? - Actualitté, 27/08/15

Facebook annonce « M », un assistant personnel intégré à la messagerie.01Net, 28/08/15

Filippone, Dominique. – Le Pentagone s’allie avec Apple pour créer des objets connectés militaires.Le Monde informatique, 28/08/15

Le Quantified self, pivot de la révolution des données. – Henri Verdier Blog, 30/08/15

Dove, Jackie. – Google Life Sciences teams up withe Sanofi to,take down diabetes. – The Next Web, 01/09/15

Fredouelle, Aude. – Quels sont les projets connus de Google X ?Journal du Net, 02/09/15


Loi numérique : quelle ambition pour la France ?

formationnumerique2En attendant le Projet de loi sur le numérique prévu pour la rentrée, Manuel Valls a présenté le 18 juin 2015 la stratégie numérique du gouvernement qui s’appuie sur le Rapport du Centre National du Numérique (CNNum) « Ambition numérique », synthèse de la concertation lancée en octobre 2014.

Comme le souligne la chercheuse Francesca Musini dans son interview sur la Commission parlementaire sur le numérique « Jusqu’à présent les parlements ont plutôt légiféré de façon réactive par rapport au numérique, sur des questions spécifiques. C’est une bonne idée d’essayer de faire autrement, d’avoir une réflexion sur le long terme. »

Le gouvernement a avancé 14 mesures qui reprennent plus ou moins les 70 propositions du rapport Ambition numérique (4 thèmes et 70 propositions ayant impliqué la participation de 5000 personnes et de près de 18 000 contributions en ligne … !)

Alors que les programmes précédents se limitaient souvent au champ économique ou à la propriété intellectuelle comme la LCEN (Loi pour la confiance en l’économie numérique) en 2004 et la HADOPI (Loi favorisant la diffusion et la protection de la création sur internet) en 2009, le projet de loi numérique 2015 envisage tous les domaines touchés par le numérique. Comme l’affirme Benoît Thieulin, Président du Conseil national du numérique dans la préface du rapport « plusieurs numériques sont possibles et il est temps de construire un numérique européen, plus politique, plus conforme aux promesses d’’empouvoirement’ comme à celles des pères fondateurs. Il revient à la France et à l’Europe de définir ce numérique et de mettre en place des
politiques publiques pour le construire. »

Politique et gouvernance de l’internet
Pour Axelle Lemaire, interviewée dans Le Monde, « la France ne peut pas « se permettre d’être passive dans cette révolution, nous devons mettre la barre le plus haut possible et imprimer le changement partout pour moderniser l’action publique ». »

– inscription de la neutralité du net dans la loi « Je souhaite inscrire dans la loi une définition claire de la neutralité du Net qui assure à tous un même accès aux réseaux à tous les opérateurs » Manuel Valls, Gaité Lyrique, 18/06/15.

– ouverture des données publiques déjà entamée avec Etalab. Instauration d’une administration générale des données. En 2016, la France prendra la présidence du « Partenariat pour un gouvernement ouvert » (Open Governement Partnership).

– instauration d’une « Charte des droits du citoyen et du numérique » avec le Conseil de l’Europe.

– création d’un « État plateforme » avec des API (interface de programmation d’application) pour interroger les bases de données de l’État et créer de nouveaux services

Économie : croissance, innovation, disruption
Intégrer les nouveaux paradigmes : rapidité de croissance, concurrence internationale et innovation sous toutes ses formes. Accélérer la transformation numérique des entreprises et fluidifier leurs relations : charte entre grands groupes et start-upsAxelle Lemaire :« Montrer que la France est un pays attractif, que nous y innovons, que nos entreprises décrochent des contrats ».

- A l’international : soutenir la montée en puissance de la « French Tech », rencontre entre start-ups et grands financeurs, mais aussi accompagner la révolution technologique des pays du Sud.

– Promouvoir une « économie de la donnée » avec la création de « données d’intérêt général » dans des secteurs clés : transport, santé, énergie et tourisme

– encourager la coopération entre entreprises traditionnelles et start-ups et la transition numérique pour les TPE et PME avec des services numériques pour chaque filière

Cependant, l’innovation numérique dans l’économie fera aussi l’objet d’une loi « Macron 2″ au second semestre comme le révèle la Lettre de l’Audiovisuel du 21/07.

Médiation numérique et protection de l’utilisateur

– Renforcer la médiation numérique pour accompagner son usage pour les particuliers

– Inspection par les services de la concurrence des « conditions générales d’utilisation » sur grands sites opérant en France

– modification de la loi sur les données personnelles ; possibilité de transporter ses données d’un service à un autre

– Régulation des plateformes pour protéger les utilisateurs sans brider l’innovation

Enseignement et recherche

– Favoriser une science ouverte par la libre diffusion des publications et des données de la recherche

– Mise en place de « la grande école du numérique »  : labellisation des formations centrées sur le numérique (universités, collectivités, associations)

– Déploiement du plan numérique pour l’éducation : 200 collèges pilotes à la rentrée 2015, généralisation à la rentrée 2016

Social et Santé

– lancement de l' »Emploi Store » : bouquet de services Pôle Emploi (site + applications) pour les demandeurs d’emploi

– Déploiement du plan « Médecine du futur » : filières françaises de biotechnologies, médecine personnalisée et dispositifs connectés.

Si ces mesures collent à l’actualité et semblent même devancer les directives européennes (neutralité du net, données personnelles) avec certaines innovations (données d’intérêt général, start-ups d’Etat), on a malgré tout l’impression de se trouver devant un catalogue d’initiatives hétéroclites, loin de l’atmosphère inspirée du rapport Ambition numérique.

Ce dernier réaffirme d’abord le socle de principes qui décrivent l’horizon de la société numérique : le numérique doit être au service d’une société solidaire « inclusion de tous, bénéfices au niveau individuel et collectif, garanties propres au droit commun grâce à une « Collaboration entre société civile, réseau académique, communauté technique et acteurs économiques ».  Aller vers une ‘société ouverte’ et favorisant l’horizontalité dans l’organisation et la participation de tous les acteurs (salariés, agents, clients, utilisateurs) ; préserver l’État de droit et la protection des droits fondamentaux. « C’est un modèle nouveau qu’il faut inventer : celui qui met le numérique au service du pouvoir d’agir et de l’émancipation individuelle comme collective. » (Préface de B. Thieulin)

Les propositions d’Ambition numérique

Pour un gouvernement plus ouvert « renforcer la transparence et la traçabilité de ses processus décisionnels en généralisant les outils de visualisation des textes normatifs et de leur élaboration. Évaluation des politiques publiques sur le principe de l’open data ». Renforcer la littératie numérique des agents publics. Pour les services numériques au public : « partir des usages pour améliorer leur conception. »

- Loyauté dans l’environnement numérique : Protéger les libertés fondamentales, implication dans la gouvernance du Net et affirmation du principe de la neutralité du Net.
Internet est un ‘bien commun’, bénéficiant à l’ensemble de la société. Favoriser une approche globale, alliant la neutralité des réseaux avec une gouvernance du numérique démocratique et des règles de fiscalité internationale équitables.

Reconnaissance d’un droit à l’autodétermination informationnelle en donnant aux individus la maîtrise sur leurs données personnelles pour qu’ils puissent tirer parti de leurs valeurs d’usage.

Principe de loyauté des plateformes et des algorithmes destinés à la personnalisation, au classement et au référencement.
Loyauté des plateformes vis-à-vis de leurs clients et utilisateurs, particuliers et professionnels. Obligation générale de transparence, d’information et de non-discrimination.
Réaffirmation de l’Etat de droit, incompatible avec des régimes d’exception pour pouvoir garantir l’équilibre entre sécurité et libertés publiques.

Ce thème reprend les conclusions de la « Commission de réflexion et de propositions ad hoc sur le droit et les libertés à l’âge du numérique » à l’Assemblée nationale. Voir à ce sujet l’Interview de la sociologue Francesca Musini sur Mysciencework : «  Il y a deux grandes questions sur lesquelles on a commencé à réfléchir. D’un côté, l’équilibre entre surveillance et vie privée, comment préserver les données personnelles face à tout un ensemble de stratégies de surveillance des utilisateurs. De l’autre, la liberté d’expression sur internet et les moyens techniques qui permettraient d’assurer la diversité des opinions, comme par exemple en préservant la neutralité du Net. »
Ces principes ne peuvent qu’entrer en contradiction avec la Loi sur le renseignement adopté en juin 2015.

- La société face à la métamorphose numérique Numerique

Affirmer un objectif politique d’’empouvoirement’ des individus : pouvoir de contrôle, mais aussi pouvoir d’agir, individuellement et collectivement.
Refaire société par les communs : promotion des pratiques collaboratives. Encourager l’économie collaborative tout en la régulant.
Promouvoir un espace informationnel partagé pour réaliser la diffusion d’un internet ouvert : la co-création comme mode d’inclusion et d’éducation. Faire de la publication ouverte une obligation légale pour la recherche bénéficiant de fonds publics. Définir positivement et élargir le domaine public. Faire évoluer et clarifier l’exception pédagogique pour une meilleure adéquation avec les usages numériques.

S’appuyer sur le numérique pour réduire les inégalités par un travail d’éducation et de médiation autour de la littératie numérique. Cette préconisation reprend l’idée du Rapport Camani/Verdier sur la Médiation numérique : responsabilité de l’Etat qui « doit veiller à ce que toute personne puisse acquérir les compétences numériques qui lui garantissent un accès au droit, à l’emploi, à la connaissance, à l’épanouissement individuel et à la vie collective ».
« L’État devrait donc, en particulier s’assurer que le développement de ces  technologies ne conduise pas à accentuer des clivages existants, qu’ils soient de nature sociale, culturelle, générationnelle ou liés à des disparités géographiques. »
Repenser nos systèmes collectifs entre optimisation, réforme et rupture.
Relation avec la Communauté Européenne pour un marché unique du numérique : principales orientations : réforme du copyright, régulation des plateformes et lutte contre le « géoblocking ». « A l’échelon européen, la France doit être une force de mobilisation et d’interpellation » Benoît Thieulin.

Le débat

Mais ces préconisations pour la loi numérique ne satisfont pas tout le monde. Alors que « Savoirscom1 » salue les orientations du rapport du CNNum en faveur des Communs, des organisations de professionnels de l’informatique comme Syntec numérique ou l’AFDEL ont réagi de façon mitigée, comme le souligne l’article du Monde informatique. Tout en reconnaissant le travail de grande ampleur réalisé par le CNN et l’aspect très riche de ses contributions, ces organisations professionnelles se démarquent de l’enthousiasme ambiant.

Le syndicat Syntec s’inquiète de la remise en cause de la neutralité technologique de l’achat public « L’ouverture forcée des codes sources est une demande inacceptable en matière de propriété intellectuelle » indique Syntec dans un communiqué. L’Afdel rejette, quant à elle « une vision anti-industrielle du numérique ». L’Association française des éditeurs de logiciels juge ‘dogmatiques’ les propositions sur le logiciel libre et estime « anxiogènes et éloignées du marché » les propositions autour des plateformes et des données personnelles. « L’exclusion des éditeurs de logiciels de la commande publique au profit des projets de développement spécifiques est une atteinte inacceptable au principe de neutralité technologie » ; « L’Afdel souhaite que l’Etat s’appuie au contraire sur les PME et les start-ups du numérique, quel que soit leur modèle, pour se numériser ». Quant à la régulation des plateformes, il s’agit pour l’Afdel, d’une ‘vison défensive’ du numérique et elle juge ‘iconoclaste’ les propositions d’encadrement des algorithmes … !

D’autre part, une controverse s’est ouverte ces derniers jours autour des ‘données d’intérêt général’, données détenues ou collectées par des SPIC (Service Public à caractère Industriel et Commercial) comme la SNCF, la RATP ou l’INSEE. SavoirsCom1 explique que la « réticence à ouvrir les données de certains secteurs stratégiques, comme les transports, est souvent liée à la crainte qu’elles ne soient ensuite accaparées par de gros acteurs en position dominante (Google par exemple). » Pour contrer ces monopoles on envisage la mise en place de redevances ou de systèmes Freemium. Pour sa part, « SavoirsCom1 préconise d’appliquer les mêmes principes que ceux qui ont cours dans le champ du logiciel libre … en choisissant des licences comportant une clause de partage à l’identique ».

L’adoption du projet de loi sur le renseignement et de la loi Macron contredisent dans une certaine mesure les affirmations sur l’économie et la société ouverte et collaborative préconisée par le Rapport « Ambition numérique ». Quelle proportion de ce rapport sera définitivement conservée dans la Loi numérique ? C’est ce qui permettra d’évaluer la distance entre une généreuse utopie et la ‘realpolitik’ ….

Diconet1

Bonnes vacances et bel été à tous !

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. – Légifrance, 22/06/04

Loi n° 2009-669 du 12 juin 2009 favorisant la diffusion et la protection de la création sur internet (1).- Légifrance, 13/06/09

Kadri, Pierre-Sofiane. - Une sociologue intègre la commission « droit et liberté à l’âge du numérique à l’Assemblée. – Mysciencework, 16/07/14

Elbaze, Gérald/ – Le rapport Carmani-Verdier : un rapport historique pour la médiation numérique. – Médias-cité, 30/10/14

Lemoine, Philippe. – La transformation numérique de l’économie française : Rapport au gouvernement.- Ministère de l’économie, novembre 2014. pdf.

François Hollande « Le numérique est devenu notre langue ». – Regards sur le numérique, 07/05/15

Ambition numérique : Pour une politique française et européenne de la transition numérique. Rapport remis au Premier ministre. – CNNum, 18/06/15

Bohic, Clément. – Projet de loi numérique : les préconisations du CNNum. – ITespresso, 18/06/15

Belouezzane, Sarah ; Untersinger, Martin. – Le gouvernement présente sa stratégie numérique pour la France. – Le Monde, 18/06/15 – MAJ 17/07/15

Samama, Pascal. – Concertation numérique : une charte entre le CAC 40 et les startups.01Net, 22/06/15

Mettons les Communs au coeur de la future loi sur le numérique ! – SavoirsCom1, juin 2015

Le projet de loi sur le numérique rendu public en juillet. – Le Monde informatique, 22/06/15

Projet de loi relatif au renseignement (PRMX1504410L). – Légifrance, 25/06/15

Quelle pédagogie à l’heure du numérique ?

300x200xRTEmagicC_PEDAGOGIE_SAINTHILAIRE_01.jpg.pagespeed.ic.BzeethoVGeL’innovation pédagogique est au centre du débat qui agite la société française autour de la réforme du collège. Comme le rappelle Dominique Roux dans un article des Échos, les élèves sont à présent des « digital natives » et l’usage d’outils numériques leur paraît naturel. Et ce, de la maternelle à l’université. Quels changements le numérique pourrait-il apporter à l’enseignement et comment ?

Comme le dit Michel Guillou dans son dernier billet : « J’ai l’impression qu’on n’a pas compris, après l’avoir écrit, ce que signifiait vraiment « L’école change avec le numérique » et qu’on n’a pas pris mesure, avec cette réforme du collège, des mutations en cours. » Et le bloggeur d’exposer les 31 défis amenés par le numérique, dont un des premiers est que ce phénomène n’est « ni un outil ni une fin en soi » …

En ce qui concerne l’enseignement supérieur, Educpros fait l’inventaire du Top 10 des pédagogies innovantes à l’Université. Classes inversées, fablabs, réalité virtuelle, etc. De nombreuses innovations accompagnent l’entrée du numérique dans l’enseignement, mais s’ils bouleversent les habitudes des enseignants et des étudiants, ces nouveaux outils ne suffisent pas à transformer la pédagogie. Comme le souligne Marcel Lebrun dans une interview « Le numérique peut avoir un impact sur la pédagogie, à condition que celle-ci change ».

Dans le monde anglo-saxon, on se rend compte que les enseignants ont une pratique très limitée des technologies de l’information et des compétences acquises en ligne. Katrina Schwartz explique dans son post, citant le rapport du ‘Project Tomorrow’ Learning in the 21st century, que les enseignants en formation, les ‘professeurs de demain’, apprennent des techniques d’hier, alors qu’ils maîtrisent déjà des compétences numériques plus évoluées comme l’usage des médias sociaux et des appareils mobiles … De même, Michelle Wise, souligne dans The real Revolution in Online Education isn’t MOOCs (Harvard Business Review), que ce qui va vraiment révolutionner le système éducatif ce ne sont pas les MOOCs qui offrent des cours en ligne gratuits et massifs, qui ne sont que la version technologique des cours magistraux traditionnels, mais la nouvelle architecture de transmission et d’échange de savoirs et de pratiques sur internet. Évidemment, l’auteur envisage plutôt l’aspect pragmatique de ces connaissances qui concernent plus les besoins réels des entreprises : « But there is a new wave of online competency-based learning providers […] but creating a whole new architecture of learning that has serious implications for businesses and organizations around the world. “ Là aussi l’utilisation et la pratique des médias sociaux permettent d’acquérir et de développer de nouvelles compétences, très utiles dans des secteurs comme le marketing ou la communication d’entreprise.

Classe-inversée-300x173C’est aussi l’avis d’Emmanuel Davidenkoff dans l’article de Regards d’étudiants en ce qui concerne les MOOCs : « Parfois on appelle MOOCS un cours filmé, ce qui n’est pas plus élaboré que ce que l’on fait quand on met une caméra devant quelqu’un qui parle, et ça, on sait le faire depuis que la télévision existe » mais aussi : « Je pense effectivement qu’au vu du redécoupage des séquences que cela impose, avec la nécessité et toutes les possibilités de collecter des données sur la façon dont les gens réagissent, on devrait pouvoir de plus en plus faire des propositions assez engageantes pour que des personnes qui, aujourd’hui, seraient réticentes ou décrocheraient assez vite rentrent dans les apprentissages, et réussissent à apprendre ». Grâce au recueil de données personnelles le numérique permettrait « d’industrialiser ce qui relève aujourd’hui de l’artisanat, le suivi individuel ». E. Davidenkoff rassure aussi sur le caractère hybride de l’enseignement : les Moocs n’ont pas vocation à remplacer tous les cours en présentiel …

L’importance de la présence des enseignants est d’ailleurs rappelée par le philosophe Michel Serres dans son interview à Vousnousils : ‘On n’a jamais eu autant besoin d’enseignants’. Si les enseignants et les médecins n’ont plus le monopole du savoir, c’est une chance : « Si on s’intéresse au cancer par exemple, il est possible d’effectuer des recherches sur Internet, mais on ne va rien y comprendre. Il sera toujours indispensable de contacter un spécialiste qui pourra nous transmettre son savoir. » Il en est de même dans les amphis où les étudiants ont déjà consulté sur Wikipedia le sujet du cours, mais ont besoin des compétences de l’enseignant pour mieux assimiler ces connaissances. « Le travail des enseignants s’en trouve allégé car l’information est déjà passée, mais leur rôle de passeur de connaissances reste inchangé. »

Michael Godsey va encore plus loin dans son post The deconstruction of K12 teacher (The Atlantic). Le professeur va passer du statut d’’expert en contenu’ à celui de ‘facilitateur technologique’, les contenus étant dispensés soit par des ‘super-profs’ dans les Moocs, soit sur des sites comme TED.melting pot d'enfants du monde

C’est bien ce que souligne Marcel Lebrun dans son interview : « doter les établissements d’outils numériques ne suffit pas. Il faut des formations plus méthodologiques, qui laissent moins de place aux savoirs eux-mêmes mais sont davantage tournées vers la manière d’apprendre. » . En effet, « en allant chercher des informations autour de lui, dans la société, l’étudiant acquiert un savoir que l’enseignant n’a pas forcément, ce qui place celui-ci dans une position d’apprenant. »

On assiste ainsi à de nouvelles formes d’apprentissage comme la pollinisation comme l’explique Marc Dennery dans C-Campus. « Reprenant l’image du monde végétal, on peut dire que les grains de savoir circulent d’agents de savoir à agents de savoir, comme des grains de pollen vont de plante en plante. » Les agents du savoir pouvant être aussi bien les apprenants eux-mêmes, mais également des bases de ressources pédagogiques (wiki, réseau social d’entreprise).

Les Français sont bien conscients de l’impact de ces nouveaux types d’apprentissage, comme le souligne Dominique Roux dans l’entretien aux Echos : « 72 % des sondés considèrent que l’enseignement numérique accroît l’autonomie d’apprentissage des élèves ». C’est ce que Christine Vaufray indique dans son post  MOOC : cours du prof ou cours des gens ?  « Le MOOC des gens, c’est celui dans lequel les informations transmises et les activités proposées stimulent l’apparition d’une multitude de commentaires, productions, débats, actions… qui constituent en finale la véritable matière du cours, bien plus que l’information initiale. ».belleimage
Learning in the 21st century : Digital experiences and expectations of tomorrow teachers. – SpeakUp – Project Tomorrow Report, 2013.

Schwartz, Katrina. - Are teachers of tomorrow prepared to use innovative tech ?KQED News, 13/02/13

De la transmission à la pollinisation des savoirs. – C-Campus- Le blog, 30/12/13

Weise, Michelle. – The real revolution in online education isn’t MOOCs. – Harvard Business Review, 17/10/14

« Le numérique aura toute sa place dans l’enseignement ». E. Davidenkoff. – Regards d’étudiants, 16/11/14

Blitman, Sophie. – Marcel Lebrun : « L’écart entre collaboration et aliénation numérique est étroit ». – L’Etudiant, 26/11/14

Godsey, Michael. – The deconstruction of the K12 teacher. – The Atlantic, 25/03/15

Michel Serres : “On n’a jamais eu autant besoin des enseignants !”. – Vousnousils, 03/04/15

MOOC : cours du prof ou cours des gens ?Jamais sans mon laptop, 10/05/15

Les 31 défis pour le collège mais aussi pour l’Ecole et l’Université. – Culture numérique, 23/05/15

Roux, Dominique. – Le numérique pour enseigner autrement. – Les Echos, 27/05/15

 

Staypressed theme by Themocracy