Posts tagged: Données publiques

Big data, open data, protection des données personnelles : où en sont la science et l’utilisation des données ?

Cloud hackingLes données sont partout, aussi bien dans la vie quotidienne que dans la recherche. Une nouvelle discipline, la science des données, mobilise des experts en mathématique et informatique pour analyser et traiter ce ‘pétrole’ du 21e siècle à coup d’algorithmes et de logiciels d’intelligence artificielle. Tout au long de la journée, des ‘bots’ (petits logiciels d’IA) et des objets connectés les recueillent grâce à des capteurs. On y accède librement, grâce aux dispositifs d’open data, que ce soit dans la ville intelligente (smart city) ou au niveau de la ‘science ouverte’. Les GAFA et autres géants du net se disputent nos données personnelles en investissant des milliards pour les exploiter. Quel droit et quelles réglementations doit-on mettre en place pour protéger ces données tout en profitant de ces nouvelles ressources ?

La science des données

La science des données (en anglais data science) est une nouvelle discipline qui s’appuie sur des outils mathématiques, de statistiques, d’informatique (cette science est principalement une « science des données numériques »4) et de visualisation des données. Le premier objectif du « data scientist » est de produire des méthodes (automatisées, autant que possible) de tri et d’analyse de données de masse et de sources plus ou moins complexes ou disjointes de données, afin d’en extraire des informations utiles ou potentiellement utiles. Pour cela, le « scientifique des données » s’appuie sur la fouille de données, les statistiques, le traitement du signal, diverses méthodes de référencement, l’apprentissage automatique et la visualisation de données. Il s’intéresse donc à la classification, au nettoyage, à l’exploration, à l’analyse et à la protection de bases de données plus ou moins interopérables. (Wikipedia).

Comme l’énonce Stéphane Mallat, dans sa leçon inaugurale pour la création d’une chaire Science des données au Collège de France, « cette discipline s’inscrit au cœur de la problématique scientifique : extraire de la connaissance des données empiriques qui se trouvent à la base de toutes les sciences. On est dans une évolution extraordinairement rapide qui inclut toutes les sciences qui viennent avec leurs propres données. »

Les deux principaux traitements sont la modélisation et la prédiction. L’enjeu en est la généralisation. Dans ce domaine, l’informatique a une avance considérable sur les mathématiques. Elle permet à partir d’un exemple qu’on connaît, d’extrapoler pour les exemples qu’on ne connaît pas. Elle s’appuie sur un très grand nombre de variables (ex : millions de pixels dans une image). 800x-1

En ce qui concerne la gestion des données scientifiques, les professionnels de l’information, dans les bibliothèques de recherche par exemple, peuvent être de précieux collaborateurs pour les chercheurs. Comme le soulignent Ayoung Yoon et Theresa Schulz dans leur article du College & Research Libraries « les bibliothèques universitaires se sont activement impliquées dans les services des données de la recherche : des services qui portent sur l’ensemble du cycle de vie des données comprenant le plan de gestion, la curation numérique (sélection, conservation, maintenance et archivage), la création de métadonnées et la conversion. ». Un nouveau service, le TDM ‘Text and Data Mining’ (fouille automatique de texte et de données) a pu être récemment être ajouté grâce à une série d’amendements au droit d’auteur en France, mais aussi au Royaume Uni.

Les données numériques et la « ville intelligente »

Dans la ‘smart city’, le recueil et le traitement des données devraient permettre aux citoyens de bénéficier de services sur mesure. A Toronto, une filiale de Google est en train d’édifier une métropole futuriste dans un quartier défavorisé au bord du lac Ontario. Comme le rappelle Ian Austen dans le New York Times fin décembre « le Premier ministre canadien, Justin Trudeau a promis que ce projet créerait ‘des technologies qui nous aideraient à construire des communautés plus intelligentes, plus vertes et plus inclusives ». Mais pour certains résidents cet enthousiasme doit être tempéré surtout quand il s’agit d’une entreprise connue pour sa collecte et analyse des données. Le projet Quayside sera chargé de capteurs et de caméras de surveillance qui traqueront tous ceux qui habitent, travaillent ou simplement passent dans le quartier. La masse de données recueillie permettra de mieux organiser et définir les besoins de la future ville, que la société appelle d’ailleurs une ‘plateforme’. L’électricité sera fournie par des mini-réseaux de voisinage, basés sur des énergies renouvelables. D’immenses auvents protègeront de la pluie et du soleil d’été et des allées chauffées feront fondre la neige l’hiver ! 271607011737Bigdata

Mais les capteurs dans les bâtiments pourront mesurer le bruit dans les appartements tandis que les caméras et les capteurs extérieurs surveilleront aussi bien la pollution de l’air que le mouvement des personnes et des véhicules dans les carrefours … Comme le fait remarquer Pamela Robinson, professeur de planification urbaine à l’université Ryerson de Toronto « les données vont être recueillies par une entreprise privée et non par une collectivité administrative. Pour le moment rien n’a été annoncé sur qui en aura la propriété ni qui y aura accès. » De même, si Quayside promet des logements à tous les niveaux de revenus, pour le moment la seule entreprise qui a prévu de s’y installer est Google Canada, donc plutôt des jeunes cadres bien payés … D’après cette chercheuse, les données collectées pourraient être utilisées pour limiter ou décourager l’usage, par ailleurs légitime, des espaces publics par des sans-logis, des jeunes ou d’autres groupes …

Bernard Stiegler qui intervenait dans la Cité du Futur, conférence de Maddyness, déclarait « Pour faire des villes intelligentes, essayons d’être intelligent. La nouvelle urbanité, c’est la ville désautomatisée, car la ville automatisée détruit les relations de voisinage ». Citant l’expérience de Plaine Commune (Communauté de 9 communes de Seine Saint-Denis) où il est personnellement impliqué mais aussi des entreprises comme Vinci, Orange et la Caisse des Dépôts, le philosophe a expliqué que cela implique de savoir utiliser ces technologies innovantes avec la population de Seine Saint-Denis pour qu’elle y prenne part, notamment à travers un programme d’économie contributive.

images_villeC’est aussi le point de vue de Florence Durand-Tornare, fondatrice et déléguée générale de l’association Villes Internet dans l’article de Martine Courgnaud-Del Ry dans la Gazette des communes : « Plus de trente « Villes Internet » (hors métropoles) décrivent, parfois depuis longtemps, des dispositifs de mise à disposition de données informatives, techniques, juridiques ou statistiques. Ce qui me paraît significatif, c’est qu’elles ouvrent avant tout des données utiles au citoyen, et pas uniquement celles qui sont attendues par les grands opérateurs dans les zones hyper-urbaines — essentiellement relatives au transport ou à la gestion de l’énergie… Nous remarquons aussi que l’ouverture des données est l’occasion d’organiser des dispositifs participatifs avec les citoyens, qui contribuent parfois activement à choisir les applications utiles aux résidents que la donnée permet de produire. »

L’adoption du RGPD et la polémique sur la ‘patrimonialisation’ des données personnelles

L’Assemblée nationale examine en ce moment le projet de loi sur la protection des données personnelles « qui adapte notre droit au nouveau cadre juridique européen, composé d’une part, du règlement général de la protection des données (RGPD) et d’autre part de la directive sur les fichiers de police et de justice, qui entreront tous deux en vigueur en mai 2018. ». Ce règlement fixe de nouvelles obligations à toute entreprise exploitant des données : droit de portabilité d’un opérateur à l’autre, droit d’effacement et surtout, consentement explicite.

Une controverse vient de se développer dans la presse après une interview Gaspard Koenig dans Les Echos évoquant le Rapport du mouvement Génération libre vantant les mérites de la commercialisation des données personnelles. Pour G. Koenig « si la data est bien cet « or noir » du 21ème siècle, il n’y a pas de raison de ne pas payer les producteurs – nous – sans laisser aux raffineurs (les agrégateurs et les plates-formes) l’intégralité des revenus liés à l’exploitation des data. » Pour ce philosophe libéral, il y a trois options pour gérer l’accès aux données : mettre en place une « sorte d’agence nationale chargée de mettre des data encryptées à la disposition des entreprises », créer, comme la CNIL et la Commission européenne, des « droits pour les citoyens et des obligations pour les entreprises, avec le risque de judiciarisation excessive de l’économie digitale et d’étouffer l’innovation ». La troisième option qu’il privilégie et « qui peut s’articuler à la précédente, est la patrimonialité des données pour permettre aux entreprises de se les approprier après avoir justement rémunéré les citoyens. ». Cette transaction se ferait à travers « un système de ‘nanopaiements’ qui viendraient créditer ou débiter en continu un compte digital personnel ». Ceux qui refuseraient de céder leurs données seraient obligés de payer les services numériques. Cette idée a été reprise dans une tribune du Monde prônant la ‘monétisation de nos données’, signée par plusieurs personnalités (Bruno Bonnell, Laurence Parisot, Alexandre Jardin, Gaspard Koenig). claire-sambuc-juriste-tariq

Cette « fausse bonne idée » comme la définissent Serge Abiteboul et Gilles Dowek dans une tribune dans le Monde, a été immédiatement attaquée par un grand nombre de chercheurs et de juristes dans la presse et sur les réseaux sociaux. Pour ces deux chercheurs « Le cas des données numériques est cependant un peu plus complexe que celle de des champs d’orge ou de blé, car qui cultive les données ? Ceux qui les produisent (vous et moi, les géants du Web, les hôtels…), ou ceux qui les entassent et les analysent pour en tirer du profit (ni vous et moi) ? ». Et même une fois la propriété établie, comment les internautes seront-ils assurés que le contrat ne soit pas léonin (accès au service contre ‘open bar’ pour les géants du Net) ? De plus, il n’est pas sûr que ces entreprises soient vraiment intéressées par nos données personnelles, vu qu’à travers le ‘crowdsourcing’, un grand nombre d’internautes produisent déjà du travail sur les données pour une très faibles rémunération. Mais surtout les données personnelles sont avant tout sociales : elles résultent des interactions des internautes entre eux ou avec des entreprises ou  institutions (mails, commentaires, profils, etc.). Tristan Nitot dans son post sur Standblog, reprenant la comparaison avec la vente d’un rein, rappelle que déjà le CNNum estimait que « l’introduction d’un système patrimonial pour les données personnelles est une proposition dangereuse ». Comme il est interdit de faire commerce de ses organes (‘indisponibilité’ ou ‘non patrimonialité’ du corps humain), on ne peut séparer  l’individu de ses données personnelles, ça serait en faire un objet qu’on peut commercialiser « permettre la patrimonialisation c’est — métaphoriquement — permettre de revendre par appartements son moi numérique, c’est faire commerce de son corps numérique, en quelque sorte, ce qui est interdit en France pour son corps physique, au nom de la dignité humaine. ». De plus, il sera très difficile à un individu de se faire payer vu les difficultés qu’a le fisc à faire payer les GAFA … Le rapport de force ne sera pas du tout en sa faveur …

indexUne autre position est celle développée par l’essayiste Evgeni Morozov dans l’émission Soft Power citée par Calimaq dans son post fin octobre. Plutôt que la défense individuelle de la vie privée, Morozov propose de faire des données personnelles un ‘bien public’ et de les faire relever du ‘domaine public’. Il ne pense pas « qu’on puisse régler tous les problèmes que posent les géants du net en utilisant les outils traditionnels de régulation du marché, c’est-à-dire en leur faisant payer des taxes et en mettant en place des lois anti-trust ». Il préconise même d’accélérer le processus d’automatisation et d’analyse des données, car tout n’est pas négatif. Si les cancers pourront bientôt être dépistés grâce aux données, cela ne devrait pas se faire en donnant autant de pouvoir à des entreprises de la Silicon Valley ! Un système dans lequel les données appartiennent à la communauté permet à tout un chacun de se saisir de ces données pour en faire quelque chose, même au niveau local. E. Morozov préconise « un système hybride empruntant à la fois des éléments à la domanialité publique et à la propriété intellectuelle, tout en s’inspirant de certains mécanismes des licences libres ».

Cette hybridation entre protection personnelle et usage collectif se retrouve dans le point de vue du sociologue Antonio Casilli qui défend dans un article du Monde avec Paola Tubaro, l’idée que « la défense de nos informations personnelles ne doit pas exclure celle des travailleurs de la donnée ». Pour ces chercheurs « Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès. ». C’est pourquoi plutôt que la protection individuelle des données, Casilli et Tubaro défendent une négociation collective contre des services. Lionel Maurel et Laura Aufère développent cette approche dans un post très détaillé de S.I.Lex.  Ces chercheurs prônent une protection sociale au sens large du terme, car « si les données sont produites dans le cadre d’activités assimilables à de nouvelles formes de travail, alors ce sont des mécanismes de protection sociale enracinés dans le droit social qu’il convient de déployer pour garantir les droits des personnes. ». Ils préconisent de se doter de moyens adéquats pour engager ces négociations dont les termes restent encore dictés par le cadre imposé par les plateformes. Dans cet article, repris d’ailleurs par Libération, les chercheurs dessinent les contours de ce nouveau droit social du 21e s. Jusqu’à présent, la protection des données était restreinte au niveau individuel. Comme le soulignent la juriste Antoinette Rouvroy et Valérie Peugeot de l’association Vecam, que ce soit pour l’obligation de consentement que pour la portabilité des données, aussi bien la CNIL que le RGPD se concentrent trop sur le niveau individuel. D’où l’importance de « mobiliser un nouvel imaginaire pour construire un cadre de négociation collectives sur les données ». th-300x1000-rgpd.jpg

Rochfeld, Judith ; Farchy, Joëlle ; Forteza, Paula ; Peugeot, Valérie. - « Les internautes réclament un usage moins opaque et une maîtrise de leurs données personnelles ». Tribune. – Le Monde, 07/02/18

Loi données personnelles : dans l’apathie des débats, une envolée néo-libérale absurde ! - La Quadrature du Net, 07/02/18

Courgnaud-Del Ry, Martine. – Des services numériques communs émergent enfin sur tout le territoire. – Gazette des communes, 07/02/18

Guillaud, Hubert. – Pourquoi mes données personnelles ne peuvent pas être à vendre ! – Internet Actu, 06/02/18

Données personnelles : le projet de loi qui va mieux nous protéger. – La Dépêche, 06/02/18

Assemblée nationale. – Société : protection des données personnelles – Projet de loi déposé le 13 décembre 2017- discussion 06-08/02/18/Paula Forteza, Rapporteure.

Wiggleworth, Robert (FT). – Big data : les données numériques peuvent-elles révolutionner l’action politique ? – Nouvel Economiste, 06/02/18

Collectif. – Nos « données personnelles » nous appartiennent : monétisons-les ! - Le Monde, 05/02/18

Casilli, Antonio ; Jeanticou, Romain.  – La domination des géants du numérique est-elle un nouveau colonialisme ? Entretien. – Télérama, 05/02/18

Abiteboul, Serge ; Dowek, Gilles. – « La propriété des données est une fausse bonne idée ». – Le Monde, 05/02/18

Maurel, Lionel ; Aufrère, Laura. – Pour une protection sociale des données personnelles. – S.I.Lex, 05/02/18

Nitot, Tristan. – Données personnelles et droit de vendre des organes humains. – Standblog, 02/02/18

Lévêque, Rémy. – « Facebook nous prend en otage ». – Usbek & Rica, 02/02/18

Parapadapis, George. – RGPD, de l’incertitude aux solutions pratiques. – Informatique News, 31/01/18

Revendre ses données « personnelles », la fausse bonne idée. – Mais où va le web ?, 29/01/18

Ertzscheid, Olivier. – Faut pas prendre les usagers des GAFAM pour des datas sauvages. – Affordance.info, 28/01/18

Pour une patrimonialité des données : Rapport. – Mes data sont à moi/Collectif data. – Génération libre.eu, 25/01/18

Naughton, John. – Who’s doing Google and Facebook dirty work?- The Guardian, 24/01/18

Casilli, Antonio ; Tubaro, Paola. – La vie privée des travailleurs de la donnée (Le Monde, 22/01/18) – Antonio A. Casilli

Mallat, Stéphane. – Sciences des données : leçon inaugurale (vidéo). – Collège de France, 11/01/18

Schmitt, Fabienne ; Madelaine, Nicolas. – Gaspard Koenig : « Chaque citoyen doit pouvoir vendre ses données personnelles ». – Les Echos, 07/01/18

Rey, Olivier ; Rouvroy, Antoinette. – Données, savoir et pouvoir (Table ronde). – PhiloInfo, décembre 2017 (vidéo).

Austen, Ian. – City of the Future? Humans, not technology, are the challenge in Toronto. – The New York Times, 29/12/17

Calimaq (Lionel Maurel). – Evgeni Morozov et le « domaine public » des données personnelles. – S.I.Lex, 29/10/17

 

Economie des plateformes : entre partage des communs et post-salariat capitaliste

ozwilloLes plateformes occupent  une place de plus en plus prépondérante dans l’activité numérique actuelle. Que ce soit sur des applications mobiles ou à propos de nouveaux services publics ou associatifs, on retrouve cette même notion à la définition un peu floue.

Définition et réglementation

Sur Wikipédia, on est un peu déçu : entre plateforme pétrolière et géologique, la plateforme en informatique est décrite comme « une base de travail à partir de laquelle on peut écrire, lire, utiliser, développer un ensemble de logiciels ».

Dans l’avant-projet de la loi Lemaire, cité dans l’article de Marc Rees dans NextInpact : la régulation proposée vise des activités « consistant à classer ou référencer des contenus, biens ou services proposés ou mis en ligne par des tiers, ou de mettre en relation, par voie électronique, plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service, y compris à titre non rémunéré, ou de l’échange ou du partage d’un bien ou d’un service ».

Cela reprend en partie la définition du Conseil national du numérique dans son Rapport sur la neutralité des plateformes , citée par Aurélie Barbaux dans un article d’Usine Digitale « une plateforme est un service occupant une fonction d’intermédiaire dans l’accès aux informations, contenus, services ou biens, édités ou fournis par des tiers. Au-delà de sa seule interface technique, elle organise et hiérarchise les contenus en vue de leur présentation et leur mise en relation aux utilisateurs finaux. A cette caractéristique commune s’ajoute parfois une dimension écosystémique caractérisée par des relations entre services convergents ».

La plateforme prend donc la forme d’un service intermédiaire entre fournisseurs (d’informations, de biens, de services) et les utilisateurs finaux. Elle représente en fin de compte la médiation numérique par excellence. C’est cette fonction que vont alimenter les professionnels de tous secteurs pour mettre des contenus à disposition des usagers. La structuration de cette infrastructure incontournable de la société de l’information passe par la programmation de logiciels dédiés : les fameux algorithmes qui ajoutent une pincée d’intelligence artificielle à la gestion des transactions.

La Loi numérique s’est donné aussi pour objectif d’encadrer cette activité, notamment par la création d’indicateurs et la diffusion de « bonnes pratiques visant à renforcer leurs obligations de transparence et de loyauté ». Ces obligations concernent les plateformes dépassant un certain seuil de connexions. Le Ministère de l’économie et le Secrétariat au numérique se réserve par ailleurs la possibilité de faire des enquêtes et de publier la liste des plateformes qui ne respectent pas ces obligations … plateformes

Plateformes services publics ou associatifs

De nombreuses plateformes ont été conçues dans les services publics pour mettre à la disposition des usagers un certain nombre d’informations et de données ouvertes. La dernière mise à jour (octobre 2016) concerne l’enseignement supérieur et la recherche. Cette plateforme Open data propose 55 jeux de données ouvertes sur l’enseignement supérieur et la recherche. Son interface, plus lisible, facilite l’accès aux données. Elle est synchronisée avec la plateforme nationale data.gouv.fr, de la mission Etalab, qui propose toutes les données publiques ouvertes.

Toujours dans le contexte de l’éducation nationale, Mediaéducation, la plateforme d’accès à la presse à l’école. Fruit d’un partenariat entre le ministère de l’Education nationale et l’opérateur de publications numériques miLibris, la plateforme Lire l’Actu propose 13 titres de quotidiens et de magazines français et étrangers à découvrir sur les tablettes et les ordinateurs fixes des lycées et collèges. D’autres titres seront progressivement ajoutés, notamment en presse régionale.

L’Enssib devrait mettre aussi en ligne, en partenariat avec l’ABF, « une plateforme des projets destinée à valoriser les projets portés dans les bibliothèques de France. L’objectif de cette plateforme est de rendre visibles les projets en cours ou déjà réalisés et faciliter les échanges entre professionnels aux objectifs communs. » Elle proposera aussi une cartographie des activités des bibliothèques et des centres de documentation français.

D’autres plateformes existent dans le secteur des bibliothèques, comme e-shelf service, pour gérer
les collections de livres numériques. Sa particularité, comme le souligne Thomas Fourmeux dans Biblio numéricus, réside dans la prise en charge par l’entreprise des négociations avec les éditeurs. Cette plateforme a été développée « par un consortium de bibliothèques à but non lucratif qui se consacre au développement de services à destination des bibliothèques. Leur mission est de promouvoir le partage de ressources et l’émergence de services innovants à travers la collaboration. »

 

Les plateformes de services e-commerce ou de partagebusit-usages-wo

Mais si le terme générique « plateforme » recouvre des activités de toutes sortes, allant du covoiturage (Blablacar) ou de partage de canapé (couchsurfing) à des sociétés de taxis (Uber) ou de location de chambres ou d’appartement (AirBnB), ces services recouvrent deux réalités économiques différentes. Comme le souligne Philippe Portier dans son article du Monde, on trouve, d’un côté, ‘l’économie collaborative stricto sensu’ qui mutualise les biens, les espaces et les outils en favorisant l’usage par rapport à la possession et l’organisation en réseaux ou en communautés des citoyens ; de l’autre ‘l’économie ubérisée’ « qui traduit l’émergence de professionnels d’un nouveau genre, concurrençant les modèles traditionnels grâce à la combinaison d’outils technologiques, communs à l’économie collaborative (les plateformes, les outils numériques et les objets connectés) et de l’autoentrepreneuriat. ». Le premier modèle relève de l’économie non marchande qui participe de la philosophie des ‘communs’, basée sur la mutualisation des biens et des savoirs ; le second représente « un nouveau modèle d’entreprise horizontalisée, dématérialisée, idéalement sans salariés ni bureaux, capable de concurrencer les acteurs traditionnels, via la mobilisation (par les technologies numériques) un grand nombre de prestataires, sans en assurer la charge. ».

C’est ce que souligne aussi Michel Bauwens, théoricien de l’économie collaborative, dans son article du Monde : « Uber et Airbnb n’ont rien à voir avec l’économie du partage ». Pour ce chercheur, « l’économie ‘pair à pair’ où les individus s’auto-organisent pour créer un bien commun, a un potentiel émancipatoire important ». Avec des sociétés comme Uber, « il s’agit plutôt d’une mise sur le marché de ressources qui, jusque-là n’étaient pas utilisées. ».

Cela nous amène à la question soulevée par Ivan Best dans la Tribune « le numérique met-il fin au salariat ? ». Dans son compte-rendu des Rencontres d’Aix du Cercles des économistes, le journaliste souligne l’acuité de la crise actuelle. Si toutes les révolutions industrielles par le passé ont connu aussi des destructions d’emplois en masse, d’autres jobs sont toujours apparus pour les remplacer ; en revanche, selon Andrew McAfee, économiste du MIT « cette fois, c’est différent ». Le professeur souligne les éléments nouveaux qui font douter du fonctionnement de la théorie du déversement préconisée par Ricardo : le pouvoir d’achat stagne depuis 20 ans, la classe moyenne en voie d’érosion, la part des salaires dans la valeur ajoutée diminue … Avec l’accélération technologique qui permet non seulement de supprimer les tâches répétitives, mais prend de plus en plus en charge des travaux de conception, les services sont de moins en moins qualifiés. Avec le GPS, par exemple, les chauffeurs de taxis n’ont plus besoin de connaître les rues des villes. Le recours au contrat de travail est moins fréquent. A terme, le travail humain devient de moins en moins nécessaire …

On retrouve ce questionnement  dans l’article d’Olivier Ertzscheid sur InaGlogal « Du digital labor à l’ubérisation du travail ». Il souligne la « part croissante de l’automatisation et de l’algorithmie dans des missions jusqu’ici considérées comme régaliennes (transport, santé, éducation).»  Pour ce chercheur, il faudrait se préparer et prendre la pleine mesure de cette transformation de la société contemporaine. Uber représente le phénomène le plus abouti de cette évolution : « Über a permis, pour la première fois à cette échelle, de fractionner notre rapport au travail, à l’outil de travail, de la même manière qu’avant lui Airbnb avait permis de fractionner notre rapport à la propriété. ». Ce qui lui fait prédire que « la révolution sera ubérisée » avec des conflits sociaux d’un nouveau genre. Face à cela, le politique est impuissant et le recours à la loi, complexe et inabouti … Avec comme seule stratégie, l’interdiction d’une application…

robots-option-binaireD’où l’importance de réfléchir à de nouveaux modèles d’organisation du travail (qui est l’employeur, qui est l’employé et à quel(s) moment(s) ?) et de protection sociale. C’est aussi la question que se pose Hubert Guillaud dans son article  d’InternetActu « Qui des algorithmes ou des clients seront nos nouveaux patrons ? ». Partant de l’anecdote du Huffington Post où une société hongkongaise avait nommé un algorithme à son conseil d’administration, il arrive à cette constatation : c’est l’algorithme d’Uber qui est le vrai patron des chauffeurs ! Et les clients deviennent les cadres intermédiaires avec le système de notation … Difficile dans ces conditions d’être un auto-entrepreneur libre de ses décisions ….

C’est ce que dénonce aussi Eric Sadin dans son article de Libération « La «silicolonisation», c’est la conviction que ce modèle représente l’horizon indépassable de notre temps et qui, de surcroît, incarnerait une forme lumineuse du capitalisme ». Pour le philosophe, c’est un modèle de société fondé sur la ‘marchandisation intégrale de la vie et l’automatisation intégrée de la société qui est en train de s’instaurer ». Pour Eric Sadin,  « la figure du contremaître disparaît au profit de résultats d’équations […] auxquelles il difficile voire impossible de s’opposer ». Pour contrer le ‘technolibéralisme’, qualifié de « criminalité en hoodie (sweat à capuche) », Sadin en appelle au civisme des consommateurs pour boycotter tous ces objets connectés et services de l’économie des plateformes …

Bernard Stiegler est moins pessimiste dans son article de l’Humanité : s’il reconnaît qu’avec l’automatisation « le travailleur est dépossédé de son savoir-faire au profit d’un logiciel qui rend la tâche automatisable » et qu’en fin de compte le travailleur est licencié … Le philosophe propose une solution : que l’économie numérique « redistribue une partie des gains de productivité en vue de financer un temps de capacitation de tout un chacun au sein d’une économie contributive permettant de valoriser les savoirs de chacun. C’est pour cela que nous préconisons l’adoption d’un revenu contributif, ce qui n’est pas la même chose que le revenu universel. ».

Une solution consisterait en la généralisation des « communs » contre la monopolisation des échanges de données dans l’économie des plateformes (GAFA, Uber, Airbnb). C’est ce que préconise Michel Bauwens : en généralisant cette pratique qui remonte au Moyen-Age (mutualisation des terres + règles pour ne pas les épuiser) et avec les moyens technologiques dont on dispose, on pourrait créer de grands communs de la connaissance, des logiciels, du design, et permettre à tous les citoyens d’y contribuer et d’y puiser. Mais aussi « Il faut accompagner cette évolution, réguler pour protéger les consommateurs et les travailleurs dont les positions sont affaiblies face à ces nouveaux monopoles. ». Mais surtout « De nouvelles solutions sont à envisager ». « Il s’agit de passer d’un capital extractif, qui capte la valeur des communs sans rien reverser, à un capital génératif où ceux qui contribuent à ce commun créent leur propre économie éthique. » bien-communRéférences

Neutralité des plateformes : Réunir les conditions d’un environnement ouvert et soutenable/Conseil national du numérique, mai 2014

Best, Ivan. – Travail, le numérique met-il fin au salariat ? - La Tribune, 05/07

Legros, Claire (propos recueillis). – Michel Bauwens « Uber et AirBnb n’ont rien à voir avec l’économie du partage« . – Le Monde, maj. 20/07/15

Duthoit, Aurélien. – Comprendre les mécanismes de l’économie du partage. – La Tribune, 26/08/15

Barbeaux, Aurélie. – Au fait, c’est quoi une plateforme ?Usine Digitale, 19/10/15

Gardette, Hubert. – Uber, Amazon, Airbnb : lenumérique nous rend-il socialement irresponsable ? - Du grain à moudre – France Culture, 28/10/15

Cardon, Dominique ; Tesquet, Olivier. – Les algorithmes sont-ils vraiment tout puissants ? EntretienTélérama, 02/11/15

Portier, Philippe. – Économie collaborative : « La solution n’est pas dans un excès de réglementation ». – Le Monde,
maj. 06/11/15

Rees, Marc. – Loi Lemaire, les plateformes régulées sous la menace d’une liste noire.NextInpact, 09/11/15

Guillaud, Hubert. – Qui des algorithmes ou des clients seront nos nouveaux patrons ? - InternetActu, 10/11/15

Fourmeux, Thomas. – E-shelf service : un nouveau service de livres numériques pour les bibliothèques. – Biblio Numericus, 30/01/16

Plateforme des projets de la communauté professionnelle. - Enssib, 23/03/16

Biseul, Xavier. - Transfo numérique : « les avocats ne doivent pas être les taxis de demain ». - ZDNet, 04/04/16

Marrissal, Pierric ; Masson, Paule. – Bernard Stiegler « Nous devons rendre aux gens le temps gagné par l’automatisation » Entretien - L’Humanité, 17/06/16

Ertzschein, Olivier. – Du digital labor à l’ubérisation du travail. – InaGlobal, maj. 29/08/16

Lire l’actu, plateforme d’accès à la presse à l’école. – Médiaéducation, 06/10/16

Projet de loi pour une République numérique. – Sénat, maj. 10/10/16

Villin, Philippe ; Cosnard, Denis (propos recueillis). - Economie collaborative : « Pas difficile d’être compétitif quand on ne respecte rien » Entretien. – Le Monde, 10/10/16

Féraud, Jean-Christophe. – Eric Sadin  : « L’anarcho-libéralisme numérique n’est plus tolérable ». – Libération, 20/10/16

Laval, Christian. – « Commun » et « communauté » : un essai de clarification sociologique.SociologieS [En ligne] in Dossiers, Des communs au commun : un nouvel horizon sociologique ?, 21 octobre 2016

 

Loi numérique : quelle ambition pour la France ?

formationnumerique2En attendant le Projet de loi sur le numérique prévu pour la rentrée, Manuel Valls a présenté le 18 juin 2015 la stratégie numérique du gouvernement qui s’appuie sur le Rapport du Centre National du Numérique (CNNum) « Ambition numérique », synthèse de la concertation lancée en octobre 2014.

Comme le souligne la chercheuse Francesca Musini dans son interview sur la Commission parlementaire sur le numérique « Jusqu’à présent les parlements ont plutôt légiféré de façon réactive par rapport au numérique, sur des questions spécifiques. C’est une bonne idée d’essayer de faire autrement, d’avoir une réflexion sur le long terme. »

Le gouvernement a avancé 14 mesures qui reprennent plus ou moins les 70 propositions du rapport Ambition numérique (4 thèmes et 70 propositions ayant impliqué la participation de 5000 personnes et de près de 18 000 contributions en ligne … !)

Alors que les programmes précédents se limitaient souvent au champ économique ou à la propriété intellectuelle comme la LCEN (Loi pour la confiance en l’économie numérique) en 2004 et la HADOPI (Loi favorisant la diffusion et la protection de la création sur internet) en 2009, le projet de loi numérique 2015 envisage tous les domaines touchés par le numérique. Comme l’affirme Benoît Thieulin, Président du Conseil national du numérique dans la préface du rapport « plusieurs numériques sont possibles et il est temps de construire un numérique européen, plus politique, plus conforme aux promesses d’’empouvoirement’ comme à celles des pères fondateurs. Il revient à la France et à l’Europe de définir ce numérique et de mettre en place des
politiques publiques pour le construire. »

Politique et gouvernance de l’internet
Pour Axelle Lemaire, interviewée dans Le Monde, « la France ne peut pas « se permettre d’être passive dans cette révolution, nous devons mettre la barre le plus haut possible et imprimer le changement partout pour moderniser l’action publique ». »

– inscription de la neutralité du net dans la loi « Je souhaite inscrire dans la loi une définition claire de la neutralité du Net qui assure à tous un même accès aux réseaux à tous les opérateurs » Manuel Valls, Gaité Lyrique, 18/06/15.

– ouverture des données publiques déjà entamée avec Etalab. Instauration d’une administration générale des données. En 2016, la France prendra la présidence du « Partenariat pour un gouvernement ouvert » (Open Governement Partnership).

– instauration d’une « Charte des droits du citoyen et du numérique » avec le Conseil de l’Europe.

– création d’un « État plateforme » avec des API (interface de programmation d’application) pour interroger les bases de données de l’État et créer de nouveaux services

Économie : croissance, innovation, disruption
Intégrer les nouveaux paradigmes : rapidité de croissance, concurrence internationale et innovation sous toutes ses formes. Accélérer la transformation numérique des entreprises et fluidifier leurs relations : charte entre grands groupes et start-upsAxelle Lemaire :« Montrer que la France est un pays attractif, que nous y innovons, que nos entreprises décrochent des contrats ».

- A l’international : soutenir la montée en puissance de la « French Tech », rencontre entre start-ups et grands financeurs, mais aussi accompagner la révolution technologique des pays du Sud.

– Promouvoir une « économie de la donnée » avec la création de « données d’intérêt général » dans des secteurs clés : transport, santé, énergie et tourisme

– encourager la coopération entre entreprises traditionnelles et start-ups et la transition numérique pour les TPE et PME avec des services numériques pour chaque filière

Cependant, l’innovation numérique dans l’économie fera aussi l’objet d’une loi « Macron 2″ au second semestre comme le révèle la Lettre de l’Audiovisuel du 21/07.

Médiation numérique et protection de l’utilisateur

– Renforcer la médiation numérique pour accompagner son usage pour les particuliers

– Inspection par les services de la concurrence des « conditions générales d’utilisation » sur grands sites opérant en France

– modification de la loi sur les données personnelles ; possibilité de transporter ses données d’un service à un autre

– Régulation des plateformes pour protéger les utilisateurs sans brider l’innovation

Enseignement et recherche

– Favoriser une science ouverte par la libre diffusion des publications et des données de la recherche

– Mise en place de « la grande école du numérique »  : labellisation des formations centrées sur le numérique (universités, collectivités, associations)

– Déploiement du plan numérique pour l’éducation : 200 collèges pilotes à la rentrée 2015, généralisation à la rentrée 2016

Social et Santé

– lancement de l' »Emploi Store » : bouquet de services Pôle Emploi (site + applications) pour les demandeurs d’emploi

– Déploiement du plan « Médecine du futur » : filières françaises de biotechnologies, médecine personnalisée et dispositifs connectés.

Si ces mesures collent à l’actualité et semblent même devancer les directives européennes (neutralité du net, données personnelles) avec certaines innovations (données d’intérêt général, start-ups d’Etat), on a malgré tout l’impression de se trouver devant un catalogue d’initiatives hétéroclites, loin de l’atmosphère inspirée du rapport Ambition numérique.

Ce dernier réaffirme d’abord le socle de principes qui décrivent l’horizon de la société numérique : le numérique doit être au service d’une société solidaire « inclusion de tous, bénéfices au niveau individuel et collectif, garanties propres au droit commun grâce à une « Collaboration entre société civile, réseau académique, communauté technique et acteurs économiques ».  Aller vers une ‘société ouverte’ et favorisant l’horizontalité dans l’organisation et la participation de tous les acteurs (salariés, agents, clients, utilisateurs) ; préserver l’État de droit et la protection des droits fondamentaux. « C’est un modèle nouveau qu’il faut inventer : celui qui met le numérique au service du pouvoir d’agir et de l’émancipation individuelle comme collective. » (Préface de B. Thieulin)

Les propositions d’Ambition numérique

Pour un gouvernement plus ouvert « renforcer la transparence et la traçabilité de ses processus décisionnels en généralisant les outils de visualisation des textes normatifs et de leur élaboration. Évaluation des politiques publiques sur le principe de l’open data ». Renforcer la littératie numérique des agents publics. Pour les services numériques au public : « partir des usages pour améliorer leur conception. »

- Loyauté dans l’environnement numérique : Protéger les libertés fondamentales, implication dans la gouvernance du Net et affirmation du principe de la neutralité du Net.
Internet est un ‘bien commun’, bénéficiant à l’ensemble de la société. Favoriser une approche globale, alliant la neutralité des réseaux avec une gouvernance du numérique démocratique et des règles de fiscalité internationale équitables.

Reconnaissance d’un droit à l’autodétermination informationnelle en donnant aux individus la maîtrise sur leurs données personnelles pour qu’ils puissent tirer parti de leurs valeurs d’usage.

Principe de loyauté des plateformes et des algorithmes destinés à la personnalisation, au classement et au référencement.
Loyauté des plateformes vis-à-vis de leurs clients et utilisateurs, particuliers et professionnels. Obligation générale de transparence, d’information et de non-discrimination.
Réaffirmation de l’Etat de droit, incompatible avec des régimes d’exception pour pouvoir garantir l’équilibre entre sécurité et libertés publiques.

Ce thème reprend les conclusions de la « Commission de réflexion et de propositions ad hoc sur le droit et les libertés à l’âge du numérique » à l’Assemblée nationale. Voir à ce sujet l’Interview de la sociologue Francesca Musini sur Mysciencework : «  Il y a deux grandes questions sur lesquelles on a commencé à réfléchir. D’un côté, l’équilibre entre surveillance et vie privée, comment préserver les données personnelles face à tout un ensemble de stratégies de surveillance des utilisateurs. De l’autre, la liberté d’expression sur internet et les moyens techniques qui permettraient d’assurer la diversité des opinions, comme par exemple en préservant la neutralité du Net. »
Ces principes ne peuvent qu’entrer en contradiction avec la Loi sur le renseignement adopté en juin 2015.

- La société face à la métamorphose numérique Numerique

Affirmer un objectif politique d’’empouvoirement’ des individus : pouvoir de contrôle, mais aussi pouvoir d’agir, individuellement et collectivement.
Refaire société par les communs : promotion des pratiques collaboratives. Encourager l’économie collaborative tout en la régulant.
Promouvoir un espace informationnel partagé pour réaliser la diffusion d’un internet ouvert : la co-création comme mode d’inclusion et d’éducation. Faire de la publication ouverte une obligation légale pour la recherche bénéficiant de fonds publics. Définir positivement et élargir le domaine public. Faire évoluer et clarifier l’exception pédagogique pour une meilleure adéquation avec les usages numériques.

S’appuyer sur le numérique pour réduire les inégalités par un travail d’éducation et de médiation autour de la littératie numérique. Cette préconisation reprend l’idée du Rapport Camani/Verdier sur la Médiation numérique : responsabilité de l’Etat qui « doit veiller à ce que toute personne puisse acquérir les compétences numériques qui lui garantissent un accès au droit, à l’emploi, à la connaissance, à l’épanouissement individuel et à la vie collective ».
« L’État devrait donc, en particulier s’assurer que le développement de ces  technologies ne conduise pas à accentuer des clivages existants, qu’ils soient de nature sociale, culturelle, générationnelle ou liés à des disparités géographiques. »
Repenser nos systèmes collectifs entre optimisation, réforme et rupture.
Relation avec la Communauté Européenne pour un marché unique du numérique : principales orientations : réforme du copyright, régulation des plateformes et lutte contre le « géoblocking ». « A l’échelon européen, la France doit être une force de mobilisation et d’interpellation » Benoît Thieulin.

Le débat

Mais ces préconisations pour la loi numérique ne satisfont pas tout le monde. Alors que « Savoirscom1 » salue les orientations du rapport du CNNum en faveur des Communs, des organisations de professionnels de l’informatique comme Syntec numérique ou l’AFDEL ont réagi de façon mitigée, comme le souligne l’article du Monde informatique. Tout en reconnaissant le travail de grande ampleur réalisé par le CNN et l’aspect très riche de ses contributions, ces organisations professionnelles se démarquent de l’enthousiasme ambiant.

Le syndicat Syntec s’inquiète de la remise en cause de la neutralité technologique de l’achat public « L’ouverture forcée des codes sources est une demande inacceptable en matière de propriété intellectuelle » indique Syntec dans un communiqué. L’Afdel rejette, quant à elle « une vision anti-industrielle du numérique ». L’Association française des éditeurs de logiciels juge ‘dogmatiques’ les propositions sur le logiciel libre et estime « anxiogènes et éloignées du marché » les propositions autour des plateformes et des données personnelles. « L’exclusion des éditeurs de logiciels de la commande publique au profit des projets de développement spécifiques est une atteinte inacceptable au principe de neutralité technologie » ; « L’Afdel souhaite que l’Etat s’appuie au contraire sur les PME et les start-ups du numérique, quel que soit leur modèle, pour se numériser ». Quant à la régulation des plateformes, il s’agit pour l’Afdel, d’une ‘vison défensive’ du numérique et elle juge ‘iconoclaste’ les propositions d’encadrement des algorithmes … !

D’autre part, une controverse s’est ouverte ces derniers jours autour des ‘données d’intérêt général’, données détenues ou collectées par des SPIC (Service Public à caractère Industriel et Commercial) comme la SNCF, la RATP ou l’INSEE. SavoirsCom1 explique que la « réticence à ouvrir les données de certains secteurs stratégiques, comme les transports, est souvent liée à la crainte qu’elles ne soient ensuite accaparées par de gros acteurs en position dominante (Google par exemple). » Pour contrer ces monopoles on envisage la mise en place de redevances ou de systèmes Freemium. Pour sa part, « SavoirsCom1 préconise d’appliquer les mêmes principes que ceux qui ont cours dans le champ du logiciel libre … en choisissant des licences comportant une clause de partage à l’identique ».

L’adoption du projet de loi sur le renseignement et de la loi Macron contredisent dans une certaine mesure les affirmations sur l’économie et la société ouverte et collaborative préconisée par le Rapport « Ambition numérique ». Quelle proportion de ce rapport sera définitivement conservée dans la Loi numérique ? C’est ce qui permettra d’évaluer la distance entre une généreuse utopie et la ‘realpolitik’ ….

Diconet1

Bonnes vacances et bel été à tous !

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. – Légifrance, 22/06/04

Loi n° 2009-669 du 12 juin 2009 favorisant la diffusion et la protection de la création sur internet (1).- Légifrance, 13/06/09

Kadri, Pierre-Sofiane. - Une sociologue intègre la commission « droit et liberté à l’âge du numérique à l’Assemblée. – Mysciencework, 16/07/14

Elbaze, Gérald/ – Le rapport Carmani-Verdier : un rapport historique pour la médiation numérique. – Médias-cité, 30/10/14

Lemoine, Philippe. – La transformation numérique de l’économie française : Rapport au gouvernement.- Ministère de l’économie, novembre 2014. pdf.

François Hollande « Le numérique est devenu notre langue ». – Regards sur le numérique, 07/05/15

Ambition numérique : Pour une politique française et européenne de la transition numérique. Rapport remis au Premier ministre. – CNNum, 18/06/15

Bohic, Clément. – Projet de loi numérique : les préconisations du CNNum. – ITespresso, 18/06/15

Belouezzane, Sarah ; Untersinger, Martin. – Le gouvernement présente sa stratégie numérique pour la France. – Le Monde, 18/06/15 – MAJ 17/07/15

Samama, Pascal. – Concertation numérique : une charte entre le CAC 40 et les startups.01Net, 22/06/15

Mettons les Communs au coeur de la future loi sur le numérique ! – SavoirsCom1, juin 2015

Le projet de loi sur le numérique rendu public en juillet. – Le Monde informatique, 22/06/15

Projet de loi relatif au renseignement (PRMX1504410L). – Légifrance, 25/06/15

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Le retour des sciences sociales : «Humanités ou humanisme numérique(s) » ?

Après avoir régné sans partage sur l’intelligentsia occidentale, notamment en France, dans les années 1960-70, les sciences humaines et sociales (SHS) ont subi un repli dans les années 1980-90 – les « années fric » du capitalisme financier et surtout de la disparition des idéologies … Elles reviennent aujourd’hui sur le devant de la scène, mais elles se sont entre temps mondialisées et hyper-spécialisées. Mais surtout elles disposent désormais d’outils plus performants : les « Humanités numériques ».
C’est ce qu’explique le sociologue Michel Wieviorka dans un entretien à Libération la veille du colloque international « Penser global »

Mais que sont donc ces « Humanités numériques » ? D’après Wikipédia, c’est « un domaine de recherche au croisement de l’informatique, des arts, lettres, sciences humaines et sciences sociales ». Elles permettent, par l’utilisation des outils numériques, la modélisation et la représentation graphique d’oeuvres et de pratiques sociales, mais aussi « la prise en compte des contenus numériques comme objets d’étude ».

C’est aussi cette dimension scientifique que Bruno Latour veut utiliser dans son concept d’ »Humanités scientifiques » qui sera l’objet de son CLOM (Cours en Ligne Ouvert et Massif) « Scientific Humanities » sur la plate-forme de France Université Numérique (FUN). Il s’agit de prendre en compte les conditions de production de ces disciplines et de les évaluer à l’aune d’un processus cognitif. C’est dans cette optique que les différentes opinions qui se reflètent dans les pratiques sociales que sont la politique, la morale ou la philosophie, sans oublier les oeuvres littéraires et artistiques, pourront être analysées et représentées grâce aux outils numériques. Car seuls ces outils informatiques seront en mesure de traiter la quantité industrielle de données, le « Big data » dont on dispose désormais..

Deux grandes manifestations ont remis cet automne, les sciences humaines et sociales au centre des préoccupations numériques :
Horizon 2020 – Perspectives européennes pour les sciences. Vilnius, 23-24 septembre 2013
Forum Mondial des sciences sociales. Montréal, octobre 2013

Mais en se soumettant à la logique du numérique, la société et les SHS ne risquent-elles pas de perdre l’humanisme qui les caractérisaient les Lumières ou la Renaissance ?
« Pour un humanisme numérique », c’est le défi que lance le philosophe canadien Milad Doueihi, dans un essai récent. Le numérique, à travers « le code informatique fondé sur le calcul, romprait avec notre rapport historique à l’écriture et aux pratiques lettrées ». Tout y passe : le droit, les modèles économiques et politiques. « L’informatique a cette propriété d’encourager le passage et l’expression de toute activité à ces propres termes ». Le numérique opère une rupture historique avec l’humanisme classique… D’où la nécessité de penser un « humanisme numérique » pour nous préserver d’une « robotisation » de l’humain.

Mais n’est-ce pas aussi ce que défendent les partisans des Humanités numériques comme Wieviorka ? Car il ne s’agit pas de réduire la recherche en SHS aux seules mesures (souvent quantitatives) permises par ces nouveaux outils. Même si la figure de l’intellectuel, dominant la scène culturelle, est en train de s’estomper au profit d’une plus grande collaboration des chercheurs entre eux, mais aussi avec le grand public, grâce à internet et aux réseaux sociaux, les « digital humanities » ne se réduisent pas à une boite à outils. Elles permettent aussi de prendre en compte les contenus numériques comme objets d’étude. En devenant objet de la recherche, les différents usages et pratiques numériques ne vont pas de prendre le dessus. Les chercheurs restent les sujets de leurs travaux, et ne risquent pas de se transformer en « cyborgs », hybrides bio-électroniques que les « Transhumanistes » attendent comme le Messie.
C’est, en effet, contre cette nouvelle croyance, le Transhumanisme, la « Singularité » de Ray Kurzweil, que Milad Doueihi veut lutter en prônant le retour à un nouvel humanisme, à une nouvelle éthique face à la « conversion numérique ».

Wieviorka, Michel. – Mettre le numérique au service des humanités. – Libération, 10/05/13

Humanités numériques. – Wikipedia

Latour, Bruno. – Scientific Humanities : MOOC. – FUN, 2014/01-03

Douihei, Milad. – Pour un Humanisme numérique. – Paris : Seuil, 2011. – (La librairie du 21e siècle)

Féraud, Jean-Christophe. – Pour un humanisme numérique. – Libération, 20/10/13

Vilnius Declaration. – Horizons for Social Sciences and Humanities. Vinius (Lithuania), 24 september 2013

Wieviorka, Michel. – Horizons for Social Sciences and Humanities : what follows Vilnius ? Michel Wieviorka Sociologue – Hypothèse.org, 23/09/13

Transformations sociales et ère numérique. – Forum mondial des sciences sociales 2013. Montréal

World Social Science Forum: Building a global platform for social sciences in the digital age. – Impact of Social Sciences – Blog LSE, 09/10/13

Transhumanisme. – Wikipedia

Humanity+ : Elevating the Human Condition

Kurzweil, Ray. – The singularity is near : when huamans transcend biology. – New York, Toronto, London : Penguin Books, 2005

Vion-Dury, Philippe. – Le transhumanisme français : que des surhommes, pas des sous-hommes. – Le Nouvel Observateur, 03/11/13

Réflexions sur l’ « IFLA Trend Report » : les défis qui attendent les professionnels dans la société de l’information

Twitter network of @OIIOxfordLe dernier « Trend Report » de l’IFLA , publié juste avant le Congrès de Singapour en août 2013, « Riding the Waves or Caught in the Tide? Navigating the evolving information environment” se penche sur les principales tendances qui marquent notre environnement informationnel.

Cette fois, ce ne sont pas des problèmes techniques, ou même scientifiques que le numérique pose à la profession et aux médiateurs, mais plutôt des questions éthiques et philosophiques, voire politiques, dues notamment à l’émergence du ‘big data’ avec le recueil d’un grand nombre de données personnelles pour toute transaction.

Le rapport présente cinq grandes tendances pour le futur proche :
– Les nouvelles technologies vont en même temps étendre et restreindre l’accès à l’information en fonction des publics concernés.
L’extension concerne le développement de l’ouverture des données publiques (open data), des archives ouvertes, des « e-commons » (savoirs communs), etc.
Les limites, ce sont les restrictions à l’accès : DRM, mots de passe, biométrie. Mais aussi le fossé numérique qui se creuse, créant une situation d’inclusion/exclusion en ce qui concerne les compétences numériques (information literacy skills).
– Les cours en ligne vont aussi bien démocratiser que bouleverser l’enseignement au niveau mondial. D’un côté les MOOC (cours en ligne massifs), les ressources éducatives en ligne vont permettre un apprentissage tout au long de la vie (lifelong learning), mais cet enseignement informel et souvent la pédagogie inversée (flipped learning) qu’il implique, vont remettre en question toute la structure éducative.
– Les frontières autour de la vie privée et la protection des données personnelles doivent être redéfinies. Le scandale de l’utilisation de métadonnées de messageries et de réseaux sociaux par la NSA et les multinationales de l’information ont révélé au monde que l’on pouvait traquer des individus à travers leurs connexions numériques et leur téléphone mobile … ! Tout cela a remis en cause la confiance que tout un chacun avait dans l’internet et le numérique … Comme le dit Philippe Mussi, conseiller régional Vert de la région PACA en introduction de la Semaine européenne de l’Open data : « l’ouverture des données, c’est la reprise en main par le citoyen de l’espace démocratique. Elles doivent être ouvertes, car c’est politique, et parce que c’est dangereux. Oui, les nouvelles libertés présentent des dangers. Dans un paysage général où le monde s’ouvre, où la transparence est à la fois demandée et imposée par la société, la transparence de la gestion publique est de toute première importance. On ne peut plus imaginer de démocratie fermée sur la propriété de la connaissance de la chose publique. Nous devons tous contribuer à cet objectif-là !” [Cité dans InteretActu].
– Dans ces sociétés hyper-connectées, de nouvelles voix et de nouveaux groupes vont émerger pour s’emparer de problèmes sociaux ou politiques à travers des actions collectives et de nouveaux médias.
– Les nouvelles technologies vont transformer l’économie mondiale : de nouveaux modèles économiques vont s’imposer à travers structures innovantes (e-commerce, mobilité, etc.).
En 2016, on prévoit 10 milliards d’appareils mobiles connectés à l’internet. Il y a aussi la technologie que l’on porte sur soi (wearable), comme les « Google Glasses ».

Mais en quoi tout ceci concerne les bibliothèques ?
Imaginons un usager entrant dans une bibliothèque portant ces fameuses lunettes « moteur de recherche » : de fait avec cet instrument, il peut mettre toutes les personnes présentes (lecteurs + bibliothécaires) sous surveillance … !! Comment les bibliothèques pourraient-elles rester des lieux sûrs dans ces conditions ? Il faudra désormais trouver le moyen de concilier la technophilie avec le respect de l’intimité …

Les cours en ligne, par exemple, sont des mines d’or en ce qui concerne les données personnelles. Les résultats de tests, les progrès réalisés par les étudiants, et d’autres informations sont importants pour les éducateurs pour évaluer les apprenants et améliorer leur enseignement. Mais dans un environnement mondial de plus en plus numérisé et connecté, il faut se poser la question : qui d’autre a accès à ces données ?
Il faut donc penser non seulement à gérer ces informations indispensables à l’enseignement, mais aussi à les protéger.

Les étudiants utilisent de plus en plus des moteurs de recherche pour répondre à leurs questions de cours. Il faudrait analyser leurs habitudes de recherche pour évaluer l’influence qu’elles ont sur leurs réponses. Est-ce vraiment toute l’information dont ils ont besoin ? Ces algorithmes appartiennent à des sociétés multinationales et surtout ont été développés pour augmenter les revenus des publicités en ligne. Cela devrait faire réfléchir les bibliothécaires et les enseignants lorsqu’ils encouragent les étudiants à utiliser ces outils …

D’autre part, si toutes les réponses sont dans l’algorithme, que devient la bibliothèque ?

D’après l’enquête de l’Oxford Internet Institute, actuellement les gens ont plus confiance dans les FAI (fournisseurs d’accès internet) que dans les médias et les principales institutions politiques, sociales ou économiques (journaux, entreprises, gouvernements, etc.).

Mais si les technologies de recherche limitent la quantité et la diversité d’information en fonction des usages, des langues et de la localisation géographique, peut-on encore avoir confiance dans les résultats fournis par les moteurs de recherche ?
Comment les bibliothécaires et les éducateurs pourraient-ils désormais assurer aux étudiants et aux usagers qu’ils accèdent bien à l’information pertinente et non à celle que leur données agglomérées a permis à l’algorithme de trouver ? Dans ce cas de figure, « comment qualifier « la chance » (J’ai de la chance) ? Comment édifier des communautés fondées sur l’inattendu ? » Louis Zacharilla – Global Intelligent Community Forum.

Les gouvernements, même les plus démocratiques, filtrent de plus en plus l’accès à l’information en ligne sous prétexte de prévention du terrorisme ou de l’ »immoralité ».
Les bibliothèques se sont toujours opposées à la censure : a-t-on prévu des réponses adéquates à cette problématique ?
Si ces pratiques se développent, les bibliothèques pourront-elles mener à bien leurs mission de recueil et de préservation de la mémoire numérique ? Cross-language blog linking in the aftermath of the 2010 Haitian earthquake

Future Libraries : infinite possibilities – IFLA WLIC 2013 IFLA World Library and Information Congress – 79th IFLA General Conference and Assembly. – 17-23 August 2013, Singapore

Riding the Waves or Caught in the Tide? Navigating the Evolving Information Environment. – Insights frond the Trend Report – IFLA, 16/08/2013

Livre numérique, médiation et service de référence en ligne, droit d’auteur – Congrès IFLA Singapour 2013. – Bibliobsession, 30/08/13

Guillaud, Hubert. – Open data (1/3) : la technique a-t-elle pris le pas ? - Internet Actu, 12/07/13

Oxford Internet Institute – University of Oxford

Oxford Internet Survey (OxIS) 2013 Report Lauch

Intelligent Community Forum

Sur les MOOC et le e-learning
Voir le Scoop It ProspecBib : Formation en ligne & à distance

Sur l’open access et les archives ouvertes
Voir le Scoop It : Open Access Now !

Sur la société de surveillance et l’utilisation des données personnelles
voir le Scoop it : Big Brother, little sisters

Big data et web sémantique : une opportunité pour les profeessionnels de l’information

A propos du système Prism, François Géré de l’Institut d’Analyse Stratégique l’a reconnu dans Libération : « En France nous faisons la même chose que les Américains […] Toutefois, nous réduisons le périmètre aussi bien géographique (essentiellement en Europe et en Afrique) que sémantique (le nombre de mots-clés) ».
Mots-clés, métadonnées, web sémantique, les documentalistes se trouvent ici en terrain connu !

Avec les « Big data » et leurs réservoirs énormes de données, un champ immense s’ouvre aux professionnels de l’information, la sélection et la qualification des métadonnées qui leur sont attachées, autrement dit l’indexation.
Bien sûr, d’importants progrès ont été réalisés en indexation automatique et en traitement automatique du langage (TAL), et avec les masses de données textuelles que l’on peu traiter, des rapprochements de termes peuvent s’effectuer et produire des modèles de description, comme l’explique Nathalie Aussenac-Gilles dans Graphéméride. « Pour faciliter la recherche d’informations précises, de points de vue, d’opinions [… ] il est nécessaire de caractériser la nature des informations et des connaissances véhiculées par les contenus […] ne pas rester au niveau des mots, donc de passer au niveau des concepts ».

Avec le web sémantique (ou web de données ou ‘linked data’), « les données de toutes formes produites par tous les acteurs se trouvent interconnectées, identifiées sans ambiguïté et reliées les unes aux autres » Hervé Verdier, Directeur d’Etalab. En ‘typant’ ces données dans des ontologies, le web sémantique « met en place une indexation des pages web, mais aussi potentiellement des concepts absents du web dont une description sur le web est possible (personne, lieu, date, élément abstrait, objet physique » Pierre Couchet, « A quoi sert le Web sémantique en histoire et philosophie des sciences et des techniques » Semantic HPST

Ces nouveaux thesaurus linguistiques s’appuient sur des ‘triplets’ : sujet, prédicat et objet.
« Concrètement, un thésaurus relie des concepts entre eux selon des relations précises : synonyme, homonyme, hiérarchie, terme associé. L’ontologie ajoute des règles et des outils de comparaison sur et entre les termes, groupes de termes et relations : équivalence, symétrie, contraire, cardinalité, transitivité… Ainsi, l’ontologie est une étape supérieure au thésaurus selon l’ontology spectrum. » – Définir une ontologie avec OWL. – Les Petites Cases 11/11/05
En taggant par exemple un fichier contenant une photo, on pourra non seulement caractériser la photo, mais si ces mots-clés sont partagés, on pourra regrouper des photos similaires. Grâce à cette organisation des connaissances, on pourra classer une photo du Château de Versailles, rejetée comme « monument de Paris », si l’on a l’information que « Versailles est ‘Acôtéde’ Paris ou que Versailles et Paris sont deux villes ‘SituéeDans’ l’Ile de France » Nathalie Assenac-Gilles.

Bien sûr, ces langages OWL (Ontology Web Langage) demandent une bonne familiarité avec l’informatique (XML) et la logique, sans parler de connaissances linguistiques, mais les bibliothécaires/documentalistes ont tout à fait leur rôle à jouer dans la construction de ces bases de connaissances. L’exemple de l’ontologie du vin réalisée à Stanford, cité par le WC3, le montre : on retrouve des mots-clés, des caatégories, des propriétés et des noms de lieux.

Les professionnels de l’information qu’ils (elles) sont pourraient aussi bien construire ces bases de connaissances (en collaboration avec des informaticiens) que servir d’appui aux chercheurs pour qualifier les résultats de la recherche. La BNF l’a d’ailleurs bien compris avec la réalisation avec le projet « data.bnf.fr« web sémantique

Géré, François ; Hofnung, Thomas. – « En France, nous faisons la même chose ». Libération, 1er juillet 2013

Couchet, Pierre. – À quoi sert le web sémantique, en Histoire et Philosophie des Sciences et des Techniques ?. – Semantic HPST, 13/06/13

Fabien Gandon – Le web sémantique. – Graphemeride, 15/04/13

Le Web de données à la BnF : data.bnf.fr

Berners-Lee, Tim et al. – A Framework for Web Science. – Foundations and trends in web science, vol.1:n°1, 2006

Définir une ontologie avec OWL. – Les petites cases, 11/11/05

OWL Web Ontology Language Guide. – W3C, 10/02/04

Ontology of wines

Bachimont, Bruno. – Engagement sémantique et engagement ontologique : conception et réalisation d’ontologies en Ingénierie des connaissances.- INA, 2000 (pdf)

Le numérique, les bibliothèques, les big data et notre rapport au monde

Cette énumération à la Prévert peut sembler chaotique, mais elle révèle un certain malaise qui s’empare de nous devant la mutation des usages qu’implique le numérique dans notre vie quotidienne, et plus particulièrement dans les bibliothèques.
Cette réflexion m’est venue, en cette fin 2012 à la lecture de quelques posts décrivant la situation actuelle face au numérique.

D’abord l’enquête « Les Français et le savoir« , réalisée cet été par la TNS Sofres et cité dans « Veille documentaire » : le savoir est jugé important pour 56% des Français et 54% des personnes actives regrettent de ne pas y consacrer plus de temps … Quand à son utilité, pour 42% des interrogés, le savoir permet de « comprendre le monde qui nous entoure ».

Ce monde qui change si vite et dans des proportions si importantes qu’il peut en désarçonner certains, comme ces bibliothécaires dont parle Pierre Marige dans le dernier article d’Aka Reup « Numériquement incapables : stigmatisation et acculturation », ceux qui semblent « réfractaires à tout ce qui touche l’informatique », ceux qui déclarent, comme beaucoup de nos contemporains « Moi, de toute façon, j’y comprend rien ».
La stigmatisation qui découle de cette ignorance autoproclamée des nouvelles technologies est finement analysée et Marige démontre comment on passe d’un tri entre ‘intellectuels’ et ‘manuels’ à la différence entre ‘scientifiques’ et ‘littéraire’ pour finir avec les ‘connectés’ ou ‘digital natives’ et les vieux ‘incapables’. Pour finir par constater que ces jeunes nés avec l’internet sont en fait moins à l’aise qu’il n’y paraît avec le numérique … Et ont toujours besoin d’un bon médiateur pour trouver leurs références en bibliothèque …;-). La plupart de ces « digital natives », à part quelques ‘génies de l’informatique’ ne fait qu’utiliser ces nouveaux outils, ils n’en ont pas une connaissance approfondie. Tandis que les bibliothécaires, loin de simplement « s’adapter à ces nouvelles technologies, participent à leur création ». D’où l’importance de la formation continue dans le métier.

Dans la dernière livraison d’Internet Actu, Hubert Guillaud revient sur notre compréhension du monde avec l’arrivée des ‘big data’. Dans « De la statistique aux big data : ce qui change dans notre compréhension du monde« , il analyse l’intervention de Dominique Cardon sur ce sujet aux « Entretiens du nouveau monde industriel », les 17 et 18 décembre au Centre Pompidou.

Depuis quelques années, tout un chacun (militants, citoyens, entreprises, pouvoir publics) est d’accord pour « le partage et l’ouverture des données ». Tout le monde souhaite les rendre publiques. Mais ces précieuses données sont utilisées différemment suivant que l’on est journaliste, statisticien ou « data scientist ».
Alors que les statisticiens ont pour objectif de « dézoomer » ces informations pour comprendre la réalité sociale en la modélisant pour faire ressortir les corrélations entre catégories, le modèle des données ‘ouvertes’ « consiste à porter sur la place publique de la donnée ‘brute’ […] La plus proche possible du mythe d’une ‘nature sociale originale’ ». Le mouvement open data préfère les cartographies aux catégories et favorisent la personnalisation et l’individualisation. Les catégories sociologiques représentaient un monde désincarné, alors que l’univers des données parle à chacun de chacun. Ce décalage permet de mieux comprendre la crise des interprétations face aux nouveaux savoirs.

Un dernier post récapitule les nouvelles tendances du web en 2012. Il s’agit du : « [Best of 20012] Web : les 5 tendances majeures de l’année » sur FrenchWeb.fr .
Ces cinq grandes évolutions sont
– le boom de l’économie collaborative
– [H factor] le retour du facteur humain
– l’obsession des données et le quantified-self
– la déferlante des abonnements
– le real time bidding et les places d’Ad Exchange
Toutes ces informations devraient nous permettre de mieux méditer sur notre rapport au monde et au savoir pendant la trêve des confiseurs et mieux aborder l’année 2013 …

Bonnes Fêtes et Meilleurs voeux pour 2013

Pixel Perfect Digital – Free stock photos

Open data : la plate-forme gouvernementale est en ligne

Data.gouv.fr, la plate-forme française d’ouverture des données publiques (Open data) a été mise en ligne aujourd’hui (5 décembre 2011).
Les 500 ensembles prévus ont été répartis en 352 000 jeux de données publiques (division des statistiques de l’INSEE sur les 36 000 communes) à partir de 90 producteurs (essentiellement des ministères et des collectivités territoriales : budget, agriculture, environnement, assurance maladie, etc..).

La plate-forme est essentiellement moteur de recherche (recherche simple et recherche avancé) avec quelques suggestions de recherches.

Cette plate-forme a été mise en œuvre par etalab.gouv.fr, la Mission, sous l’autorité du Premier Ministre chargée de l’ouverture des données publiques. L’un des engagements forts d’Etalab était de proposer les données dans un format ouvert et réutilisable : la mission a pour cela publiée une « Licence Ouverte / Open Licence » en octobre 2011 qui facilite la réutilisation des données publiques mises à disposition gratuitement.

La plupart des données proposées étaient déjà accessibles, notamment sur les sites des ministères, mais un nombre important de jeux de données ont été améliorés, grâce à un effort de reformatage, ce qui fait que des données auparavant simplement consultables peuvent à présent être réutilisées.

Seule ombre au tableau de cette initiative d’ouverture : si la gratuité et l’absence de barrière juridique sont bien présentes, au niveau des formats, la plate-forme utilise encore des formats propriétaires, notamment ceux de Microsoft comme Excel, très peu sont en csv (comma-separated values) : format informatique ouvert représentant des données tabulaires sous forme de valeurs séparées par des virgules. (Wikipedia).

Mais, comme le souligne le site « Regards citoyens », l’ouverture de cette plate-forme n’est qu’une première étape : « si de nombreuses données pourraient encore être intégrées, cela ne sera possible que si un maximum de citoyens, d’associations, de journalistes, d’entreprises et d’universitaires s’emparent des données déjà existantes. ».

Data.gouv.fr

OpenData : La moyenne pour un data.gouv.fr sous formats propriétaires
Regards citoyens, 04/12/11

Data.gouv.fr : la France ouvre son portail de partage de données publiques
ZDNet.fr, 05/12/11

Data.gouv.fr : la plate-forme d’open data française est en ligne
Regards sur le numérique, par Arthur Jauffret, 05/12/11

France : data.gouv.fr, les données publiques en accès libre sur le web
RFI.fr , 05/12/11

Les bibliothèques de données, vers des hypercatalogues ?

Les grandes bibliothèques sont en train d’expérimenter un nouveau type de catalogue basé sur le web de données (souvent dénommé « web sémantique ») qui englobe les références des auteurs et de leurs oeuvres.

La BNF avec « data.bnf« , ainsi que l’Europeana, offrent cette nouvelle exploitation des métadonnées.
Si l’on fait par exemple une recherche sur Antonin Artaud sur data.bnf, on trouve sur la page du résultat, outre une biographie succincte du poète, l’ensemble de ses oeuvres entant qu’auteur, mais aussi toutes ses contributions, en tant qu’adaptateur, commentateur, compositeur, dessinateur, acteur, interprète, etc. (la vie du « Momo » était très diversifiée … !). Et ce, sur l’ensemble des ressources BNF (Catalogue général, Gallica, Archives et manuscrits, etc.). La page pointe aussi vers des ressources extérieures (Catalogue collectif de France, Europeana, SUDOC, OCLC), puis enfin vers l’article Antonin Artaud de Wikipedia.

Le Portail Europeana rassemble, quant à lui, toutes les données multimédias sur un auteur ou une oeuvre, recueillies auprès de bibliothèques, de musées, d’archives ou même de particuliers.
Sur le personnage de « James Bond« , on dispose de 25 textes, 80 images, 36 vidéos et 7 fichiers son. Mais si les images et les vidéos se rapportent bien à l’agent secret au service de Sa Gracieuse Majesté (personnage de fiction), près de la moitié des textes concerne les écrits d’un Pr James Bond (plutôt réel), expert en commerce international et développement durable ….
On touche là à la limite actuelle du web sémantique …;-(
Comme l’explique « La petite histoire du web sémantique », citant Tim Berners-Lee dans « La Recherche » en novembre 2007 : « Le terme sémantique prête un peu à confusion car la sémantique s’intéresse au sens du langage pour en déduire des constructions logiques. » En fait, le web sémantique ne cherche pas à réaliser des opérations d’intelligence artificielle basées sur le langage naturel, mais cherche simplement à relier des données entre elles. C’est l’idée du « Linked data » (qu’on peut traduire par « web de données ») qu’une machine ou un être humain pourrait explorer.

Le projet « Linked Open Data » auquel participe l’Europeana, repose sur l’ontologie Yago, une base de connaissance qui unifie le lexique sémantique WordNet et Wikipedia. Sa structure est fondée sur les relations (« signifie », « année de naissance », « a remporté le prix ») entre le sujet et ses attributs.
Exemple : « AlbertEinstein » année de naissance « 1879 » ou « AlbertEinstein » a remporté le « prix Nobel », etc..

Wikipedia est aussi à l’origine de la base de connaissance DBpedia. Cette initiative communautaire, soutenue par l’Université libre de Berlin et l’Université de Leipzig, a pour objectif d’extraire des informations structurées à partir des articles de Wikipedia, notamment sur les villes et les pays. On arrive ainsi à une base de données encyclopédique, où on peut utiliser de nombreux filtres pour sa requête. Exemple : « les scientifiques français nés au XIXe siècle ».
Mais gare aux homonymes, qui possèdent les mêmes nom et prénom (sans même une initiale ou un deuxième prénom), comme pour notre James Bond, l’erreur est au coin de l’ontologie …!

Staypressed theme by Themocracy