Posts tagged: Droit à la vie privée

Big data, open data, protection des données personnelles : où en sont la science et l’utilisation des données ?

Cloud hackingLes données sont partout, aussi bien dans la vie quotidienne que dans la recherche. Une nouvelle discipline, la science des données, mobilise des experts en mathématique et informatique pour analyser et traiter ce ‘pétrole’ du 21e siècle à coup d’algorithmes et de logiciels d’intelligence artificielle. Tout au long de la journée, des ‘bots’ (petits logiciels d’IA) et des objets connectés les recueillent grâce à des capteurs. On y accède librement, grâce aux dispositifs d’open data, que ce soit dans la ville intelligente (smart city) ou au niveau de la ‘science ouverte’. Les GAFA et autres géants du net se disputent nos données personnelles en investissant des milliards pour les exploiter. Quel droit et quelles réglementations doit-on mettre en place pour protéger ces données tout en profitant de ces nouvelles ressources ?

La science des données

La science des données (en anglais data science) est une nouvelle discipline qui s’appuie sur des outils mathématiques, de statistiques, d’informatique (cette science est principalement une « science des données numériques »4) et de visualisation des données. Le premier objectif du « data scientist » est de produire des méthodes (automatisées, autant que possible) de tri et d’analyse de données de masse et de sources plus ou moins complexes ou disjointes de données, afin d’en extraire des informations utiles ou potentiellement utiles. Pour cela, le « scientifique des données » s’appuie sur la fouille de données, les statistiques, le traitement du signal, diverses méthodes de référencement, l’apprentissage automatique et la visualisation de données. Il s’intéresse donc à la classification, au nettoyage, à l’exploration, à l’analyse et à la protection de bases de données plus ou moins interopérables. (Wikipedia).

Comme l’énonce Stéphane Mallat, dans sa leçon inaugurale pour la création d’une chaire Science des données au Collège de France, « cette discipline s’inscrit au cœur de la problématique scientifique : extraire de la connaissance des données empiriques qui se trouvent à la base de toutes les sciences. On est dans une évolution extraordinairement rapide qui inclut toutes les sciences qui viennent avec leurs propres données. »

Les deux principaux traitements sont la modélisation et la prédiction. L’enjeu en est la généralisation. Dans ce domaine, l’informatique a une avance considérable sur les mathématiques. Elle permet à partir d’un exemple qu’on connaît, d’extrapoler pour les exemples qu’on ne connaît pas. Elle s’appuie sur un très grand nombre de variables (ex : millions de pixels dans une image). 800x-1

En ce qui concerne la gestion des données scientifiques, les professionnels de l’information, dans les bibliothèques de recherche par exemple, peuvent être de précieux collaborateurs pour les chercheurs. Comme le soulignent Ayoung Yoon et Theresa Schulz dans leur article du College & Research Libraries « les bibliothèques universitaires se sont activement impliquées dans les services des données de la recherche : des services qui portent sur l’ensemble du cycle de vie des données comprenant le plan de gestion, la curation numérique (sélection, conservation, maintenance et archivage), la création de métadonnées et la conversion. ». Un nouveau service, le TDM ‘Text and Data Mining’ (fouille automatique de texte et de données) a pu être récemment être ajouté grâce à une série d’amendements au droit d’auteur en France, mais aussi au Royaume Uni.

Les données numériques et la « ville intelligente »

Dans la ‘smart city’, le recueil et le traitement des données devraient permettre aux citoyens de bénéficier de services sur mesure. A Toronto, une filiale de Google est en train d’édifier une métropole futuriste dans un quartier défavorisé au bord du lac Ontario. Comme le rappelle Ian Austen dans le New York Times fin décembre « le Premier ministre canadien, Justin Trudeau a promis que ce projet créerait ‘des technologies qui nous aideraient à construire des communautés plus intelligentes, plus vertes et plus inclusives ». Mais pour certains résidents cet enthousiasme doit être tempéré surtout quand il s’agit d’une entreprise connue pour sa collecte et analyse des données. Le projet Quayside sera chargé de capteurs et de caméras de surveillance qui traqueront tous ceux qui habitent, travaillent ou simplement passent dans le quartier. La masse de données recueillie permettra de mieux organiser et définir les besoins de la future ville, que la société appelle d’ailleurs une ‘plateforme’. L’électricité sera fournie par des mini-réseaux de voisinage, basés sur des énergies renouvelables. D’immenses auvents protègeront de la pluie et du soleil d’été et des allées chauffées feront fondre la neige l’hiver ! 271607011737Bigdata

Mais les capteurs dans les bâtiments pourront mesurer le bruit dans les appartements tandis que les caméras et les capteurs extérieurs surveilleront aussi bien la pollution de l’air que le mouvement des personnes et des véhicules dans les carrefours … Comme le fait remarquer Pamela Robinson, professeur de planification urbaine à l’université Ryerson de Toronto « les données vont être recueillies par une entreprise privée et non par une collectivité administrative. Pour le moment rien n’a été annoncé sur qui en aura la propriété ni qui y aura accès. » De même, si Quayside promet des logements à tous les niveaux de revenus, pour le moment la seule entreprise qui a prévu de s’y installer est Google Canada, donc plutôt des jeunes cadres bien payés … D’après cette chercheuse, les données collectées pourraient être utilisées pour limiter ou décourager l’usage, par ailleurs légitime, des espaces publics par des sans-logis, des jeunes ou d’autres groupes …

Bernard Stiegler qui intervenait dans la Cité du Futur, conférence de Maddyness, déclarait « Pour faire des villes intelligentes, essayons d’être intelligent. La nouvelle urbanité, c’est la ville désautomatisée, car la ville automatisée détruit les relations de voisinage ». Citant l’expérience de Plaine Commune (Communauté de 9 communes de Seine Saint-Denis) où il est personnellement impliqué mais aussi des entreprises comme Vinci, Orange et la Caisse des Dépôts, le philosophe a expliqué que cela implique de savoir utiliser ces technologies innovantes avec la population de Seine Saint-Denis pour qu’elle y prenne part, notamment à travers un programme d’économie contributive.

images_villeC’est aussi le point de vue de Florence Durand-Tornare, fondatrice et déléguée générale de l’association Villes Internet dans l’article de Martine Courgnaud-Del Ry dans la Gazette des communes : « Plus de trente « Villes Internet » (hors métropoles) décrivent, parfois depuis longtemps, des dispositifs de mise à disposition de données informatives, techniques, juridiques ou statistiques. Ce qui me paraît significatif, c’est qu’elles ouvrent avant tout des données utiles au citoyen, et pas uniquement celles qui sont attendues par les grands opérateurs dans les zones hyper-urbaines — essentiellement relatives au transport ou à la gestion de l’énergie… Nous remarquons aussi que l’ouverture des données est l’occasion d’organiser des dispositifs participatifs avec les citoyens, qui contribuent parfois activement à choisir les applications utiles aux résidents que la donnée permet de produire. »

L’adoption du RGPD et la polémique sur la ‘patrimonialisation’ des données personnelles

L’Assemblée nationale examine en ce moment le projet de loi sur la protection des données personnelles « qui adapte notre droit au nouveau cadre juridique européen, composé d’une part, du règlement général de la protection des données (RGPD) et d’autre part de la directive sur les fichiers de police et de justice, qui entreront tous deux en vigueur en mai 2018. ». Ce règlement fixe de nouvelles obligations à toute entreprise exploitant des données : droit de portabilité d’un opérateur à l’autre, droit d’effacement et surtout, consentement explicite.

Une controverse vient de se développer dans la presse après une interview Gaspard Koenig dans Les Echos évoquant le Rapport du mouvement Génération libre vantant les mérites de la commercialisation des données personnelles. Pour G. Koenig « si la data est bien cet « or noir » du 21ème siècle, il n’y a pas de raison de ne pas payer les producteurs – nous – sans laisser aux raffineurs (les agrégateurs et les plates-formes) l’intégralité des revenus liés à l’exploitation des data. » Pour ce philosophe libéral, il y a trois options pour gérer l’accès aux données : mettre en place une « sorte d’agence nationale chargée de mettre des data encryptées à la disposition des entreprises », créer, comme la CNIL et la Commission européenne, des « droits pour les citoyens et des obligations pour les entreprises, avec le risque de judiciarisation excessive de l’économie digitale et d’étouffer l’innovation ». La troisième option qu’il privilégie et « qui peut s’articuler à la précédente, est la patrimonialité des données pour permettre aux entreprises de se les approprier après avoir justement rémunéré les citoyens. ». Cette transaction se ferait à travers « un système de ‘nanopaiements’ qui viendraient créditer ou débiter en continu un compte digital personnel ». Ceux qui refuseraient de céder leurs données seraient obligés de payer les services numériques. Cette idée a été reprise dans une tribune du Monde prônant la ‘monétisation de nos données’, signée par plusieurs personnalités (Bruno Bonnell, Laurence Parisot, Alexandre Jardin, Gaspard Koenig). claire-sambuc-juriste-tariq

Cette « fausse bonne idée » comme la définissent Serge Abiteboul et Gilles Dowek dans une tribune dans le Monde, a été immédiatement attaquée par un grand nombre de chercheurs et de juristes dans la presse et sur les réseaux sociaux. Pour ces deux chercheurs « Le cas des données numériques est cependant un peu plus complexe que celle de des champs d’orge ou de blé, car qui cultive les données ? Ceux qui les produisent (vous et moi, les géants du Web, les hôtels…), ou ceux qui les entassent et les analysent pour en tirer du profit (ni vous et moi) ? ». Et même une fois la propriété établie, comment les internautes seront-ils assurés que le contrat ne soit pas léonin (accès au service contre ‘open bar’ pour les géants du Net) ? De plus, il n’est pas sûr que ces entreprises soient vraiment intéressées par nos données personnelles, vu qu’à travers le ‘crowdsourcing’, un grand nombre d’internautes produisent déjà du travail sur les données pour une très faibles rémunération. Mais surtout les données personnelles sont avant tout sociales : elles résultent des interactions des internautes entre eux ou avec des entreprises ou  institutions (mails, commentaires, profils, etc.). Tristan Nitot dans son post sur Standblog, reprenant la comparaison avec la vente d’un rein, rappelle que déjà le CNNum estimait que « l’introduction d’un système patrimonial pour les données personnelles est une proposition dangereuse ». Comme il est interdit de faire commerce de ses organes (‘indisponibilité’ ou ‘non patrimonialité’ du corps humain), on ne peut séparer  l’individu de ses données personnelles, ça serait en faire un objet qu’on peut commercialiser « permettre la patrimonialisation c’est — métaphoriquement — permettre de revendre par appartements son moi numérique, c’est faire commerce de son corps numérique, en quelque sorte, ce qui est interdit en France pour son corps physique, au nom de la dignité humaine. ». De plus, il sera très difficile à un individu de se faire payer vu les difficultés qu’a le fisc à faire payer les GAFA … Le rapport de force ne sera pas du tout en sa faveur …

indexUne autre position est celle développée par l’essayiste Evgeni Morozov dans l’émission Soft Power citée par Calimaq dans son post fin octobre. Plutôt que la défense individuelle de la vie privée, Morozov propose de faire des données personnelles un ‘bien public’ et de les faire relever du ‘domaine public’. Il ne pense pas « qu’on puisse régler tous les problèmes que posent les géants du net en utilisant les outils traditionnels de régulation du marché, c’est-à-dire en leur faisant payer des taxes et en mettant en place des lois anti-trust ». Il préconise même d’accélérer le processus d’automatisation et d’analyse des données, car tout n’est pas négatif. Si les cancers pourront bientôt être dépistés grâce aux données, cela ne devrait pas se faire en donnant autant de pouvoir à des entreprises de la Silicon Valley ! Un système dans lequel les données appartiennent à la communauté permet à tout un chacun de se saisir de ces données pour en faire quelque chose, même au niveau local. E. Morozov préconise « un système hybride empruntant à la fois des éléments à la domanialité publique et à la propriété intellectuelle, tout en s’inspirant de certains mécanismes des licences libres ».

Cette hybridation entre protection personnelle et usage collectif se retrouve dans le point de vue du sociologue Antonio Casilli qui défend dans un article du Monde avec Paola Tubaro, l’idée que « la défense de nos informations personnelles ne doit pas exclure celle des travailleurs de la donnée ». Pour ces chercheurs « Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès. ». C’est pourquoi plutôt que la protection individuelle des données, Casilli et Tubaro défendent une négociation collective contre des services. Lionel Maurel et Laura Aufère développent cette approche dans un post très détaillé de S.I.Lex.  Ces chercheurs prônent une protection sociale au sens large du terme, car « si les données sont produites dans le cadre d’activités assimilables à de nouvelles formes de travail, alors ce sont des mécanismes de protection sociale enracinés dans le droit social qu’il convient de déployer pour garantir les droits des personnes. ». Ils préconisent de se doter de moyens adéquats pour engager ces négociations dont les termes restent encore dictés par le cadre imposé par les plateformes. Dans cet article, repris d’ailleurs par Libération, les chercheurs dessinent les contours de ce nouveau droit social du 21e s. Jusqu’à présent, la protection des données était restreinte au niveau individuel. Comme le soulignent la juriste Antoinette Rouvroy et Valérie Peugeot de l’association Vecam, que ce soit pour l’obligation de consentement que pour la portabilité des données, aussi bien la CNIL que le RGPD se concentrent trop sur le niveau individuel. D’où l’importance de « mobiliser un nouvel imaginaire pour construire un cadre de négociation collectives sur les données ». th-300x1000-rgpd.jpg

Rochfeld, Judith ; Farchy, Joëlle ; Forteza, Paula ; Peugeot, Valérie. - « Les internautes réclament un usage moins opaque et une maîtrise de leurs données personnelles ». Tribune. – Le Monde, 07/02/18

Loi données personnelles : dans l’apathie des débats, une envolée néo-libérale absurde ! - La Quadrature du Net, 07/02/18

Courgnaud-Del Ry, Martine. – Des services numériques communs émergent enfin sur tout le territoire. – Gazette des communes, 07/02/18

Guillaud, Hubert. – Pourquoi mes données personnelles ne peuvent pas être à vendre ! – Internet Actu, 06/02/18

Données personnelles : le projet de loi qui va mieux nous protéger. – La Dépêche, 06/02/18

Assemblée nationale. – Société : protection des données personnelles – Projet de loi déposé le 13 décembre 2017- discussion 06-08/02/18/Paula Forteza, Rapporteure.

Wiggleworth, Robert (FT). – Big data : les données numériques peuvent-elles révolutionner l’action politique ? – Nouvel Economiste, 06/02/18

Collectif. – Nos « données personnelles » nous appartiennent : monétisons-les ! - Le Monde, 05/02/18

Casilli, Antonio ; Jeanticou, Romain.  – La domination des géants du numérique est-elle un nouveau colonialisme ? Entretien. – Télérama, 05/02/18

Abiteboul, Serge ; Dowek, Gilles. – « La propriété des données est une fausse bonne idée ». – Le Monde, 05/02/18

Maurel, Lionel ; Aufrère, Laura. – Pour une protection sociale des données personnelles. – S.I.Lex, 05/02/18

Nitot, Tristan. – Données personnelles et droit de vendre des organes humains. – Standblog, 02/02/18

Lévêque, Rémy. – « Facebook nous prend en otage ». – Usbek & Rica, 02/02/18

Parapadapis, George. – RGPD, de l’incertitude aux solutions pratiques. – Informatique News, 31/01/18

Revendre ses données « personnelles », la fausse bonne idée. – Mais où va le web ?, 29/01/18

Ertzscheid, Olivier. – Faut pas prendre les usagers des GAFAM pour des datas sauvages. – Affordance.info, 28/01/18

Pour une patrimonialité des données : Rapport. – Mes data sont à moi/Collectif data. – Génération libre.eu, 25/01/18

Naughton, John. – Who’s doing Google and Facebook dirty work?- The Guardian, 24/01/18

Casilli, Antonio ; Tubaro, Paola. – La vie privée des travailleurs de la donnée (Le Monde, 22/01/18) – Antonio A. Casilli

Mallat, Stéphane. – Sciences des données : leçon inaugurale (vidéo). – Collège de France, 11/01/18

Schmitt, Fabienne ; Madelaine, Nicolas. – Gaspard Koenig : « Chaque citoyen doit pouvoir vendre ses données personnelles ». – Les Echos, 07/01/18

Rey, Olivier ; Rouvroy, Antoinette. – Données, savoir et pouvoir (Table ronde). – PhiloInfo, décembre 2017 (vidéo).

Austen, Ian. – City of the Future? Humans, not technology, are the challenge in Toronto. – The New York Times, 29/12/17

Calimaq (Lionel Maurel). – Evgeni Morozov et le « domaine public » des données personnelles. – S.I.Lex, 29/10/17

 

Intelligence artificielle : quels impacts sur l’économie et la société ?

IALes progrès de la recherche en intelligence artificielle en ont fait un sujet incontournable des tendances de la décennie actuelle. Annoncées depuis les années 1960, les avancées dans cette discipline complexe se sont confirmées depuis les années 2000, grâce, notamment, au ‘machine learning’ (apprentissage automatique : les machines ‘apprennent’ à partir des jeux de données qui leur sont proposés) et à son dernier développement le ‘deep learning’ qui s’appuie sur les ‘réseaux de neurones’ : des algorithmes de machine learning sont utilisés pour entraîner les couches profondes de réseaux de neurones. Plutôt que de modéliser de vastes quantités d’information (ex : calculer tous les coups possibles dans une partie d’échec), les réseaux de neurones apprennent tout seuls en digérant des millions de données (Maddyness). Combinés avec des mégadonnées (big data), ces intelligences artificielles réalisent des opérations et des actions qui dépassent en rapidité et en pertinence les actions humaines. Cela explique le succès de ces technologies cognitives au Web Summit de Lisbonne en novembre dernier où robots et véhicules autonomes ont joué les vedettes.

Les exemples des récents succès de l’automatisation et de l’IA se multiplient : les taxis autonomes, comme Lyft à Boston ; la prévention des suicides grâce à leur détection sur les messages Facebook, la prédiction (réussie) de la personne de l’année au magazine Time, la découverte de nouvelles exoplanètes dans un partenariat Google-NASA, etc. Comme le souligne Olivier Ezratty dans son post, l’intelligence artificielle n’est pas un produit. Il n’y a pas de logiciels d’intelligence artificielle mais des solutions d’intelligence artificielle très variées qui s’appuient sur plusieurs dizaines de briques logicielles différentes qui vont de la captation des sens, notamment audio et visuels, à l’interprétation des informations, au traitement du langage et à l’exploitation de grandes bases de données et de connaissances structurées ou non structurées.

Combinée avec une voix de synthèse, Chaï, une application d’intelligence artificielle permet d’écouter sur son téléphone mobile la suite d’un livre papier à l’endroit exact où l’on s’est arrêté. Cette application convient plus à un documentaire qu’à un ouvrage de fiction. Idéal pour réviser ses cours dans les transports en commun ! Les fichiers audios comportent des dictionnaires qui enrichissent le texte, en transformant par exemple les sigles et acronymes en termes développés. Et comme le confirme Alexis Botaya, qui présentait ce produit au salon HumainxMachines, aucun problème de droit d’auteur en raison d’un accord avec les éditeurs : le traitement s’effectuant à partir du fichier de l’ouvrage avant son impression et le client doit avoir acheté le livre papier.

Au Japon, l’entreprise Tasei se propose de lutter contre le surmenage de ses employés en leur envoyant des drones bourdonner autour d’eux et leur jouer « Auld Lang Syne », la chanson écossaise qui signale au Japon la fermeture des magasins … Comme l’explique Nelly Lesage dans Numérama, les Japonais peuvent effectuer plus de 80h d’heures supplémentaires par mois ! Le modèle T-Frend est doté d’une caméra qui surveille le comportement des employés et se déclenche quand ils dépassent les horaires. Pour une fois, la surveillance est utilisée pour le bien-être des travailleurs !

En Chine, la reconnaissance faciale est généralisée dans la vie quotidienne et le piéton qui traverse au feu rouge est vite repéré et sa photo affichée au carrefour ! Comme l’explique Leng Biao, professeur de vision informatique à Pékin, cité dans l’article du Monde, « L’important ce sont les algorithmes. Quand il s’agit de reconnaitre une personne dont on a la photo, la reconnaissance faciale est très fiable, on trouve même des logiciels gratuits sur internet ». Et comme en Chine les gens sont moins préoccupés des questions de vie privée, cette méthode est bien acceptée…   1486620188464

Ces performances se sont multipliées depuis une quinzaine d’années et ne manquent pas de soulever controverses et inquiétudes aussi bien parmi les scientifiques et géants du net (Stephen Hawking, Elon Musk et Bill Gates) que dans le grand public. Laurent Alexandre, le chirurgien et homme d’affaire, voudrait au contraire, « casser la gueule à l’Europe pour avancer ». Comme le souligne Pierre Cheminade dans la Tribune, pour le créateur de Doctissimo l’Europe a déjà perdu la bataille du numérique et « que pour ne pas perdre la guerre et sortir d’une situation de « colonie numérique sans souveraineté », la France doit renforcer la recherche en intelligence artificielle et supprimer la protection des données personnelles. ».

Ces préoccupations autant éthiques que réglementaires ont amené le gouvernement français à confier au mathématicien et député Cédric Villani, une mission sur ce sujet, accompagnée d’une consultation publique. Au niveau européen, Margarethe Vestager, commissaire européenne à la concurrence, est intervenue au Web Summit pour affirmer que le marché unique européen n’a pas vocation à être régi par « la loi de la jungle, mais par la démocratie à l’œuvre, pour le respect de la concurrence au service de l’innovation » .

 

Les principaux secteurs impactés   Un-groupe-de-recherche-créé-pour-encadrer-lintelligence-artificielle-des-robots

De nombreux secteurs et services sont déjà ou seront bientôt touchés par ces innovations technologiques, et ce à différents niveaux.

  • Les transports avec les véhicules autonomes
  • La santé avec des programmes de détection de maladies (cancers)
  • La relation client avec l’utilisation d’agents conversationnels et de traitement automatique de courrier électronique
  • La sécurité avec la reconnaissance faciale et les technologies de vision artificielle
  • L’urbanisme avec la ville connectée (smart city)

L’enseignement, la psychothérapie, le journalisme, la politique et même la littérature pourraient être touchés par cette vague d’automatisation. Mais pour le moment toutes les professions ‘créatives’ sont relativement épargnées.

Des informations contradictoires sur les conséquences socio-économiques et l’emploi de l’automatisation de l’industrie et des services se multiplient sans s’annuler pour autant … Nelly Lesage dans son article de Numerama évoque « un rapport du cabinet McKinsey & Cie qui estime que 800 millions de travailleurs perdront leur emploi d’ici 2030, en raison de l’automatisation ». Cette « invasion des robots » touchera surtout les pays les plus avancés, comme l’Allemagne et les Etats-Unis. Les métiers impliquant une interaction humaine, comme les médecins, les avocats, les enseignants et les barmen, devraient, quant à eux être préservés. La vidéo publiée dans le Monde « Serons-nous un jour remplacés par des intelligences artificielles » cite une étude du cabinet Roland Berger de 2014 qui prévoit que 3 millions d’emplois pourraient disparaître d’ici 2025 à cause des intelligences artificielles ! Et les métiers engendrés en retour par le secteur robotique ne compenseront pas ces disparitions. Plus préoccupant encore, ces mesures ne se limitent pas aux métiers simples et répétitifs … Dans son article de l’Usine digitale, Christophe Bys, en revanche, cite une étude internationale de Cap Gemini selon laquelle « les entreprises qui ont recours à l’intelligence artificielle n’ont majoritairement pas détruit d’emplois. Elles en ont même créé. ». Toutefois cette étude qui relativise l’impact de l’IA porte sur un périmètre restreint d’entreprises (dont le chiffre d’affaire est supérieur à 500 millions de dollars). Les pays européens (France, Espagne, Pays-Bas) ont déployé moins d’initiatives IA que l’Inde ou l’Australie …

C’est aussi le point de vue de Bertrand Diard, président de Tech in France, dans son interview dans la Croix « La robotisation dans l’industrie n’a pas réduit le volume d’emplois. Ce qui l’a fait, ce sont les délocalisations vers la Chine. L’Allemagne, qui est très robotisée, a créé de la richesse et de l’emploi industriel, alors que la France, dans le même temps, en a perdu. » De nouveaux métiers devraient émerger autour de ces nouvelles technologies et il faut développer la formation des travailleurs qui pourraient ainsi s’adonner à des tâches plus intéressantes. Alain Guillemolles a interviewé dans le même article Romain Guers, délégué syndical au Crédit Mutuel. Cette banque a adopté Watson, l’agent intelligent d’IBM (ce chatbot est aussi en fonction chez Orange et Bouygue Telecom) pour l’assister dans le traitement des données de la relation clients : « il n’est pas question de remplacer les conseillers bancaires par des robots. […] l’outil ‘intelligent’ aide les chargés de clientèle à trier le courrier en fonction des priorités exprimées par les clients. De plus, ils ont accès à un « assistant » qui peut répondre à certaines demandes d’information en épargne et assurance. Mais le conseiller commercial reste le pivot de la relation avec le client. ». Là aussi, la mise en place de l’outil IA n’a pas eu d’impact sur l’emploi. Pour le moment, car les outils intelligents apprennent très vite …

On retrouve ici les deux conceptions de l’IA : d’une part, l’IA comme assistant de l’humain qui permet de réaliser l’’homme augmenté’, doté de sortes de prothèses technologiques ; d’autre part, l’IA autonome qui arriverait à une sorte de ‘conscience’ !

cover-MIT-600x399Dans la recherche médicale, en revanche, l’outil intelligent n’est pas encore vraiment fiable. Watson devait permettre aux soignants « de passer moins de temps sur la littérature et plus de temps pour prendre soin des patients ». Comme le souligne Jean-Yves Paillé dans la Tribune, « L’IA destinée à trouver des solutions afin de personnaliser les traitements en cancérologie est pour le moment décevante, en particulier dans les diagnostics ». Le système souffre d’un certain nombre de biais : d’abord dans les publications scientifiques : sur 700 000 articles publiés par an en médecine, de nombreuses publications n’ont pas de valeur. « La machine n’est pas capable aujourd’hui de faire la différence entre ce qui ne vaut rien et un article intéressant » comme l’analyse Guy Vallencien dans

« La médecine sans médecin » cité dans l’article. De plus près de 2% des scientifiques admettent « avoir fabriqué, falsifié ou modifié des données ou des résultats au moins une fois. » « jusqu’à 33,7% ont avoué d’autres pratiques de recherche douteuses » d’après l’étude de Plos One.  Mais aussi l’intelligence artificielle s’appuie sur des données médicales spécifiques aux protocoles de soins des Etats-Unis et aurait du mal à s’adapter aux méthodes de différents pays où les protocoles peuvent différer … « L’IA ne peut pas être plus neutre et performantes que les données dont elle dispose ».

Ethique et réglementation

L’éthique fait partie des principaux axes définis par la mission Villani et concerne de nombreux aspects du déploiement de ces technologies. Aux États-Unis, les géants du numérique, Google, Apple, Facebook, Amazon, Microsoft, IBM ainsi que de nombreux chercheurs s’engagent pour développer une intelligence artificielle responsable et éthique. Le Partnership on AI to benefit people and society (Partenariat sur l’IA au service des citoyens et de la société), organisation à but non lucratif, a pour objectif la compréhension du public sur l’IA et la définition de meilleures pratiques dans ce domaine.

Au Québec, le préambule de la Déclaration de Montréal a été dévoilé en clôture du Forum sur le développement socialement responsable de l’intelligence artificielle le 3 novembre. Portant sur les thèmes de la cybersécurité, la responsabilité légale, la psychologie morale, le marché du travail, le système de santé et la ville intelligente, le Forum a comme ambition la ‘coconstruction’ entre le public, les experts et les pouvoirs publics. Comme l’a déclaré Guy Breton, recteur de l’UdM « Les avancées de l’intelligence artificielle toucheront progressivement tous les secteurs de la société et nous devons poser, dès maintenant, les balises qui encadreront son développement afin qu’il soit conforme à nos valeurs et porteur d’un véritable progrès social.» Les-rendez-vous-du-numérique-et-du-développement-commercial

En France, la CNIL dans son rapport des enjeux éthiques des algorithmes et de l’intelligence artificielle, présenté le 15 décembre, réaffirme deux principes fondateurs et préconise six recommandations opérationnelles pour permette à l’Homme de garder la main. Tout d’abord, le principe de loyauté : l’intérêt de l’utilisateur doit primer ; un principe de vigilance/réflexivité ensuite en organisant « un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants ». Ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique.

Parmi les recommandations : former à l’éthique tous les acteurs-maillons de la ‘chaîne algorithmique’ ; rendre les systèmes algorithmiques compréhensibles ; encourager la recherche sur l’IA éthique ; renforcer la fonction éthique au sein des entreprises. Comme le dit Isabelle Falque-Pierrotin, Présidente de la CNIL « L’objectif de ce débat est de garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle ».

Alexandra Yeh évoque dans son compte-rendu de la Conférence Nouvelles pratiques du journalisme de l’Ecole de Journalisme de Sciences Po, la proposition de Dominique Cardon pour une ‘éducation des algorithmes’. Comme on s’en est rendu compte dans les années 1980, les tentatives de programmer les machines à raisonner comme des humains avec des règles et des systèmes de décisions logiques sont vouées à l’échec. L’humain n’est pas un être pleinement rationnel et ses décisions dépendent souvent de facteurs imprévisibles (contextes, affects, sensibilité). Il faut donc « apprendre aux machines à analyser nos comportements plutôt que nos représentations ». Pour Dominique Cardon « nous devons réfléchir à la façon dont voulons éduquer les algorithmes ». Car nous sommes responsables des biais de l’IA (cf le cas des IA racistes).

Avec l’automatisation, les dilemmes moraux vont se multiplier : en plus de gérer les actions accidentelles ou intentionnelles de leurs inventions, les chercheurs en AI devront faire face à de tels dilemmes. Par exemple, face à une situation de danger, l’IA de la voiture autonome devra décider qui épargner en cas d’accident : une femme enceinte ou un homme âgé ; renverser un enfant ou deux adultes ? En fait, décider lesquels d’entre nous devront vivre ou mourir …  Jean-François Bonnefons, professeur à la Toulouse School of Economics, explore ces dilemmes avec le projet Moral Machine qui « confronte les internautes à ce genre de situations pour leur demander de trancher, a déjà recueilli 40 millions de décisions ». Ce programme permet d’identifier les critères pesant dans la décision, les variations selon le type de personne (genre, âge, CSP, nationalité) et les différences culturelles et géographiques. Si les choix moraux sont relativement homogènes (sauver les humains plutôt que les animaux ), les résultats montrent qu’il n’existe pas de règle d’éthique totalement universelle, même si des convergences locales existent dans le monde …

A l’instar des avancées de l’intelligence artificielle, les préoccupations éthiques et politiques à ce sujet sont un « work in progress ». Nous aurons l’occasion d’y revenir à l’avenir.

data-672x372Bonnes fêtes et meilleurs vœux pour 2018

Pour aller plus loin

L’intelligence artificielle, quelles conséquences pour l’emploi. – Les Numériques – Dossier, 17/12/17

Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. – CNIL, 15 décembre, 2017

Cheminade, Pierre. – Laurent Alexandre : « La France a perdu sa souveraineté numérique ». – La Tribune, 13/12/17

Georges, Benoît. – Ce que les Français attendent de l’intelligence artificielle. Les Échos, 12/12/17

Paillé, Jean-Yves. – Dans la santé, Watson, l’IA d’IBM, doit encore faire ses preuves.La Tribune, 08/12/17

Simonite, Tom. – Artificial Intelligence seeks an Ethical Conscience. – Wired, 12/07/17

Lausson, Julien. – Intelligence artificielle : la Mission Villani vous demande votre avis. – Numérama, 07/12/17

Tisseron, Serge. - IA, robots qui parlent et robots sous influence.InaGlobal, 06/12/17

Yeh, Alexandra. – IA et journalisme : quelle éthique ?Meta-media, 05/12/17

#NPDJ Les nouvelles pratiques du journalisme 2017. – École de journalisme de Sciences Po, 04/12/17

Lesage, Nelly. – Un rapport estime que les robots vont prendre 800 millions d’emplois d’ici 2030. – Numérama, 30/11/12

2067, des robots dans la ville/Usbek & Rica. – Inriality, 28/11/17

Kiefer, Bertrand ; Navaris, Sophie. – « La médecine, le dernier lieu où l’on peut exprimer sa sensibilité » Entretien. – Tribune de Genève, 25/11/17

Maignan, Iris. – #Étude : les Français, pas (du tout) prêts pour l’intelligence artificielle. – Maddyness, 25/11/17

Web Summit 2017 à Lisbonne : que retenir du Davos de la Tech ? - FrenchWeb, 16/11/17

Guillemoles, Alain. - Watson mène la révolution de l’intelligence artificielle. – La Croix, 13/11/17

Deluzarche, Céline. – #IA : Deep learning, le grand trou de l’intelligence artificielle. – Maddyness, 13/11/17

Quel sera l’impact de l’intelligence artificielle sur l’emploi. – La Croix, 13/11/17

Piquard, Alexandre. – L’intelligence artificielle, star inquiétante du Web Summit à Lisbonne. – Le Monde, 10/11/17

Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. – Université de Montréal, 03/11/17

Gavois, Sébastien. – Intelligence artificielle : enjeux économiques et cadres légaux s’invitent au Sénat. – NextInpact, 26/10/17

Ezratty, Olivier. – Les usages de l’intelligence artificielle. – Opinions libres, 19/10/17. – E-book téléchargeable.

Intelligence artificielle, une nouvelle mission confiée à France Stratégie. – France Stratégie – Premier Ministre,16/10/17

Yann Le Cun ; « Aujourd’hui, Facebook est entièrement construit autour de l’intelligence artificielle » Entretien. – Le Monde, 03/10/17 – vidéo.

Surveillance : le tour de vis occidental

fingerprint with bar codeOn assiste, depuis quelques semaines, au renforcement de la surveillance de masse en Europe et dans les pays occidentaux. La vague d’attentats et le repli sécuritaire qui touche les démocraties pourraient expliquer ce phénomène.

En France, après le vote de la loi Renseignement en juillet 2015, nous avons eu début novembre l’annonce de la création du fichier TES qui devrait rassembler dans une seule base de données « les informations personnelles et biométriques de la quasi-totalité de la population » (Numérama).  Au Royaume Uni, le nouveau projet de loi sur le renseignement Investigatory Powers Act « qui marque un durcissement de la surveillance et légalise des pratiques déjà exercées en dehors de tout cadre juridique par les services de renseignement » (Le Monde). Avec cette loi, un certain nombre d’institutions et d’organismes britanniques – finances publiques, Agence de l’alimentation, Commission des paris, services de santé – en plus des services de police et de renseignement de tout le Royaume, pourra avoir accès à toutes les connections et enregistrements internet des citoyens et résidents en Grande-Bretagne (Independent).

Outre-Atlantique, la situation est aussi inquiétante : aux Etats-Unis, le FBI a passé un accord avec la société Dataminr pour accéder en temps réel aux 500 millions de publications quotidiennes de Twitter. Comme on le lit dans Les Echos, « Ce spécialiste du croisement des données (data mining) permet à ses clients (médias, banques, fonds d’investissements) d’obtenir des informations liées aux menaces terroristes, aux troubles sociaux et politiques etc.. ».  Après la victoire de Trump, la messagerie sécurisée Signal, a con a connu une augmentation de 400% de téléchargement comme le souligne Buzz Feed News. Le site Intercept a aussi interrogé les multinationales de l’internet pour savoir si elles étaient prêtes à collaborer pour mettre en place le « fichier des musulmans » préconisé par Trump : seul Twitter a refusé cette collaboration …

Et le Monde vient de révéler, suite aux derniers documents publiés par Snowden, que les smartphones des passagers d’Air France étaient espionnés en plein vol au profit de la NSA ou du GCHQ (services secrets britanniques) …

Au Québec, les services de police de la Ville de Montréal mettent sur écoute des journalistes comme Patrick Lagacé de la Presse, informe le blog Veille pour un(e) bibliothécaire engagé(e)Security camera

Néanmoins, un certain nombre d’institutions et d’organismes réagissent à ce tour de vis.

En France, le Conseil national du Numérique et la Cnil se montrent réservés vis-à-vis du Fichier TES. Le CNNum a carrément demandé la suspension de ce fichage généralisé de la totalité des Français …

Au niveau de l’Union européenne, une eurodéputée néerlandaise a attaqué devant le Conseil d’Etat la loi sur la surveillance internationale des communications électroniques, qui complète la loi sur le renseignement. « Sophie In’t Veld du groupe libéral ADLE a décidé de déposer 2 recours devant le Conseil d’Etat pour contester l’une de ces lois » écrit Julien Lausson dans Numérama.

Comment en est-on arrivé là ?

Nous avions évoqué les systèmes de surveillance massive dans des posts précédents, notamment l’intrusion de la NSA dans les communications électroniques, mais depuis la vague d’attentats en France et la mise en place de l’état d’urgence, un certain nombre de mesures de sécurité ont été renforcées.

La Loi Renseignement, votée en 2015, avait été partiellement retoquée par le Conseil Constitutionnel, notamment en ce qui concerne le volet surveillance internationale des communications électroniques. Ce texte, destiné à encadrer le renseignement à l’étranger, écarte explicitement les personnes résidant en France. Or deux députés socialistes, Patricia Adam et Philippe Nauche, ont déposé, à la demande du gouvernement en septembre 2015, une proposition de loi visant à combler « le seul trou laissé par le Conseil constitutionnel » comme  l’exprime Guillaume Champeau de Numérama. En facilitant l’interception massive des communications sur internet et les conversations téléphoniques, ce texte vise à « tranquilliser les agents de la DGSE qui agissent actuellement dans la plus grande illégalité, faute de loi encadrant leur surveillance ».  Le texte « aménage un régime spécial pour les services de renseignement qui souhaitent collecter et analyser massivement des communications électroniques depuis l’étranger ». Mais il concerne aussi les écoutes de communications émises « depuis l’étranger » ou si les personnes sont déjà « identifiées comme  présentant une menace au regard des intérêts fondamentaux de la Nation ». Donc, si des personnes résidant en France communiquent avec des personnes situées hors du territoire français, c’est le régime de cette proposition de loi qui s’appliquerait, comme le souligne Guillaume Champeau . Pour Sophie In’t Veld, cette loi malmènerait les droits dont bénéficie n’importe quel citoyen européen. Ses propres communications vers et depuis l’étranger – elle se rend souvent au Parlement européen à Strasbourg en tant qu’eurodéputée – « sont susceptibles d’avoir été interceptées ». En questionnant la légalité de ces mesures de surveillances, ces recours visent à obtenir la suppression des données personnelles collectées entre 2008 et 2015 (avant la loi sur la surveillance internationale) et ensuite démontrer qu’il existe une sorte de discrimination entre les Français et les autres citoyens de l’UE, ce qui va à l’encontre de la Charte des droits fondamentaux. postcard-surveillance-webversion1

Contenu et métadonnées : que surveille-t-on au juste ?

On a beaucoup évoqué le chiffrement des données pour échapper au piratage ou à la surveillance des communications électroniques. Mais le chiffrement porte généralement sur le contenu des communications et plus rarement sur les métadonnées, ces données techniques qui permettent le bon acheminement des communications (origine, destinataire, date, position géographique, etc.). Le Conseil national du numérique s’est penché sur le problème du chiffrement dans un article d’approfondissement, et plus précisément sur le chiffrement des métadonnées. S’il existe de manière de masquer certaines métadonnées, avec des réseaux de type Tor, la plupart des applications grand public, « assurent la confidentialité des contenus, mais ne peuvent pas garantir l’anonymat des utilisateurs ou des terminaux utilisés ».

Alors que traditionnellement les services de renseignement s’intéressaient au contenu des communications, on privilégie aujourd’hui de plus en plus le traitement automatisé des métadonnées. Ce passage du contenu au contenant, s’explique par plusieurs raisons. D’abord, l’analyse des métadonnées se prête mieux à une surveillance généralisée et automatisée : les métadonnées sont plus difficilement sécurisables et l’analyse des contenus implique un traitement individuel, donc plus coûteux. En plus, les contenus surveillés ne sont généralement pas explicites : les terroristes ne vont jamais dire « Rendez-vous à tel endroit pour placer la bombe » comme l’explique Rémi Récio délégué général à la Commission générale de contrôle des interceptions de sécurité (CNCIS), cité par le CNNum. « en revanche, il est plus important de reconstituer un réseau, donc des données techniques sont plus importantes que ce que vont dire les gens ».

Mais que faire avec ces quantités énormes de données ? Va-t-on analyser tous les renseignements collectés ? En fait, en prenant exemple sur la veille stratégique et l’intelligence économique, le système vise  « à débusquer les signaux faibles d’une activité criminelle ou terroriste par une surveillance généralisée des réseaux. Surveiller pour prévenir, mais aussi pour prédire ».

Une fois traitées par de puissants algorithmes, les données collectées en masse vont servir à l’établissement de ‘graphes sociaux’ (cartographie de réseaux de connexions et de relations entre individus en lien avec leur activité sur internet). Combinés à des outils statistiques, ces graphes sociaux vont aider à la constitution de patterns ou modèles de comportements, afin d’anticiper les risques d’une attaque terroriste. C’est ce que prévoit la Loi Renseignement de Juillet 2015, avec l’utilisation des fameuses ‘boites noires’ pour détecter les comportements ‘signants’.

arton15480-47b03Cette attitude est très dangereuse, car tout algorithme a une marge d’erreur et va donc identifier des personnes sans intention terroriste (des ‘faux positifs’). Si la marge d’erreur est de 1% (considérée comme faible), cela pourrait faire 600 000 personnes sur une population de 60 millions ! Alors que si le nombre de vrais terroristes est de 60, ils ne représentent que 0,01% …

Cela peut amener à des dérives, comme le fait de condamner à deux ans de prison ferme une personne ayant consulté de façon répétée des sites faisant l’apologie du terrorisme [quelle que soit la radicalisation effective du suspect, qui s’est révélée être assez importante]. Comme le souligne Olivier Ertzschied dans son post « De la confidentialité de l’acte de lecture », l’année où Mein Kampf entre dans le domaine public, « serait-il possible de condamner à deux ans de prison ferme un homme pour lecture régulière et répétée de Mein Kampf ? » Qu’y a-il de différent entre « la lecture répétée de brochure papier faisant l’apologie du terrorisme distribuées (et lues) en divers endroits de la planète et la lecture répétée de sites faisant l’apologie du terrorisme ? ». Pour le chercheur, « la confidentialité de l’acte de lecture est l’un des fondements essentiels de toute démocratie ». Encore une fois, c’est privilégier une idée de la sécurité au détriment des libertés fondamentales. « Pénaliser la lecture […] c’est condamner une intentionnalité supposée, c’est un ‘effet cigogne'[corrélation plutôt que causalité]». surveillance-electronique

Malheureusement, cette condamnation d’une intentionnalité de la lecture est en train de se concrétiser aux États-Unis, comme on le découvre dans le post de Thomas Fourmeux dans Biblio Numéricus « Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard) ». Cette transcription d’un article de l’EFF (Electronic Frontier Foundation) appelle les bibliothécaires à protéger leurs usagers les plus fragiles (adolescents, sans-abris, chômeurs, migrants) contre les agents du gouvernement qui viendraient enquêter sur les livres empruntés ou consultés et les mots-clés recherchés en ligne. Comme après la mise en place du « Patriot Act », les bibliothécaires américains s’inquiètent de la future administration Trump. « Les bibliothèques pourraient recevoir de la part du gouvernement des demandes de renseignements sans précédent sur les usagers »…

digital surveillance

 

Loi 2015-912 du 24 juillet 2015 relative au renseignement. – Légifrance, 27/07/15

Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance/Zigmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild et al. – Cultures et conflits, 2015/2 via Cairn.info

Rees, Marc. - Renseignement : l’exécutif annonce une proposition de loi sur la surveillance internationale. – NextInpact, 02/09/16

Champeau, Guillaume. – Surveillance internationale : ce que prévoit la proposition de loi. – Numérama, 10/09/15

Chantrel, Flavien. – Tristan Nitot « Une société sous surveillance n’est plus une société libre ». – Blog du modérateur, 05/07/16

De la confidentialité de l’acte de lecture : les algorithmes en prison. – Affordance.info, 14/08/16

Nitot, Tristan. – Surveillance : // Les libertés au défi du numérique : comprendre et agir. – Paris : C&F éditions, Blogcollection, 2016

Rees, Marc. – Loi Renseignement : un an après, où en est la centralisation des données . – NextInpact, 10/10/16

Conseil National du Numérique. – Communiqué de presse : Fichier TES : le CNNum appelle le gouvernement à suspendre sa mise en oeuvre et s’autorise à examiner des alternatives techniques plus modernes et respctueuse des lois et des libertés. – Paris, 07/11/16

Rees, Marc. – Le CNNum demande la suspension du fichage 60 millions de Français. – NextInpact, 07/11/16

Lausson, Julien. - Le CNNum demande la suspension du fichage biométrique des Français. – Numérama, 07/11/16

Il faut renoncer à l’extension de la collecte des données biométriques /Un collectif. – Libération, 20/11/16

Grondin, Anaelle. - Plus aucun tweet n’échappera au FBI. – Les Echos, 17/11/16

Surveillance : ce que contient la nouvelle loi sur le renseignement britannique. – Le Monde, 21/11/16

Griffin, Andrew. – Everyone can now see your entire internet history. – The Independent,  24/11/16

Investigatory Powers Act - Parliament UK, 29/11/16 :

Untersinger, Martin ; Follerou, Jacques. – Espionnage des avions, d’Israël et de l’Autorité palestinienne : nouvelles révélations de Snowden. – Le Monde, 07/12/16

Fourmeux, Thomas. - Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard). – Biblio Numericus, 08/12/16

 

 

Liberté ou sécurité … Sur le web, quelle alternative ?

bigdata_image2On a beaucoup évoqué la liberté d’expression ces derniers jours, de même que le besoin de sécurité et de surveillance du Net. Mais est-il possible de concilier ces deux piliers de la démocratie, dans un contexte de mondialisation accrue de l’information et d’obsession sécuritaire ?

Alors que la France se targue d’être le pays des droits de l’homme et de défendre à tout prix la liberté d’expression, depuis quelques années, ce droit subit un certain nombre de restrictions, et plus particulièrement sur l’internet …

Avant même les attentats de janvier, le gouvernement français avait pris des mesures accentuant la surveillance et les écoutes sur les communications électroniques. Avec la Loi de programmation militaire de 2013 d’abord, en étendant le périmètre des écoutes à de nombreux cas : l’Etat peut accéder directement aux données des opérateurs télécoms, FAI ou hébergeurs web sans nécessiter l’aval d’un juge « en prévention du terrorisme, de la criminalité ou de la délinquance organisées, ou de la reconstitution ou du maintien de groupement dissous » comme le souligne le Journal du Net. Et à présent, au lendemain des attentats, un décret prévoit de bloquer, sans contrôle judiciaire, une liste de sites établis par l’OCLCTIC (Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication). Même si Manuel Valls se défend de vouloir promulguer un « Patriot Act » à la française, ces mesures restreignent de façon significative les droits des citoyens en ligne. Alors que l’Union européenne tente depuis quelques années de protéger les données personnelles, notamment en empêchant les Etats-Unis à avoir accès aux fichiers des passagers européens (Passenger Name Record, PNR), le Ministre de l’intérieur explique dans Les Echos, que « les textes européens de lutte contre le terrorisme ne suffisent plus et qu’il faut adapter le système Schenguen lors des contrôles aux frontières ». Jean-Pierre Laborde, directeur du Comité contre le terrorisme de l’ONU, tout en étant en faveur d’un PNR européen, reconnaît dans une interview au Monde que la France dispose déjà d’un dispositif juridique suffisamment préventif et répressif sur la question et qu’une nouvelle loi sur le terrorisme n’apporterait rien de plus, avant d’avoir éprouvé la dernière loi qui vient d’être adoptée il y a à peine deux mois. De plus, « la France a des obligations en vertu des traités européens qu’elle a signés et qu’elle ne pourrait envisager une loi comme le Patriot Act sans entraîner des questionnements sur les règles de la libre circulation dans l’espace de l’Union européenne. » Enfin les lois antiterroristes doivent aussi prendre en compte « les obligations internationales concernant les droits de l’homme » … C’est aussi le point de vue d’Isabelle Falque-Pierrotin, Présidente de la CNIL, citée dans Numerama  « Parce que les libertés publiques sont consubstantielles à l’Etat de droit dont elles constituent le cœur, aucun impératif de sécurité ne peut conduire à leur remise en cause profonde » .donnees-persos-111705

D’autre part, en France, on comprend moins que nos valeurs universelles héritées des Lumières (liberté de mouvement et d’expression, notamment vis-à-vis des croyances religieuses, laïcité) soient moins partagées par les peuples du monde entier. Or, une publication quasi confidentielle comme Charlie Hebdo, est propulsée grâce au web au niveau de l’ensemble de la planète … Et comme une image en dit plus qu’un millier de mots … ! Et surtout, les populations qui sont aussi attachées à la liberté d’expression comme les anglo-saxons ne comprennent pas les limites que la France met à ce droit fondamental : incitation à la haine, racisme, xénophobie, etc… Comme le fait remarquer le philosophe américain Steve Fuller dans un article de Al Rasub, les Etats ne seraient plus en mesure de protéger l’ensemble des populations si tout le monde se comportaient effectivement en « Charlie » … Et la défense de la liberté d’expression risquerait de se transformer en apologie de l’autodéfense et du port d’armes, en raison de l’insuffisance des forces de sécurité publique pour protéger les citoyens !

Cette double incompréhension risque de multiplier les dérapages, aussi bien en France qu’à l’étranger, notamment en ce qui concerne la censure et la répression sur l’internet…

sécurité

Internet-signalement.gouv.fr.
Portail officiel de signalement des contenus illicites de l’internet

LOI n° 2013-1168 du 18 décembre 2013 relative à la programmation militaire pour les années 2014 à 2019 et portant diverses dispositions concernant la défense et la sécurité nationale. – Journal Officiel, version consolidée au 29/01/15

Champeau, Guillaume. – La CNIL dit « oui mais » à la surveillance accrue sur internet. – Numerama, 26/01/15

Fuller, Steve William. – Charlie Hebdo : a bonanza for gun owners in the making? – Al-Rasub, 20/01/15

« Un système d’échange de données serait plus efficace et protecteur de la liberté des citoyens »/ Entretien Jean-Paul Laborde, propos recueillis par Jacques Follerou. – Le Monde, 14/01/15

Fredouelle, Aude. – A quoi pourrait ressembler un « Patriot Act » à la française » ? Journal du Net, 14/01/15

Cazeneuve « Il nous faut adapter le système Schenguen ». – Les Echos, 11/01/15

#CharlieHebdo : Non à l’instrumentalisation sécuritaire. – Quadrature du Net, 09/01/15

Champeau, Guillaume. – Sites terroristes : le gouvernement notifie son projet de blocage à Bruxelles. – Numerama, 09/01/15

Rees, Marc. – Les écoutes légales des conversations sous Skype bientôt possibles. – NextINpact, 06/01/15

Lefebvre, Arnaud. – Big Brother en France : en 2015 le gouvernement aura accès à toutes les données des internautes. – Express.be, 02/01/15

Madden, Mary. – Public perception of privacy and security in the post-Snowden era. – Pew Research Center, 12/11/14

Réflexions sur l’ « IFLA Trend Report » : les défis qui attendent les professionnels dans la société de l’information

Twitter network of @OIIOxfordLe dernier « Trend Report » de l’IFLA , publié juste avant le Congrès de Singapour en août 2013, « Riding the Waves or Caught in the Tide? Navigating the evolving information environment” se penche sur les principales tendances qui marquent notre environnement informationnel.

Cette fois, ce ne sont pas des problèmes techniques, ou même scientifiques que le numérique pose à la profession et aux médiateurs, mais plutôt des questions éthiques et philosophiques, voire politiques, dues notamment à l’émergence du ‘big data’ avec le recueil d’un grand nombre de données personnelles pour toute transaction.

Le rapport présente cinq grandes tendances pour le futur proche :
– Les nouvelles technologies vont en même temps étendre et restreindre l’accès à l’information en fonction des publics concernés.
L’extension concerne le développement de l’ouverture des données publiques (open data), des archives ouvertes, des « e-commons » (savoirs communs), etc.
Les limites, ce sont les restrictions à l’accès : DRM, mots de passe, biométrie. Mais aussi le fossé numérique qui se creuse, créant une situation d’inclusion/exclusion en ce qui concerne les compétences numériques (information literacy skills).
– Les cours en ligne vont aussi bien démocratiser que bouleverser l’enseignement au niveau mondial. D’un côté les MOOC (cours en ligne massifs), les ressources éducatives en ligne vont permettre un apprentissage tout au long de la vie (lifelong learning), mais cet enseignement informel et souvent la pédagogie inversée (flipped learning) qu’il implique, vont remettre en question toute la structure éducative.
– Les frontières autour de la vie privée et la protection des données personnelles doivent être redéfinies. Le scandale de l’utilisation de métadonnées de messageries et de réseaux sociaux par la NSA et les multinationales de l’information ont révélé au monde que l’on pouvait traquer des individus à travers leurs connexions numériques et leur téléphone mobile … ! Tout cela a remis en cause la confiance que tout un chacun avait dans l’internet et le numérique … Comme le dit Philippe Mussi, conseiller régional Vert de la région PACA en introduction de la Semaine européenne de l’Open data : « l’ouverture des données, c’est la reprise en main par le citoyen de l’espace démocratique. Elles doivent être ouvertes, car c’est politique, et parce que c’est dangereux. Oui, les nouvelles libertés présentent des dangers. Dans un paysage général où le monde s’ouvre, où la transparence est à la fois demandée et imposée par la société, la transparence de la gestion publique est de toute première importance. On ne peut plus imaginer de démocratie fermée sur la propriété de la connaissance de la chose publique. Nous devons tous contribuer à cet objectif-là !” [Cité dans InteretActu].
– Dans ces sociétés hyper-connectées, de nouvelles voix et de nouveaux groupes vont émerger pour s’emparer de problèmes sociaux ou politiques à travers des actions collectives et de nouveaux médias.
– Les nouvelles technologies vont transformer l’économie mondiale : de nouveaux modèles économiques vont s’imposer à travers structures innovantes (e-commerce, mobilité, etc.).
En 2016, on prévoit 10 milliards d’appareils mobiles connectés à l’internet. Il y a aussi la technologie que l’on porte sur soi (wearable), comme les « Google Glasses ».

Mais en quoi tout ceci concerne les bibliothèques ?
Imaginons un usager entrant dans une bibliothèque portant ces fameuses lunettes « moteur de recherche » : de fait avec cet instrument, il peut mettre toutes les personnes présentes (lecteurs + bibliothécaires) sous surveillance … !! Comment les bibliothèques pourraient-elles rester des lieux sûrs dans ces conditions ? Il faudra désormais trouver le moyen de concilier la technophilie avec le respect de l’intimité …

Les cours en ligne, par exemple, sont des mines d’or en ce qui concerne les données personnelles. Les résultats de tests, les progrès réalisés par les étudiants, et d’autres informations sont importants pour les éducateurs pour évaluer les apprenants et améliorer leur enseignement. Mais dans un environnement mondial de plus en plus numérisé et connecté, il faut se poser la question : qui d’autre a accès à ces données ?
Il faut donc penser non seulement à gérer ces informations indispensables à l’enseignement, mais aussi à les protéger.

Les étudiants utilisent de plus en plus des moteurs de recherche pour répondre à leurs questions de cours. Il faudrait analyser leurs habitudes de recherche pour évaluer l’influence qu’elles ont sur leurs réponses. Est-ce vraiment toute l’information dont ils ont besoin ? Ces algorithmes appartiennent à des sociétés multinationales et surtout ont été développés pour augmenter les revenus des publicités en ligne. Cela devrait faire réfléchir les bibliothécaires et les enseignants lorsqu’ils encouragent les étudiants à utiliser ces outils …

D’autre part, si toutes les réponses sont dans l’algorithme, que devient la bibliothèque ?

D’après l’enquête de l’Oxford Internet Institute, actuellement les gens ont plus confiance dans les FAI (fournisseurs d’accès internet) que dans les médias et les principales institutions politiques, sociales ou économiques (journaux, entreprises, gouvernements, etc.).

Mais si les technologies de recherche limitent la quantité et la diversité d’information en fonction des usages, des langues et de la localisation géographique, peut-on encore avoir confiance dans les résultats fournis par les moteurs de recherche ?
Comment les bibliothécaires et les éducateurs pourraient-ils désormais assurer aux étudiants et aux usagers qu’ils accèdent bien à l’information pertinente et non à celle que leur données agglomérées a permis à l’algorithme de trouver ? Dans ce cas de figure, « comment qualifier « la chance » (J’ai de la chance) ? Comment édifier des communautés fondées sur l’inattendu ? » Louis Zacharilla – Global Intelligent Community Forum.

Les gouvernements, même les plus démocratiques, filtrent de plus en plus l’accès à l’information en ligne sous prétexte de prévention du terrorisme ou de l’ »immoralité ».
Les bibliothèques se sont toujours opposées à la censure : a-t-on prévu des réponses adéquates à cette problématique ?
Si ces pratiques se développent, les bibliothèques pourront-elles mener à bien leurs mission de recueil et de préservation de la mémoire numérique ? Cross-language blog linking in the aftermath of the 2010 Haitian earthquake

Future Libraries : infinite possibilities – IFLA WLIC 2013 IFLA World Library and Information Congress – 79th IFLA General Conference and Assembly. – 17-23 August 2013, Singapore

Riding the Waves or Caught in the Tide? Navigating the Evolving Information Environment. – Insights frond the Trend Report – IFLA, 16/08/2013

Livre numérique, médiation et service de référence en ligne, droit d’auteur – Congrès IFLA Singapour 2013. – Bibliobsession, 30/08/13

Guillaud, Hubert. – Open data (1/3) : la technique a-t-elle pris le pas ? - Internet Actu, 12/07/13

Oxford Internet Institute – University of Oxford

Oxford Internet Survey (OxIS) 2013 Report Lauch

Intelligent Community Forum

Sur les MOOC et le e-learning
Voir le Scoop It ProspecBib : Formation en ligne & à distance

Sur l’open access et les archives ouvertes
Voir le Scoop It : Open Access Now !

Sur la société de surveillance et l’utilisation des données personnelles
voir le Scoop it : Big Brother, little sisters

Carte d’identité : la biométrie s’impose avec une base de données centrale …

Le 6 mars, l’Assemblée nationale a définitivement adopté la Proposition de loi relative à la protection de l’identité. La nouvelle carte d’identité numérique comprend comme le passeport, des données biométriques (taille, couleur des yeux, deux empreintes digitales et une photo).
Ces données personnelles seront conservées dans un fichier central, le TES (Titres électroniques sécurisés, ou « fichier des gens honnêtes »).
La proposition de loi prévoit aussi l’exploitation des empreintes digitales à des fins de police judiciaire, notamment dans le cadre de recherche sur l’usurpation d’identité.

La CNIL avait déjà réagi en octobre 2011, en publiant une Note d’observations concernant la proposition de loi relative à la protection de l’identité. Elle rappelle que « les données biométriques ne sont pas des données à caractère personnel comme les autres » : la donnée biométrique n’est pas « attribuée par un tiers ou par la personne elle-même, elle est produite par le corps lui-même ». Certaines données « à trace » comme les empreintes digitales, peuvent même être capturées à l’insu de la personne …

Mais si la Commission trouve légitime ces dispositifs de reconnaissance biométrique, du moment que les données sont conservées sur un support individuel, détenu par la personne elle-même, en revanche, la position de la CNIL est très claire sur la mise en place d’un fichier central biométrique : « si légitimes soient-elles, les finalités invoquées ne justifiaient pas la conservation, au plan national, de données biométriques telles que les empreintes digitales et que les traitements ainsi mis en oeuvre seraient de nature à porter une atteinte excessive à la liberté individuelle. »

Les dimensions importantes de cette base de données centralisée multiplie les risques et impliquent une sécurisation technique complexe. La Commission propose des mesures alternatives de lutte contre la fraude qui sont tout aussi efficaces, tout en étant respectueuses de la vie privée des personnes : sécurisation des documents « sources » pour produire les titres d’identité, vérification des données d’état civil, etc. Elle préconise aussi l' »absence de lien univoque » entre les données biométriques du fichier central et les données d’état civil des personnes auxquelles elles correspondent.

Une autre puce RFID, optionnelle celle-ci, est prévue pour une authentification à distance dans le cadre de démarches administrative ou de e-commerce. La encore, la CNIL trouve cette préoccupation légitime, contrairement à Jean-Claude Vitran de la Ligue des Droit de l’homme « Une carte d’identité n’est pas un moyen de paiement », mais elle met en garde contre les dangers de « traçage » des individus : « de telles fonctions électroniques appellent des garanties particulières, dans la mesure où elles pourraient permettre la constitution d’un identifiant unique pour tous les citoyens français ainsi que la constitution d’un savoir public sur les agissements privés. » La Commission estime que de telles fonctionnalités doivent s’accompagner de « mécanismes dits de divulgation partielle ou sélective », c’est-à-dire que seules les données nécessaires aux transactions seront communiquées.

Le risque avec les puces RFID, c’est qu’elles peuvent fonctionner « sans contact », donc à distance, et qu’elles pourraient ainsi être piratées …
D’après Owni, le Ministère de l’intérieur à récemment reconnu que 10% des passeports biométriques en circulation seraient des faux !
Dans ces conditions, on se demande à quoi peuvent servir toutes ces mesures de « sécurisation » ….


Contestée, la carte d’identité biométrique a été définitivement adoptée
par Laurent Borredon, Le Monde, 07/03/12

L’Assemblée nationale a voté le fichage intégral de la population française
par Pierre Piazza, Maître de Conférences en Science politique à l’Université de Cergy-Pontoise, Le Monde, 06/03/12

Carte d’identité : déjà en haut de la fiche
Libération, 18/02/12

Le fichage « d’honnêtes gens » adopté par l’Assemblée nationale
par Hélène Puel, O1Net, 02/02/12

Fichier central des « gens honnêtes » : l’Assemblée vote oui
ZDNet, 03/02/12

Fichez les tous !
par Jean-Marc Manach, Owni, 01/02/12

Le fichier des « gens honnêtes » repasse à l’Assemblée
Bug Brother, Blogs Le Monde, 13/12/11

La future carte d’identité biométrique : entre fichage généralisé et business juteux
par Agnès Rousseaux, Basta !, 12/12/11

La nouvelle carte d’identité biométrique pour 2012
Protégez-vos données.fr, 12/07/11

Hadopi 3 : quand Nicolas Sarkozy découvre le streaming …

Une des principales critiques formulée contre le dispositif Hadopi, était que la pratique du « P2P » visée par la loi, était déjà dépassée, notamment par le streaming …

C’est contre cette nouvelle forme de piratage que Nicolas Sarkozy a lancé sa dernière croisade pour défendre le droit d’auteur. « Hadopi 3 » s’attaquera au streaming, c’est ce que le Président a annoncé aux « Rencontres internationales sur la Culture, l’économie et les médias » au Forum d’Avignon, le 18 novembre dernier. Après s‘être félicité du succès d’Hadopi (le piratage aurait reculé de 35%), Nicolas Sarkozy a dénoncé cette technologie « Sur les sites de streaming, l’idéologie de partage, c’est l’idéologie de l’argent : je vole d’un côté, je vends de l’autre … ».

Mais le gouvernement n’a pas vraiment approfondi ce dossier qui présente des difficultés aussi bien juridiques que techniques, même si Éric Besson pense que « c’est une nouvelle commande très claire du Président de la République ».

L’aspect illégal du straming ne se présente pas de façon aussi claire que pour le P2P.
Utilisé par les radios en ligne et les sites de vidéos (YouTube, DailyMotion), le streaming est « une diffusion en continu d’un flux audio ou vidéo et permet la lecture d’un flux de donnée à mesure qu’il est diffusé » (Streaming – Wikipedia).
Il s’oppose au téléchargement, car il n’implique pas la récupération sur un fichier de l’ensemble des données d’un morceau ou d’un extrait vidéo.
Evidemment, des petits malins ont trouvé moyen de télécharger complètement les fichiers grâce à des logiciels appropriés …

Cependant, les méthodes employées pour contrôler les échanges sur les réseaux de P2P ne pourront pas être appliquées telles quelles au streaming. Pour combattre ces pratiques illégales, il faudrait avoir recours à des mesures qui mettraient en cause le respect de la vie privée : filtrage, DPI (Deep Packet Inspection : analyse du contenu d’un paquet réseau). Pour cela les hébergeurs devraient voir évoluer leur statut qui comportera une obligation de surveillance …
De plus, les principales plate-formes de streaming et de téléchargement direct ne sont hébergées ni en France, ni en Europe.

D’ailleurs, la Cour de justice de l’Union européenne a tranché sur ce point : « le droit de l’Union s’oppose à une injonction, prise par une juridiction nationale, d’imposer à un fournisseur d’accès à internet (FAI) la mise en place d’un système de filtrage afin de prévenir les téléchargements illégaux de fichiers. Une telle injonction ne respecte l’interdiction d’imposer à un tel prestataire une obligation générale de surveillance ni l’exigence d’assurer le juste équilibre entre, d’une part, le droit de propriété intellectuelle et, d’autre part, la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations. »
Arrêt Sabam de la Cour de Justice de l’UE du 24 novembre 2011

En effet, cette injonction risquerait d’entraîner le blocage des communications à contenu licite …

En attendant, Frédéric Mitterrand, Ministre de la culture et de la communication, annonce qu’il dévoilera d’ici trois mois, différentes mesures contre les sites de streaming illégaux

Hadopi et la lutte contre le piratage numérique sont en train de devenir un des enjeux de la présidentielle et les deux principaux candidats (ou futur candidat …) s’en sont emparés.
A suivre …

Sarkozy prêt à une loi Hadopi 3 contre le streaming
par Guillaume Champeau, Numérama, 18/11/11

Hadopi et streaming : des questions techniques et juridiques se posent par Christophe Auffray, ZDNet.fr, 21/11/11

Pourquoi Sarkozy fait d’Hadopi un enjeu de la présidentielle par Olivier Tesquet, Télérama, 21/11/11

Le filtrage des téléchargements imposé aux FAI est illégal par Etienne Wery, Droit & Technologies, 24/11/11

Téléchargement illégal : la justice européenne dit non au filtrage généralisé par Christophe Auffray, ZDNet.fr, 24/11/11

L’Hadopi sonne la charge contre les sites de streaming et de DDL par Guillaume Champeau, Numérama, 25/11/11

Lutte contre le streaming illégal : la Hadopi a 3 mois pour formuler des mesures par Christophe Auffray, ZDNet.fr, 25/11/11

Hadopi 3 – Le fail annoncé Korben, 27/11/11

François Hollande remplacera Hadopi par Hadopi par Guillaume Champeau, Numérama, 28/11/11

Lutte contre le streaming illégal : la Hadopi répond présent par Christophe Auffray, ZDNet.fr, 28/11/11

Hadopi va s’attaquer au téléchargement direct et au streaming par Jacques Cheminat, Le Monde informatique, 29/11/11

Staypressed theme by Themocracy