Posts tagged: Droit à la vie privée

La reconnaissance faciale : un pas biométrique vers la société de la surveillance ?

iStock-851960058-e1572449406157

 

Les dispositifs biométriques d’identification et de surveillance sont en train de s’imposer progressivement dans nos sociétés. La reconnaissance faciale, que l’on croyait réservée à des sociétés illibérales comme la Chine, s’invite de plus en plus dans nos pays, comme en Royaume-Uni, bien sûr, mais aussi en France. La CNIL vient de rendre un avis où elle s’oppose à la mise en œuvre de la reconnaissance faciale dans deux lycées de la région Sud (Nice et Marseille) où des tests avaient commencé en début d’année. Ces dispositifs s’avèrent illégaux au regard du droit européen sur les données personnelles. D’autres expérimentations sont en cours, que ce soit au niveau privé, local ou public, comme l’application d’authentification en ligne Alicem.

Alicem : l’authentification certifiée par reconnaissance faciale

La France va être le premier pays européen  à mettre en œuvre un outil d’authentification basé sur la reconnaissance faciale. Alicem (Authentification en ligne certifié sur mobile) en test depuis juin 2019, devrait être opérationnelle dès le mois de novembre. Cette application pour smartphone, développée par le ministère de l’intérieur et l’Agence nationale des titres sécurisés doit permettre d’accéder à plus de 500 services publics en ligne (via France Connect) de façon sécurisée en s’identifiant grâce à une technologie de reconnaissance faciale. Pour atteindre le niveau ‘élevé’ de l’identification électronique de eIDAS (règlement européen), Alicem va se baser sur les informations contenues dans la puce électronique d’un titre biométrique (passeport ou titre de séjour). Lors de la création du compte, Alicem vérifie par reconnaissance faciale que la personne qui utilise le smartphone est bien le détenteur du titre. » C’est un moyen de lutter contre l’usurpation d’identité. ». L’administration désire créer ainsi « une identité numérique régalienne sécurisée ». Alicem-la-premiere-solution-d-identite-numerique-regalienne-securisee_largeur_760-1

Malgré les assurances données par l’administration sur le respect des données personnelles (les informations restent sur l’appareil de l’utilisateur, elles ne sont partagées que par les services en ligne), le RGPD (Règlement général sur la protection des données) UE exige le consentement de la personne pour l’utilisation de données biométriques : la CNIL reproche donc au ministère de l’intérieur de ne pas recourir à des ‘dispositifs alternatifs de vérification ». La Quadrature du Net a aussi déposé un recours contre le décret de création d’Alicem devant le Conseil d’Etat. Pour l’association, » Alicem viole le RGPD car il ne peut exister de consentement libre si l’administré n’a pas d’autre choix que d’utiliser la biométrie pour accéder aux services en ligne ».

Alors que des chercheurs et des juristes comme Felix Tréguier et Martin Drago s’inquiètent dans une tribune au Monde de la  ‘banalisation’ de cette technologie, l’authentification biométrique aurait pour conséquence « un contrôle permanent et généralisé » au nom du ‘solutionnisme technologique », les députés Didier Bachère (LREM) et Stéphane Séjourné (Renew Europe), appellent eux à un ‘usage éthique’ de cette technologie. « Entre rejet en bloc de la reconnaissance faciale et usage débridé, il y a un chemin à définir dont la responsabilité incombe à la puissance publique ». Après avoir reconnu l’existence de biais dans cette « technologie qui n’est pas entièrement fiable sur le plan technique, son efficacité diffère selon les conditions d’utilisation mais également selon les populations (sexes, ethnies) », les élus appellent à une consultation citoyenne et à la création d’un comité d’éthique sur la question.  Ils reconnaissent néanmoins « les opportunités commerciales multiples de cette technologie et le fait que les utilisateurs de smartphones récents en font déjà usage » … Les opportunités commerciales retiennent aussi l’attention de F.Tréguier et M. Drago comme ils l’expriment  dans leur article : « permettre à des industriel comme Thales ou Idemia [entreprise de sécurité numérique] de se positionner face à la concurrence chinoise, américaine ou israélienne ». « Depuis des années, des entreprises développent ou testent ces technologies grâce à l’accompagnement de L’État et l’argent du contribuable ». Et si le Secrétaire D’État au numérique Cédric O, propose de créer une instance de supervision en coordination avec la CNIL sur la reconnaissance faciale, il reconnaît aussi que « Expérimenter est nécessaire pour que nos industriels progressent ».

Le CREOGN (Centre de recherche de l’Ecole des officiers de la gendarmerie nationale) a une position assez semblable : dans une note de septembre 2019, le Colonel Dominique Schoener examine « l’enjeu de l’’acceptabilité’ de la reconnaissance faciale et des contrôles préventifs sur la voie publique ». Il reconnaît que si cette technologie est banalisée dans ses usages commerciaux, la population française n’est pas prête à en accepter l’exploitation par les forces de l’ordre dans n’importe quelles conditions. « Traumatisée par le régime de Vichy et son système d’enregistrement de l’identité, la société française conserve dans son ADN collectif des marqueurs de rejet du fichage étatique ». Comme la reconnaissance faciale ne peut pas être ‘désinventée’, il préconise « le consentement préalable du citoyen, et pas seulement son information, comme préalable à son usage légitime et légal sur la voie publique ». Pour cela, une technologie fiable et sûre doit pouvoir s’appuyer sur un cadre juridique consolidé avec un contrôle éthique et scientifique. Mais » la peur ou le principe de précaution ne doivent pas empêcher l’expérimentation qui seule permet de se rendre compte des biais et des apports d’une innovation ». Et d’évoquer la dernière expérimentation de la société chinoise Watrix : un logiciel de reconnaissance de la démarche, permettant d’identifier une personne de dos ou dissimulant son visage … reconnaissance-faciale

Or, c’est contre la privatisation de la sécurité que Mireille Delmas-Marty s’insurge dans une tribune au Monde contre la ‘société de vigilance’ appelée de ses vœux par le Président de la République. « Au motif de combattre le terrorisme, le gouvernement risque de donner un coup d’accélérateur au glissement de l’Etat de droit à l’Etat de surveillance ». Dans son article, la juriste évoque ses craintes de « l’extension de la répression à la prévention, puis à une prédiction de plus en plus précoce. » Ce programme appellerait une autre dérive, « la privatisation de l’ordre public », « le glissement de l’Etat de surveillance à la surveillance sans Etat. ». Des entreprises comme Thales sont effet associées à des mairies (Nice) pour exploiter les ‘signaux faibles » à partir de données personnelles au sein d’un « centre d’hypervision et de commandement ».

Cet état de « vigilance sous surveillance » alerte aussi Simon Blin dans Libération. Car « cultiver, comme principe de société, la vigilance pour tout un chacun et à tout moment, c’est le contraire du sentiment de sécurité ». Citant la philosophe et psychanalyste Hélène Lhuilliet « Plus fort encore que la surveillance, la vigilance est une sensation de danger presqu’artificielle ». La vigilance ne s’inscrit pas dans la continuité, elle est un état précaire. « Il y a dans l’idée de ‘société de vigilance’, celle d’une justice prédictive. Or il est impossible de tout prévoir ». Quant à la question des repérages de ‘signaux faibles’ (par ex. dans les cas de radicalisation), autant « elle est légitime dans les institutions chargées de la sécurité publique (police, armée, prison), elle n’a pas grand sens dès lors qu’on l’élargit à l’ensemble de la société ». Le risque est de créer une « armée de faux positifs » sur la base du ressentiment personnel ou de l’interprétation de chacun du concept de laïcité, comme l’évoque le sociologue Gérald Bronner.

De nombreuses autres utilisations et expérimentations de la reconnaissance faciale sont en cours en France, comme l’explique Martin Untersinger dans son article du Monde : à Nice sur la voie publique, aux Aéroports de Paris, Valérie Pecresse voudrait aussi l’expérimenter dans les transports d’Ile de France. Air France compte bientôt remplacer les cartes d’embarquement par un dispositif de reconnaissance faciale. Sans oublier les fichiers de police pour retrouver un suspect à partir d’une photo ou des caméras de surveillance …

Bilans mitigés

chappatte_surveillance_internetMais si en France, on en est encore dans l’enthousiasme de l’expérimentation, dans d’autres pays les bilans sont plutôt négatifs. Aux Etats-Unis, L’État de Californie, San Francisco et plusieurs villes ont interdit la reconnaissance faciale et à New York, la police a triché avec cette technologie pour arrêter des suspects … Et le candidat Bernie Sanders promet l’interdiction de cette technologie sur tout le territoire. En Angleterre une expérience de vidéosurveillance « intelligente » lors du carnaval de Notting Hill à Londres en 2017 a abouti à 35 cas de ‘faux positifs’ et à l’arrestation d’un innocent !

Aux États-Unis le groupe de chercheurs AINow, comprenant des employés de Google et de Microsoft appellent dans leur rapport 2018 à la réglementation de la technologie « oppressive » de reconnaissance faciale. Ce groupe de recherche de la New York University a pour objectif de surveiller l’application sure de cette technologie. « La reconnaissance faciale et la reconnaissance des émotions (comme la détection des traits de personnalité) nécessite une réglementation très stricte pour protéger l’intérêt public ». Malheureusement, les GAFAM ne sont pas de cet avis : Amazon avait la possibilité de refuser de vendre sa technologie de reconnaissance faciale aux autorités policières et gouvernementales, mais ses actionnaires ont rejeté cette proposition. Quant à Google, Bloomberg News relate que des employés de la compagnie l’accusent de les espionner à travers une extension du navigateur Chrome utilisé au sein de l’intranet de l’entreprise. L’outil signalerait automatiquement tout évènement programmé dans l’agenda qui concernerait plus de 10 bureaux ou 100 employés, d’après le rapport des salariés. La société se défend en invoquant un souci de limiter le spam dans les agendas, et soutient ne pas recueillir de données personnelles des employés. Cet épisode traduit les tensions existant dans la multinationale depuis que certains salariés veulent implanter un syndicat dans la société. 1536505721

Au Royaume Uni, le thinktank Doteveryone vient de publier un rapport sur la question de la reconnaissance faciale, cité par Hubert Guillaud dans InternetActu. Il demande au Conseil consultatif de la biométrie britannique d’organiser un débat public sur le sujet et exige « une interdiction tant que les individus exposés à cette technologie n’ont pas la capacité à ne pas être soumis à ces techniques et tant que les conditions de réparations n’ont pas été décidées ».

Sommes-nous parvenus au « capitalisme de surveillance », la dystopie cauchemardesque décrite dans l’ouvrage de l’universitaire américaine Shoshana Zuboff, analysé dans l’article de Frédéric Joignot ? Pour la psychologue sociale, « les GAFAM veulent notre âme, nous avons signé avec eux un contrat faustien ». Ces entreprises « ne se contentent pas de collecter des données d’usages et de services, elles intègrent dans les pages en réseaux et les machines intelligentes des dispositifs d’espionnage invisible. Ils repèrent ainsi, grâce aux algorithmes, nos habitudes les plus intimes. Ils reconnaissent nos voix et nos visages, décryptent nos émotions et étudient leur diffusion grâce à l’’affecting computing’ afin de capter la « totalité de l’expérience humaine comme matière première gratuite ». Pour Evgeni Morozov, S. Zuboff insiste trop sur la surveillance et pas assez sur le capitalisme : « En considérant le capitalisme de surveillance comme notre nouveau Léviathan invisible, elle rate la manière dont le pouvoir fonctionne depuis plusieurs siècles : le Léviathan invisible est avec nous depuis longtemps. ». Mais la chercheuse ne perd pas espoir : si elle applaudit au RGPD et défend les moteurs de recherche cryptés comme Tor, la résistance viendra des usagers et travailleurs du numérique qui feront comme les classes pauvres du 19e siècle qui se sont organisés en syndicats et association pour combattre le capitalisme industriel pour imposer des lois sociales et exiger un système démocratique et représentatif. Verrons-nous un jour cette révolution 3.0 ?

Untersinger, Martin. – Marseille, Nice, Saint-Etienne : les semonces de la CNIL face à de nouveaux projets sécuritaires. – Le Monde, 29/10/19

Lycées Nice Marseille : première victoire contre la reconnaissance faciale.La Quadrature du Net, 28/10/19

Tréguier, Félix ; Drago, Martin. – La reconnaissance faciale s’avère inéfficace pour enrayer la violence. – Le Monde, 24/10/19

Bachère, Didier ; Séjourné, Stéphane. – Pour une reconnaissance faciale éthique.  – Le Monde, 24/10/19

Delmas-Marty, Mireille. – La ‘société de la vigilance’ risque de faire oublier la devise républicaine. – Le Monde, 24/10/19

Gallagher, Ryan. – Google accused of creating spy tool to squelch worker dissent. – Bloomberg News, 24/10/19

Blin, Simon. – La ‘vigilance sous surveillance. – Libération, 22/10/19

Untersinger, Martin. - La reconnaissance faciale progresse, sous la pression des industriels et des forces de l’ordre. – Le Monde, 14/10/19

O, Cédric ; Untersinger, Martin. – « Expérimenter la reconnaissance faciale est nécessaire pour que nos industriels progressent : entretien. – Le Monde, 14/10/19

Ministère de l’intérieur. – Alicem, la première solution d’identité numérique régalienne sécurisée. – L’actu du ministère – Interieur.gouv.fr, 30/07/19

Schoenner, Dominique. – Reconnaissance faciale et contrôles préventifs sur la voie publique : l’enjeu de l’acceptabilité. – Notes du CREOGN, septembre 2019

Joignot, Frédéric. – La surveillance, stade suprême du capitalisme. – Le Monde, 14/06/10

Ohrvik-Scott, Jacob ; Miller, Catherine. – Responsible facial recognition technologies. – Doteveryone perspective, June 2019

Cimino, Valentin. – Les actionnaires d’Amazon décident de ne pas limiter la reconnaissance faciale. – Siècle digital, 26/05/19

Guillaud, Hubert. – La généralisation de la reconnaissance faciale est-elle inévitable ? – InternetActu.net, 13/03/19

AINow report 2018 – AINow Institute – New York University, Dec. 2018

 

Entre l’automatisation du travail et la fin annoncée du salariat, les mutations de l’emploi

L’automatisation, l’intelligence artificielle et la mondialisation sont en train de transformer rapidement  la structure du travail et de l’emploi. Depuis les années 1980, on assiste à la fin du plein emploi et l’ascenseur social est en panne. Face à la disparition prochaine d’un grand nombre d’emplois dans l’industrie et les services, l’anxiété des classes populaires se traduit par une défiance vis-à-vis de la classe politique et l’inquiétude de ne plus pouvoir conserver dignement leur train de vie.applications

L’économie des plateformes (la’gig economy’) qui substitue progressivement le statut d’auto-entrepreneur à celui de salarié commence à être remise en question en France et ailleurs dans le monde. L' »Amendement Taché » et l’arrêt « Take it Easy » ont mis un coup de frein à l’ubérisation en instaurant des chartes de régulation pour ces systèmes et en requalifiant des travailleurs indépendants en salariés. Ce sujet a déjà été traité dans Prospectibles.

Certains trouvent de nouvelles formes de revenus dans les ‘microtâches’ que les plateformes proposent pour alimenter les algorithmes des systèmes d’intelligence artificielles. Ces « ouvriers du clic » n’ont aucune reconnaissance officielle et bouclent leurs fins de mois pour quelques centaines d’euros sans aucune protection sociale.

Si, comme le constate Hubert Guillaud dans son post « Fuck Work ! … Et puis ?», « la rémunération devient (presque) inversement proportionnelle à l’utilité sociale » ou que « le capital soit depuis longtemps infiniment plus rémunérateur que le travail, force est de constater que le lien entre travail et revenu est de plus en plus ténu» . LMS3

La polarisation des emplois

D’après le dernier rapport de l’OCDE, 50% des emplois pourraient disparaître (14%) ou être radicalement transformés (32%) du fait de l’automatisation d’ici 15 ou 20 ans. Stefano Scarpetta, responsable de l’emploi à l’OCDE enjoint les gouvernements à agir rapidement contre les effets de cette mutation au risque d’affronter d’importantes dégradations dans les relations économiques et sociales. « Le rythme de ce changement s’annonce époustouflant : les filets de sécurité et les systèmes de formations, construits depuis des décennies pour protéger les travailleurs ont du mal à résister aux grandes tendances qui changent la nature du travail. Alors que quelques uns bénéficieront de l’ouverture des nouvelles technologies aux nouveaux marchés, d’autres travailleurs, peu qualifiés, subiront les conséquences de la ‘gig economy’ (ubérisation). « De profonds et rapides changements structurels apparaissent à l’horizon, apportant avec eux de nouvelles opportunités, mais aussi une plus grande incertitude pour ceux qui ne sont pas équipés pour s’en saisir ».  L’organisation souligne l’écrasement des classes moyennes, les pertes d’emplois en raison des avancées technologiques et l’extension du mécontentement dans les pays riches. Ces changements vont toucher certains travailleurs plus que d’autres, particulièrement les jeunes sans formations et les femmes, souvent sous-payées et sous-employées.  Bruno Palier arrive aux mêmes conclusions dans un article de Cogito, en soulignant la polarisation des emplois entraînée par l’automatisation et l’informatisation des activités. Cette polarisation se traduit, non seulement par des inégalités de revenus croissantes, mais elle débouche aussi sur une révolte politique des classes sociales intermédiaires ». On a longtemps cru que les nouvelles technologies n’affecteraient que les emplois les moins qualifiés, or depuis quelques années, ce sont les emplois intermédiaires qui disparaissent du fait de l’automatisation, et ce, aussi bien dans l’industrie que dans les services (automates bancaires, caisses automatiques dans les supermarchés). Dans le même temps des emplois très faiblement rémunérés et précaires se développent dans les secteurs des transports, de l’hôtellerie, des services aux personnes, etc. « La polarisation des emplois menace ainsi une partie de la société qui a longtemps bénéficié de la croissance économique et des perspectives de mobilité ascendantes, à savoir une partie des classes moyennes ». Si les perspectives de disparition des emplois restent encore lointaines, on voit déjà l’angoisse que cela génère chez les classes menacées avec la multiplication des partis extrémistes et anti-système dans les démocraties avancées. On assiste à une révolte politique de ces celles-ci face à ces menaces de déclassement.

La reprise en main des « ubérisés »

Le système de l’économie des plateformes a d’abord séduit une partie de jeunes travailleurs pour la liberté et la applicationssouplesse d’organisation que ces applications permettaient. Au début, ils étaient plutôt satisfaits de leur rémunération. Comme l’évoquent des intervenants à un colloque sur le sujet à Paris Dauphine, cité par Dominique Méda dans sa chronique au Monde « Les chauffeurs Uber apprécieraient l’autonomie permise par leur statut et n’ambitionneraient en aucune manière de rejoindre la condition salariale, synonyme de subordination ». C’est aussi le sentiment de Yacine, ‘juicer’ (chargeur de trottinettes électriques) à Paris « Ce job permet de travailler dehors, d’être libre de son temps, de ne pas avoir de patron ». Yacine n’a pas de patron, si ce n’est l’algorithme de l’application Lime sur son smartphone. « C’est l’appli qui donne la marche à suivre : où trouver les trottinettes, où les replacer, combien elles rapportent. C’est elle aussi qui lui attribue une note de satisfaction dont dépend le nombre maximal de trottinettes qu’il est autorisé à recharger chaque jour ».  Mais il déchante quand le prix baisse « Sept euros, c’était honnête ; Cinq euros, c’est juste, je pense chercher autre chose ». Comme le constate Grégoire Leclerc, coordinateur de l’observatoire de l’ubérisation cité dans l’article, « Cette activité ne me choque pas tant qu’elle reste un job d’étudiant. Le problème c’est quand on le propose à des gens qui cherchent un revenu décent. Là, on les piège. ». Pas de mutuelle, pas de chômage, pas de congés payés, pas de salaire minimum, pas de couverture maladie ou accident du travail : « Toutes les sécurités consécutives au droit du travail n’existent pas pour ces gens-là » renchérit Karim Amellal, auteur de la Révolution de la servitude.

Face à cette situation, deux solutions ont été proposées : des chartes reconnaissant le statut hybride de ces travailleurs. La loi du 5 septembre 2018 pour la liberté de choisir son avenir professionnel tend à faire converger le statut de salarié et de travailleur indépendant. Jean-Emmanuel Ray, Professeur de droit à Paris1-Panthéon-Sorbonne, défend cette approche dans son article du Monde. « L’enjeu est de protéger les coursiers de cette plateforme, ces ‘tâcherons 3.0’, corvéables à merci. Mais aussi d’éviter une concurrence déloyale, avec le risque d’une contagion à la baisse pesant sur les conditions de travail ». Pour ce juriste, l’opposition entre heureux salarié et travailleur indépendant honteusement exploité est un peu courte : « Restée sur le modèle militaro-industriel des ‘Trente glorieuses’, cette approche est mal adaptée à la « Révolution de l’immatériel ». En cas de dépôt de bilan de plateformes, que deviendront les dizaines de cyclistes Deliveroo et autres chauffeurs Uber, souvent discriminés à l’embauche, et pour lesquels il est plus facile de trouver des clients qu’un employeur ? « Ces travailleurs chercheraient donc moins un patron que le très protecteur régime général de la Sécurité sociale, lié à l’existence d’un contrat de travail. ».

La loi du 5 septembre 2018 cherche à faire converger les statuts et vise à « sécuriser les mobilités en allant vers plus de sécurisation sur les personnes, non sur les statuts ».Avec, à terme, une protection sociale universelle, facilitant les transitions dans une économie de l’innovation où le travailleur passe d’un statut à l’autre.

L’article 20 du projet de loi d’Orientation des Mobilités introduit la possibilité pour les plateformes numériques mettant en rapport clients et travailleurs indépendants prestataires de services d’adopter une ‘Charte sociale’ octroyant aux prestataires différents types de prestations sociales. Le projet de loi entend mettre fin au flou juridique qui a abouti ces derniers mois à plusieurs cas de requalification par les tribunaux des contrats liant plateformes et indépendants en contrats de travail salarié. Mais l’article 20 a suscité une vive polémique et a été finalement été supprimé au Sénat.

« Les plateformes numériques de travail se construisent sur un modèle économique qui contourne les règles du droit social. L’employeur se fait intermédiaire, le salarié devient un prestataire. La désactivation est une rupture contractuelle euphémisée. Cette torsion de la réalité favorise la multiplication des pratiques déloyales, le dumping social à grande échelle. Si Uber est une société de transport et Deliveroo une société de livraison de repas, elles ont besoin de travailleurs qui réalisent l’activité qu’elles développent. Elles les paient à la tâche, sans leur offrir la moindre protection sociale, sans leur reconnaître le moindre droit. Bien plus qu’une charte, il faut une réelle présomption de travail du salarié. » Fabien Gay, sénateur de Seine Saint-Denis :  discussion de l’art. 20.

Dans une tribune au  Monde, le Conseil national du numérique, présidé par Salwa Toko s’oppose à la mise en place des chartes unilatérales de responsabilité sociale des plateformes prévues par la loi d’orientation des mobilités. Le principe de l’adoption d’une charte inscrit la relation qui lie les travailleurs à leur plateforme en droit commercial et non en droit du travail. « Souhaite-t-on aujourd’hui déléguer à des entreprises britanniques (Deliveroo) ou américaines (Uber) le soin de déterminer de quelle protection sociale doivent bénéficier des travailleurs français ? ».

Pour Karim Amellal, enseignant à Sciences Po, dans son interview au Monde « Derrière le discours des plateformes, la réalité s’apparente bien souvent à une régression sociale, un retour au monde d’avant. Le capitalisme technologique fait voler en éclat tous les acquis sociaux obtenus depuis la fin du 19e siècle. On se retrouve avec des conditions de travail dignes des canuts ou des ouvriers de Germinal ». Malgré l’impression de liberté qu’elles suggèrent, la plupart des plateformes ont un fonctionnement ‘top-down’ très classique, où les règles sont entièrement décidées au sommet de la pyramide. De plus, le modèle économique de ces géants du numérique est fragile. Les plateformes ne sont pas toujours rentables malgré leur valorisation qui se chiffrent en dizaines de milliards de dollars. Les décisions de justice qui ont récemment donné gain de cause aux travailleurs indépendants (arrêt ‘Take it Easy’, contrat de travail pour chauffeur Uber), bousculent le modèle économique des plateformes qui repose sur un coût du travail le plus faible possible, et vont forcer les plus prédatrices à s’adapter.

reseauxLes « ouvriers du clic » : la main d’œuvre humaine derrière les algorithmes

En France, près de 260 000 ‘travailleurs du clic’ effectueraient des microtâches sur leur ordinateur payées quelques centimes d’euro d’après le Rapport sur le microtravail, publié par Antonio Casilli et Paola Tabaro.

« Identifier des objets sur une image, étiqueter des contenus, enregistrer sa voix, traduire des petits bouts de texte. Ces activités, faiblement rémunérées – de quelques centimes à quelques euros la tâche – ne supposent pas de qualifications particulières. Elles sont proposées par des plateformes spécialisées qui font d’office d’intermédiaire entre les microtravailleurs et les entreprises pour lesquelles ces opérations sont exécutées ».

« Deux centimes d’euro pour cliquer sur le Figaro, 18c pour installer un logiciel permettant de lire des fichiers PDF, 36 pour inscrire ses coordonnées dans une demande de devis pour ‘Speedy’ » Sarah, microtravailleuse, témoigne dans le Monde.

On distingue deux types de plateformes de microtravail

Le ‘machine learning’ n’est possible que si on fournit à la machine suffisamment de données qu’elle sait utiliser. Pour qu’un assistant vocal comme Alexa d’Amazon puisse comprendre les demandes qu’on lui adresse, il faut une grande masse de langage naturel humain, avec une pluralité d’accent dans toutes les langues où l’outil va être utilisé. Ces opérations facilitent l’apprentissage des intelligences artificielles qui seront nourries avec ces données nettoyées et annotées.

  • Les plateformes pour les sites marchands : Loonea, Moolineo ou Ba-Click pour répondre à des sondages, s’inscrire sur des sites marchands, remplir des demandes de devis. L’objectif des marques qui ont recours à ces services est de recruter de nouveaux clients, aussi bien des lecteurs, abonnés aux newsletters que des consommateurs pour leurs produits. Les plateformes rémunèrent les microtravailleurs pour grossir les rangs des clients sans que les marques soient conscientes du procédé. La plupart des ‘missions’ consistent moins à produire un bien ou un service, qu’à vendre ses données personnelles ! Souvent les microtravailleurs se retrouvent submergés de mails et d’appels des marques qui souhaitent les transformer en acheteurs … Ils doivent déployer des trésors de stratégie pour hésiter et refuser l’offre du démarcheur et ne doivent en aucun cas avouer être rémunéré !

Ces travailleurs sont en général des femmes de 25 à 45 ans, souvent mères de famille vivant en zone rurale. Souvent plus diplômées que la moyenne, ces femmes vivent dans une grande précarité et 22% sont en dessous du seuil de pauvreté. Les microtravailleurs ne connaissent en général pas l’entreprise pour laquelle ils effectuent ces tâches, ni le projet dans lequel elle s’inscrit. Les plateformes généralistes cèdent de plus en plus la place à des structures en couches encore plus opaques. « Une plateforme s’occupe de la contractualisation, une autre de la relation avec le client, une troisième gère le paiement, et c’est sur une autre encore que s’effectuent les tâches. D’où une dilution complète du lien de subordination. Le microtravail a la particularité d’être invisible, effectué à la maison, ce qui rend toute valorisation et toute organisation collective très difficile.

Le développement du microtravail est loin d’être temporaire car il est lié à l’intelligence artificielle et à l’automatisation, notamment avec la voiture autonome. « Derrière la voiture autonome se cache une armée de microtravailleurs qui fournissent à l’IA des décryptages d’images au pixel près ». Loin de supprimer des emplois peu qualifiés, l’automatisation a besoin bien sûr, d’ingénieurs et d’informaticiens, mais aussi de microtravailleurs.

La surveillance 5202542_7_3ee3_plusieurs-tests-existent-pour-mesurer_4a49d65e5a7648af61b4aded15f8ecb3

Les outils d’automatisation et d’intelligence artificielle permettent une surveillance accrue des activités des travailleurs. On a vu l’importance de la localisation chez les livreurs et les chauffeurs VTC : à tout moment la plateforme doit savoir exactement où se trouvent les prestataires. Impossible pour eux de désactiver le GPS.

On retrouve cette utilisation des outils ‘intelligents’ pour gérer le personnel chez Amazon, comme le relate Julie Bort dans Business Insider. Dans ses entrepôts, Amazon utilise un système qui permet, non seulement de tracer la productivité des employés, mais peut aussi générer automatiquement la documentation nécessaire à leur licenciement si après des avertissements, la personne n’a pas atteint ses objectifs ! Et ce, sans l’intervention d’un superviseur humain …

Nous n’avons examiné ici que l’impact négatif du numérique sur le travail et l’emploi à partir du filtre de l’économie des plateformes qui s’est étendu sur de larges pans du secteur des services. Il existe aussi d’autres expériences où les travailleurs arrivent à se réapproprier ces outils. Ces initiatives passent souvent par l’intermédiaire de structures collectives (coopératives, collectifs, co-working) où le numérique, loin d’asservir et d’aliéner, libère la créativité et la coopération entre les acteurs. Ces expériences feront l’objet d’un prochain post.

outils_images

Kristanadjaja, Gurvan. – Accidents, agressions … Livreurs laissés sur le bord de la route. – Libération, 03/06/19

Casilli, Antonio. – De la classe virtuelle aux ouvriers du clic : la servicialisation du travail à l’heure des plateformes numériques.Revue Esprit, mai 2019

Salwa Toko : « Souhaite-t-on créer une société à trois vitesses, constituée de salariés, d’indépendants et de travailleurs au statut hybride ? »/Conseil National du Numérique : Tribune. – Le Monde, 27/04/19

Cailloce, Laure. – Ces microtravailleurs de l’ombre. – CNRS Le Journal, 24/04/19

Le Micro-travail en France. Derrière l’automatisation de nouvelles précarités au travail ?. Rapport Final Projet DiPLab « Digital Platform Labor »/Antonio A. Casilli ; Paola Tabaro, Clément Le Ludec et al. – Paris, IRES, 2019

The future of work could bring more more inequality, social tensions. – Quartz, 25/04/19

Bort, Julie. – Amazon can automatically fire warehouse workers for ‘time off task’. – Business Insider, 25/04/19

Motet, Laura. – Sarah, « travailleuse du clic » : « la nuit, je remplis des demandes de devis qui me rapportent plusieurs euros d’un coup ». – Le Monde, 25/04/19

Celli, Alessandro. – La charte des travailleurs de plate-forme « place la France en leader de l’innovation sociale en Europe ». – Le Monde, 14/04/19

Palier, Bruno. – Les conséquences politiques des changements technologiques. – Cogito, 13/04/19

Amellal, Karim ; Collas, Aurélie. – « Les travailleurs ubérisés sont les prolétaires du 21e siècle ». – Le Monde, 07/04/19

The Future of Work: OECD Employment Outlouk 2019. – Paris, OCDE, 2019

Orientation des mobilités (procédure accélérée – suite) : discussion des articles. – Sénat, 26/03/19

Collas, Aurélie. – Profession : chargeur de trottinettes, dernier-né des petits boulots de l’ubérisation. – Le Monde, 09/03/19

Transformations numériques au travail : chiffres et tendances. – Laboratoire d’analyse et de décryptage du numérique, 06/03/19

Méda, Dominique. – « Heureux comme un chauffeur de VTC ? » - Le Monde, 15/02/19

Numérisation des emplois : « Il existe un lien fort avec le sentiment d’insécurité économique et les comportements politiques »/Collectif : Zhen Im, Nonna Meyer, Bruno Palier, Jan Rovny, Chercheurs Sciences Po. – Le Monde, 15/02/19

LOI n° 2018-771 du 5 septembre 2018 pour la liberté de choisir son avenir professionnel (1). – Légifrance, 05/09/18 (version en vigueur au 1er juin 2019)

Ray, Jean-Emmanuel. – Quelle protection pour les travailleurs des plates-formes ?- Le Monde, 05/12/18

Guillaud, Hubert. – « Fuck work … Et puis ? ». – Internet Actu, 02/05/18

Flichy, Patrice. – Les nouvelles frontières du travail à l’ère numérique. – Paris : Seuil, cop. 2017. – via Google Livres

 

Big data, open data, protection des données personnelles : où en sont la science et l’utilisation des données ?

Cloud hackingLes données sont partout, aussi bien dans la vie quotidienne que dans la recherche. Une nouvelle discipline, la science des données, mobilise des experts en mathématique et informatique pour analyser et traiter ce ‘pétrole’ du 21e siècle à coup d’algorithmes et de logiciels d’intelligence artificielle. Tout au long de la journée, des ‘bots’ (petits logiciels d’IA) et des objets connectés les recueillent grâce à des capteurs. On y accède librement, grâce aux dispositifs d’open data, que ce soit dans la ville intelligente (smart city) ou au niveau de la ‘science ouverte’. Les GAFA et autres géants du net se disputent nos données personnelles en investissant des milliards pour les exploiter. Quel droit et quelles réglementations doit-on mettre en place pour protéger ces données tout en profitant de ces nouvelles ressources ?

La science des données

La science des données (en anglais data science) est une nouvelle discipline qui s’appuie sur des outils mathématiques, de statistiques, d’informatique (cette science est principalement une « science des données numériques »4) et de visualisation des données. Le premier objectif du « data scientist » est de produire des méthodes (automatisées, autant que possible) de tri et d’analyse de données de masse et de sources plus ou moins complexes ou disjointes de données, afin d’en extraire des informations utiles ou potentiellement utiles. Pour cela, le « scientifique des données » s’appuie sur la fouille de données, les statistiques, le traitement du signal, diverses méthodes de référencement, l’apprentissage automatique et la visualisation de données. Il s’intéresse donc à la classification, au nettoyage, à l’exploration, à l’analyse et à la protection de bases de données plus ou moins interopérables. (Wikipedia).

Comme l’énonce Stéphane Mallat, dans sa leçon inaugurale pour la création d’une chaire Science des données au Collège de France, « cette discipline s’inscrit au cœur de la problématique scientifique : extraire de la connaissance des données empiriques qui se trouvent à la base de toutes les sciences. On est dans une évolution extraordinairement rapide qui inclut toutes les sciences qui viennent avec leurs propres données. »

Les deux principaux traitements sont la modélisation et la prédiction. L’enjeu en est la généralisation. Dans ce domaine, l’informatique a une avance considérable sur les mathématiques. Elle permet à partir d’un exemple qu’on connaît, d’extrapoler pour les exemples qu’on ne connaît pas. Elle s’appuie sur un très grand nombre de variables (ex : millions de pixels dans une image). 800x-1

En ce qui concerne la gestion des données scientifiques, les professionnels de l’information, dans les bibliothèques de recherche par exemple, peuvent être de précieux collaborateurs pour les chercheurs. Comme le soulignent Ayoung Yoon et Theresa Schulz dans leur article du College & Research Libraries « les bibliothèques universitaires se sont activement impliquées dans les services des données de la recherche : des services qui portent sur l’ensemble du cycle de vie des données comprenant le plan de gestion, la curation numérique (sélection, conservation, maintenance et archivage), la création de métadonnées et la conversion. ». Un nouveau service, le TDM ‘Text and Data Mining’ (fouille automatique de texte et de données) a pu être récemment être ajouté grâce à une série d’amendements au droit d’auteur en France, mais aussi au Royaume Uni.

Les données numériques et la « ville intelligente »

Dans la ‘smart city’, le recueil et le traitement des données devraient permettre aux citoyens de bénéficier de services sur mesure. A Toronto, une filiale de Google est en train d’édifier une métropole futuriste dans un quartier défavorisé au bord du lac Ontario. Comme le rappelle Ian Austen dans le New York Times fin décembre « le Premier ministre canadien, Justin Trudeau a promis que ce projet créerait ‘des technologies qui nous aideraient à construire des communautés plus intelligentes, plus vertes et plus inclusives ». Mais pour certains résidents cet enthousiasme doit être tempéré surtout quand il s’agit d’une entreprise connue pour sa collecte et analyse des données. Le projet Quayside sera chargé de capteurs et de caméras de surveillance qui traqueront tous ceux qui habitent, travaillent ou simplement passent dans le quartier. La masse de données recueillie permettra de mieux organiser et définir les besoins de la future ville, que la société appelle d’ailleurs une ‘plateforme’. L’électricité sera fournie par des mini-réseaux de voisinage, basés sur des énergies renouvelables. D’immenses auvents protègeront de la pluie et du soleil d’été et des allées chauffées feront fondre la neige l’hiver ! 271607011737Bigdata

Mais les capteurs dans les bâtiments pourront mesurer le bruit dans les appartements tandis que les caméras et les capteurs extérieurs surveilleront aussi bien la pollution de l’air que le mouvement des personnes et des véhicules dans les carrefours … Comme le fait remarquer Pamela Robinson, professeur de planification urbaine à l’université Ryerson de Toronto « les données vont être recueillies par une entreprise privée et non par une collectivité administrative. Pour le moment rien n’a été annoncé sur qui en aura la propriété ni qui y aura accès. » De même, si Quayside promet des logements à tous les niveaux de revenus, pour le moment la seule entreprise qui a prévu de s’y installer est Google Canada, donc plutôt des jeunes cadres bien payés … D’après cette chercheuse, les données collectées pourraient être utilisées pour limiter ou décourager l’usage, par ailleurs légitime, des espaces publics par des sans-logis, des jeunes ou d’autres groupes …

Bernard Stiegler qui intervenait dans la Cité du Futur, conférence de Maddyness, déclarait « Pour faire des villes intelligentes, essayons d’être intelligent. La nouvelle urbanité, c’est la ville désautomatisée, car la ville automatisée détruit les relations de voisinage ». Citant l’expérience de Plaine Commune (Communauté de 9 communes de Seine Saint-Denis) où il est personnellement impliqué mais aussi des entreprises comme Vinci, Orange et la Caisse des Dépôts, le philosophe a expliqué que cela implique de savoir utiliser ces technologies innovantes avec la population de Seine Saint-Denis pour qu’elle y prenne part, notamment à travers un programme d’économie contributive.

images_villeC’est aussi le point de vue de Florence Durand-Tornare, fondatrice et déléguée générale de l’association Villes Internet dans l’article de Martine Courgnaud-Del Ry dans la Gazette des communes : « Plus de trente « Villes Internet » (hors métropoles) décrivent, parfois depuis longtemps, des dispositifs de mise à disposition de données informatives, techniques, juridiques ou statistiques. Ce qui me paraît significatif, c’est qu’elles ouvrent avant tout des données utiles au citoyen, et pas uniquement celles qui sont attendues par les grands opérateurs dans les zones hyper-urbaines — essentiellement relatives au transport ou à la gestion de l’énergie… Nous remarquons aussi que l’ouverture des données est l’occasion d’organiser des dispositifs participatifs avec les citoyens, qui contribuent parfois activement à choisir les applications utiles aux résidents que la donnée permet de produire. »

L’adoption du RGPD et la polémique sur la ‘patrimonialisation’ des données personnelles

L’Assemblée nationale examine en ce moment le projet de loi sur la protection des données personnelles « qui adapte notre droit au nouveau cadre juridique européen, composé d’une part, du règlement général de la protection des données (RGPD) et d’autre part de la directive sur les fichiers de police et de justice, qui entreront tous deux en vigueur en mai 2018. ». Ce règlement fixe de nouvelles obligations à toute entreprise exploitant des données : droit de portabilité d’un opérateur à l’autre, droit d’effacement et surtout, consentement explicite.

Une controverse vient de se développer dans la presse après une interview Gaspard Koenig dans Les Echos évoquant le Rapport du mouvement Génération libre vantant les mérites de la commercialisation des données personnelles. Pour G. Koenig « si la data est bien cet « or noir » du 21ème siècle, il n’y a pas de raison de ne pas payer les producteurs – nous – sans laisser aux raffineurs (les agrégateurs et les plates-formes) l’intégralité des revenus liés à l’exploitation des data. » Pour ce philosophe libéral, il y a trois options pour gérer l’accès aux données : mettre en place une « sorte d’agence nationale chargée de mettre des data encryptées à la disposition des entreprises », créer, comme la CNIL et la Commission européenne, des « droits pour les citoyens et des obligations pour les entreprises, avec le risque de judiciarisation excessive de l’économie digitale et d’étouffer l’innovation ». La troisième option qu’il privilégie et « qui peut s’articuler à la précédente, est la patrimonialité des données pour permettre aux entreprises de se les approprier après avoir justement rémunéré les citoyens. ». Cette transaction se ferait à travers « un système de ‘nanopaiements’ qui viendraient créditer ou débiter en continu un compte digital personnel ». Ceux qui refuseraient de céder leurs données seraient obligés de payer les services numériques. Cette idée a été reprise dans une tribune du Monde prônant la ‘monétisation de nos données’, signée par plusieurs personnalités (Bruno Bonnell, Laurence Parisot, Alexandre Jardin, Gaspard Koenig). claire-sambuc-juriste-tariq

Cette « fausse bonne idée » comme la définissent Serge Abiteboul et Gilles Dowek dans une tribune dans le Monde, a été immédiatement attaquée par un grand nombre de chercheurs et de juristes dans la presse et sur les réseaux sociaux. Pour ces deux chercheurs « Le cas des données numériques est cependant un peu plus complexe que celle de des champs d’orge ou de blé, car qui cultive les données ? Ceux qui les produisent (vous et moi, les géants du Web, les hôtels…), ou ceux qui les entassent et les analysent pour en tirer du profit (ni vous et moi) ? ». Et même une fois la propriété établie, comment les internautes seront-ils assurés que le contrat ne soit pas léonin (accès au service contre ‘open bar’ pour les géants du Net) ? De plus, il n’est pas sûr que ces entreprises soient vraiment intéressées par nos données personnelles, vu qu’à travers le ‘crowdsourcing’, un grand nombre d’internautes produisent déjà du travail sur les données pour une très faibles rémunération. Mais surtout les données personnelles sont avant tout sociales : elles résultent des interactions des internautes entre eux ou avec des entreprises ou  institutions (mails, commentaires, profils, etc.). Tristan Nitot dans son post sur Standblog, reprenant la comparaison avec la vente d’un rein, rappelle que déjà le CNNum estimait que « l’introduction d’un système patrimonial pour les données personnelles est une proposition dangereuse ». Comme il est interdit de faire commerce de ses organes (‘indisponibilité’ ou ‘non patrimonialité’ du corps humain), on ne peut séparer  l’individu de ses données personnelles, ça serait en faire un objet qu’on peut commercialiser « permettre la patrimonialisation c’est — métaphoriquement — permettre de revendre par appartements son moi numérique, c’est faire commerce de son corps numérique, en quelque sorte, ce qui est interdit en France pour son corps physique, au nom de la dignité humaine. ». De plus, il sera très difficile à un individu de se faire payer vu les difficultés qu’a le fisc à faire payer les GAFA … Le rapport de force ne sera pas du tout en sa faveur …

indexUne autre position est celle développée par l’essayiste Evgeni Morozov dans l’émission Soft Power citée par Calimaq dans son post fin octobre. Plutôt que la défense individuelle de la vie privée, Morozov propose de faire des données personnelles un ‘bien public’ et de les faire relever du ‘domaine public’. Il ne pense pas « qu’on puisse régler tous les problèmes que posent les géants du net en utilisant les outils traditionnels de régulation du marché, c’est-à-dire en leur faisant payer des taxes et en mettant en place des lois anti-trust ». Il préconise même d’accélérer le processus d’automatisation et d’analyse des données, car tout n’est pas négatif. Si les cancers pourront bientôt être dépistés grâce aux données, cela ne devrait pas se faire en donnant autant de pouvoir à des entreprises de la Silicon Valley ! Un système dans lequel les données appartiennent à la communauté permet à tout un chacun de se saisir de ces données pour en faire quelque chose, même au niveau local. E. Morozov préconise « un système hybride empruntant à la fois des éléments à la domanialité publique et à la propriété intellectuelle, tout en s’inspirant de certains mécanismes des licences libres ».

Cette hybridation entre protection personnelle et usage collectif se retrouve dans le point de vue du sociologue Antonio Casilli qui défend dans un article du Monde avec Paola Tubaro, l’idée que « la défense de nos informations personnelles ne doit pas exclure celle des travailleurs de la donnée ». Pour ces chercheurs « Nos informations ne sont plus ” chez nous “. Elles sont disséminées sur les profils Facebook de nos amis, dans les bases de données des commerçants qui tracent nos transactions, dans les boîtes noires algorithmiques qui captent le trafic Internet pour les services de renseignement. Il n’y a rien de plus collectif qu’une donnée personnelle. La question est donc moins de la protéger de l’action d’intrus qui cherchent à en pénétrer la profondeur que d’harmoniser une pluralité d’acteurs sociaux qui veulent y avoir accès. ». C’est pourquoi plutôt que la protection individuelle des données, Casilli et Tubaro défendent une négociation collective contre des services. Lionel Maurel et Laura Aufère développent cette approche dans un post très détaillé de S.I.Lex.  Ces chercheurs prônent une protection sociale au sens large du terme, car « si les données sont produites dans le cadre d’activités assimilables à de nouvelles formes de travail, alors ce sont des mécanismes de protection sociale enracinés dans le droit social qu’il convient de déployer pour garantir les droits des personnes. ». Ils préconisent de se doter de moyens adéquats pour engager ces négociations dont les termes restent encore dictés par le cadre imposé par les plateformes. Dans cet article, repris d’ailleurs par Libération, les chercheurs dessinent les contours de ce nouveau droit social du 21e s. Jusqu’à présent, la protection des données était restreinte au niveau individuel. Comme le soulignent la juriste Antoinette Rouvroy et Valérie Peugeot de l’association Vecam, que ce soit pour l’obligation de consentement que pour la portabilité des données, aussi bien la CNIL que le RGPD se concentrent trop sur le niveau individuel. D’où l’importance de « mobiliser un nouvel imaginaire pour construire un cadre de négociation collectives sur les données ». th-300x1000-rgpd.jpg

Rochfeld, Judith ; Farchy, Joëlle ; Forteza, Paula ; Peugeot, Valérie. - « Les internautes réclament un usage moins opaque et une maîtrise de leurs données personnelles ». Tribune. – Le Monde, 07/02/18

Loi données personnelles : dans l’apathie des débats, une envolée néo-libérale absurde ! - La Quadrature du Net, 07/02/18

Courgnaud-Del Ry, Martine. – Des services numériques communs émergent enfin sur tout le territoire. – Gazette des communes, 07/02/18

Guillaud, Hubert. – Pourquoi mes données personnelles ne peuvent pas être à vendre ! – Internet Actu, 06/02/18

Données personnelles : le projet de loi qui va mieux nous protéger. – La Dépêche, 06/02/18

Assemblée nationale. – Société : protection des données personnelles – Projet de loi déposé le 13 décembre 2017- discussion 06-08/02/18/Paula Forteza, Rapporteure.

Wiggleworth, Robert (FT). – Big data : les données numériques peuvent-elles révolutionner l’action politique ? – Nouvel Economiste, 06/02/18

Collectif. – Nos « données personnelles » nous appartiennent : monétisons-les ! - Le Monde, 05/02/18

Casilli, Antonio ; Jeanticou, Romain.  – La domination des géants du numérique est-elle un nouveau colonialisme ? Entretien. – Télérama, 05/02/18

Abiteboul, Serge ; Dowek, Gilles. – « La propriété des données est une fausse bonne idée ». – Le Monde, 05/02/18

Maurel, Lionel ; Aufrère, Laura. – Pour une protection sociale des données personnelles. – S.I.Lex, 05/02/18

Nitot, Tristan. – Données personnelles et droit de vendre des organes humains. – Standblog, 02/02/18

Lévêque, Rémy. – « Facebook nous prend en otage ». – Usbek & Rica, 02/02/18

Parapadapis, George. – RGPD, de l’incertitude aux solutions pratiques. – Informatique News, 31/01/18

Revendre ses données « personnelles », la fausse bonne idée. – Mais où va le web ?, 29/01/18

Ertzscheid, Olivier. – Faut pas prendre les usagers des GAFAM pour des datas sauvages. – Affordance.info, 28/01/18

Pour une patrimonialité des données : Rapport. – Mes data sont à moi/Collectif data. – Génération libre.eu, 25/01/18

Naughton, John. – Who’s doing Google and Facebook dirty work?- The Guardian, 24/01/18

Casilli, Antonio ; Tubaro, Paola. – La vie privée des travailleurs de la donnée (Le Monde, 22/01/18) – Antonio A. Casilli

Mallat, Stéphane. – Sciences des données : leçon inaugurale (vidéo). – Collège de France, 11/01/18

Schmitt, Fabienne ; Madelaine, Nicolas. – Gaspard Koenig : « Chaque citoyen doit pouvoir vendre ses données personnelles ». – Les Echos, 07/01/18

Rey, Olivier ; Rouvroy, Antoinette. – Données, savoir et pouvoir (Table ronde). – PhiloInfo, décembre 2017 (vidéo).

Austen, Ian. – City of the Future? Humans, not technology, are the challenge in Toronto. – The New York Times, 29/12/17

Calimaq (Lionel Maurel). – Evgeni Morozov et le « domaine public » des données personnelles. – S.I.Lex, 29/10/17

 

Intelligence artificielle : quels impacts sur l’économie et la société ?

IALes progrès de la recherche en intelligence artificielle en ont fait un sujet incontournable des tendances de la décennie actuelle. Annoncées depuis les années 1960, les avancées dans cette discipline complexe se sont confirmées depuis les années 2000, grâce, notamment, au ‘machine learning’ (apprentissage automatique : les machines ‘apprennent’ à partir des jeux de données qui leur sont proposés) et à son dernier développement le ‘deep learning’ qui s’appuie sur les ‘réseaux de neurones’ : des algorithmes de machine learning sont utilisés pour entraîner les couches profondes de réseaux de neurones. Plutôt que de modéliser de vastes quantités d’information (ex : calculer tous les coups possibles dans une partie d’échec), les réseaux de neurones apprennent tout seuls en digérant des millions de données (Maddyness). Combinés avec des mégadonnées (big data), ces intelligences artificielles réalisent des opérations et des actions qui dépassent en rapidité et en pertinence les actions humaines. Cela explique le succès de ces technologies cognitives au Web Summit de Lisbonne en novembre dernier où robots et véhicules autonomes ont joué les vedettes.

Les exemples des récents succès de l’automatisation et de l’IA se multiplient : les taxis autonomes, comme Lyft à Boston ; la prévention des suicides grâce à leur détection sur les messages Facebook, la prédiction (réussie) de la personne de l’année au magazine Time, la découverte de nouvelles exoplanètes dans un partenariat Google-NASA, etc. Comme le souligne Olivier Ezratty dans son post, l’intelligence artificielle n’est pas un produit. Il n’y a pas de logiciels d’intelligence artificielle mais des solutions d’intelligence artificielle très variées qui s’appuient sur plusieurs dizaines de briques logicielles différentes qui vont de la captation des sens, notamment audio et visuels, à l’interprétation des informations, au traitement du langage et à l’exploitation de grandes bases de données et de connaissances structurées ou non structurées.

Combinée avec une voix de synthèse, Chaï, une application d’intelligence artificielle permet d’écouter sur son téléphone mobile la suite d’un livre papier à l’endroit exact où l’on s’est arrêté. Cette application convient plus à un documentaire qu’à un ouvrage de fiction. Idéal pour réviser ses cours dans les transports en commun ! Les fichiers audios comportent des dictionnaires qui enrichissent le texte, en transformant par exemple les sigles et acronymes en termes développés. Et comme le confirme Alexis Botaya, qui présentait ce produit au salon HumainxMachines, aucun problème de droit d’auteur en raison d’un accord avec les éditeurs : le traitement s’effectuant à partir du fichier de l’ouvrage avant son impression et le client doit avoir acheté le livre papier.

Au Japon, l’entreprise Tasei se propose de lutter contre le surmenage de ses employés en leur envoyant des drones bourdonner autour d’eux et leur jouer « Auld Lang Syne », la chanson écossaise qui signale au Japon la fermeture des magasins … Comme l’explique Nelly Lesage dans Numérama, les Japonais peuvent effectuer plus de 80h d’heures supplémentaires par mois ! Le modèle T-Frend est doté d’une caméra qui surveille le comportement des employés et se déclenche quand ils dépassent les horaires. Pour une fois, la surveillance est utilisée pour le bien-être des travailleurs !

En Chine, la reconnaissance faciale est généralisée dans la vie quotidienne et le piéton qui traverse au feu rouge est vite repéré et sa photo affichée au carrefour ! Comme l’explique Leng Biao, professeur de vision informatique à Pékin, cité dans l’article du Monde, « L’important ce sont les algorithmes. Quand il s’agit de reconnaitre une personne dont on a la photo, la reconnaissance faciale est très fiable, on trouve même des logiciels gratuits sur internet ». Et comme en Chine les gens sont moins préoccupés des questions de vie privée, cette méthode est bien acceptée…   1486620188464

Ces performances se sont multipliées depuis une quinzaine d’années et ne manquent pas de soulever controverses et inquiétudes aussi bien parmi les scientifiques et géants du net (Stephen Hawking, Elon Musk et Bill Gates) que dans le grand public. Laurent Alexandre, le chirurgien et homme d’affaire, voudrait au contraire, « casser la gueule à l’Europe pour avancer ». Comme le souligne Pierre Cheminade dans la Tribune, pour le créateur de Doctissimo l’Europe a déjà perdu la bataille du numérique et « que pour ne pas perdre la guerre et sortir d’une situation de « colonie numérique sans souveraineté », la France doit renforcer la recherche en intelligence artificielle et supprimer la protection des données personnelles. ».

Ces préoccupations autant éthiques que réglementaires ont amené le gouvernement français à confier au mathématicien et député Cédric Villani, une mission sur ce sujet, accompagnée d’une consultation publique. Au niveau européen, Margarethe Vestager, commissaire européenne à la concurrence, est intervenue au Web Summit pour affirmer que le marché unique européen n’a pas vocation à être régi par « la loi de la jungle, mais par la démocratie à l’œuvre, pour le respect de la concurrence au service de l’innovation » .

 

Les principaux secteurs impactés   Un-groupe-de-recherche-créé-pour-encadrer-lintelligence-artificielle-des-robots

De nombreux secteurs et services sont déjà ou seront bientôt touchés par ces innovations technologiques, et ce à différents niveaux.

  • Les transports avec les véhicules autonomes
  • La santé avec des programmes de détection de maladies (cancers)
  • La relation client avec l’utilisation d’agents conversationnels et de traitement automatique de courrier électronique
  • La sécurité avec la reconnaissance faciale et les technologies de vision artificielle
  • L’urbanisme avec la ville connectée (smart city)

L’enseignement, la psychothérapie, le journalisme, la politique et même la littérature pourraient être touchés par cette vague d’automatisation. Mais pour le moment toutes les professions ‘créatives’ sont relativement épargnées.

Des informations contradictoires sur les conséquences socio-économiques et l’emploi de l’automatisation de l’industrie et des services se multiplient sans s’annuler pour autant … Nelly Lesage dans son article de Numerama évoque « un rapport du cabinet McKinsey & Cie qui estime que 800 millions de travailleurs perdront leur emploi d’ici 2030, en raison de l’automatisation ». Cette « invasion des robots » touchera surtout les pays les plus avancés, comme l’Allemagne et les Etats-Unis. Les métiers impliquant une interaction humaine, comme les médecins, les avocats, les enseignants et les barmen, devraient, quant à eux être préservés. La vidéo publiée dans le Monde « Serons-nous un jour remplacés par des intelligences artificielles » cite une étude du cabinet Roland Berger de 2014 qui prévoit que 3 millions d’emplois pourraient disparaître d’ici 2025 à cause des intelligences artificielles ! Et les métiers engendrés en retour par le secteur robotique ne compenseront pas ces disparitions. Plus préoccupant encore, ces mesures ne se limitent pas aux métiers simples et répétitifs … Dans son article de l’Usine digitale, Christophe Bys, en revanche, cite une étude internationale de Cap Gemini selon laquelle « les entreprises qui ont recours à l’intelligence artificielle n’ont majoritairement pas détruit d’emplois. Elles en ont même créé. ». Toutefois cette étude qui relativise l’impact de l’IA porte sur un périmètre restreint d’entreprises (dont le chiffre d’affaire est supérieur à 500 millions de dollars). Les pays européens (France, Espagne, Pays-Bas) ont déployé moins d’initiatives IA que l’Inde ou l’Australie …

C’est aussi le point de vue de Bertrand Diard, président de Tech in France, dans son interview dans la Croix « La robotisation dans l’industrie n’a pas réduit le volume d’emplois. Ce qui l’a fait, ce sont les délocalisations vers la Chine. L’Allemagne, qui est très robotisée, a créé de la richesse et de l’emploi industriel, alors que la France, dans le même temps, en a perdu. » De nouveaux métiers devraient émerger autour de ces nouvelles technologies et il faut développer la formation des travailleurs qui pourraient ainsi s’adonner à des tâches plus intéressantes. Alain Guillemolles a interviewé dans le même article Romain Guers, délégué syndical au Crédit Mutuel. Cette banque a adopté Watson, l’agent intelligent d’IBM (ce chatbot est aussi en fonction chez Orange et Bouygue Telecom) pour l’assister dans le traitement des données de la relation clients : « il n’est pas question de remplacer les conseillers bancaires par des robots. […] l’outil ‘intelligent’ aide les chargés de clientèle à trier le courrier en fonction des priorités exprimées par les clients. De plus, ils ont accès à un « assistant » qui peut répondre à certaines demandes d’information en épargne et assurance. Mais le conseiller commercial reste le pivot de la relation avec le client. ». Là aussi, la mise en place de l’outil IA n’a pas eu d’impact sur l’emploi. Pour le moment, car les outils intelligents apprennent très vite …

On retrouve ici les deux conceptions de l’IA : d’une part, l’IA comme assistant de l’humain qui permet de réaliser l’’homme augmenté’, doté de sortes de prothèses technologiques ; d’autre part, l’IA autonome qui arriverait à une sorte de ‘conscience’ !

cover-MIT-600x399Dans la recherche médicale, en revanche, l’outil intelligent n’est pas encore vraiment fiable. Watson devait permettre aux soignants « de passer moins de temps sur la littérature et plus de temps pour prendre soin des patients ». Comme le souligne Jean-Yves Paillé dans la Tribune, « L’IA destinée à trouver des solutions afin de personnaliser les traitements en cancérologie est pour le moment décevante, en particulier dans les diagnostics ». Le système souffre d’un certain nombre de biais : d’abord dans les publications scientifiques : sur 700 000 articles publiés par an en médecine, de nombreuses publications n’ont pas de valeur. « La machine n’est pas capable aujourd’hui de faire la différence entre ce qui ne vaut rien et un article intéressant » comme l’analyse Guy Vallencien dans

« La médecine sans médecin » cité dans l’article. De plus près de 2% des scientifiques admettent « avoir fabriqué, falsifié ou modifié des données ou des résultats au moins une fois. » « jusqu’à 33,7% ont avoué d’autres pratiques de recherche douteuses » d’après l’étude de Plos One.  Mais aussi l’intelligence artificielle s’appuie sur des données médicales spécifiques aux protocoles de soins des Etats-Unis et aurait du mal à s’adapter aux méthodes de différents pays où les protocoles peuvent différer … « L’IA ne peut pas être plus neutre et performantes que les données dont elle dispose ».

Ethique et réglementation

L’éthique fait partie des principaux axes définis par la mission Villani et concerne de nombreux aspects du déploiement de ces technologies. Aux États-Unis, les géants du numérique, Google, Apple, Facebook, Amazon, Microsoft, IBM ainsi que de nombreux chercheurs s’engagent pour développer une intelligence artificielle responsable et éthique. Le Partnership on AI to benefit people and society (Partenariat sur l’IA au service des citoyens et de la société), organisation à but non lucratif, a pour objectif la compréhension du public sur l’IA et la définition de meilleures pratiques dans ce domaine.

Au Québec, le préambule de la Déclaration de Montréal a été dévoilé en clôture du Forum sur le développement socialement responsable de l’intelligence artificielle le 3 novembre. Portant sur les thèmes de la cybersécurité, la responsabilité légale, la psychologie morale, le marché du travail, le système de santé et la ville intelligente, le Forum a comme ambition la ‘coconstruction’ entre le public, les experts et les pouvoirs publics. Comme l’a déclaré Guy Breton, recteur de l’UdM « Les avancées de l’intelligence artificielle toucheront progressivement tous les secteurs de la société et nous devons poser, dès maintenant, les balises qui encadreront son développement afin qu’il soit conforme à nos valeurs et porteur d’un véritable progrès social.» Les-rendez-vous-du-numérique-et-du-développement-commercial

En France, la CNIL dans son rapport des enjeux éthiques des algorithmes et de l’intelligence artificielle, présenté le 15 décembre, réaffirme deux principes fondateurs et préconise six recommandations opérationnelles pour permette à l’Homme de garder la main. Tout d’abord, le principe de loyauté : l’intérêt de l’utilisateur doit primer ; un principe de vigilance/réflexivité ensuite en organisant « un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants ». Ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique.

Parmi les recommandations : former à l’éthique tous les acteurs-maillons de la ‘chaîne algorithmique’ ; rendre les systèmes algorithmiques compréhensibles ; encourager la recherche sur l’IA éthique ; renforcer la fonction éthique au sein des entreprises. Comme le dit Isabelle Falque-Pierrotin, Présidente de la CNIL « L’objectif de ce débat est de garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle ».

Alexandra Yeh évoque dans son compte-rendu de la Conférence Nouvelles pratiques du journalisme de l’Ecole de Journalisme de Sciences Po, la proposition de Dominique Cardon pour une ‘éducation des algorithmes’. Comme on s’en est rendu compte dans les années 1980, les tentatives de programmer les machines à raisonner comme des humains avec des règles et des systèmes de décisions logiques sont vouées à l’échec. L’humain n’est pas un être pleinement rationnel et ses décisions dépendent souvent de facteurs imprévisibles (contextes, affects, sensibilité). Il faut donc « apprendre aux machines à analyser nos comportements plutôt que nos représentations ». Pour Dominique Cardon « nous devons réfléchir à la façon dont voulons éduquer les algorithmes ». Car nous sommes responsables des biais de l’IA (cf le cas des IA racistes).

Avec l’automatisation, les dilemmes moraux vont se multiplier : en plus de gérer les actions accidentelles ou intentionnelles de leurs inventions, les chercheurs en AI devront faire face à de tels dilemmes. Par exemple, face à une situation de danger, l’IA de la voiture autonome devra décider qui épargner en cas d’accident : une femme enceinte ou un homme âgé ; renverser un enfant ou deux adultes ? En fait, décider lesquels d’entre nous devront vivre ou mourir …  Jean-François Bonnefons, professeur à la Toulouse School of Economics, explore ces dilemmes avec le projet Moral Machine qui « confronte les internautes à ce genre de situations pour leur demander de trancher, a déjà recueilli 40 millions de décisions ». Ce programme permet d’identifier les critères pesant dans la décision, les variations selon le type de personne (genre, âge, CSP, nationalité) et les différences culturelles et géographiques. Si les choix moraux sont relativement homogènes (sauver les humains plutôt que les animaux ), les résultats montrent qu’il n’existe pas de règle d’éthique totalement universelle, même si des convergences locales existent dans le monde …

A l’instar des avancées de l’intelligence artificielle, les préoccupations éthiques et politiques à ce sujet sont un « work in progress ». Nous aurons l’occasion d’y revenir à l’avenir.

data-672x372Bonnes fêtes et meilleurs vœux pour 2018

Pour aller plus loin

L’intelligence artificielle, quelles conséquences pour l’emploi. – Les Numériques – Dossier, 17/12/17

Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle. – CNIL, 15 décembre, 2017

Cheminade, Pierre. – Laurent Alexandre : « La France a perdu sa souveraineté numérique ». – La Tribune, 13/12/17

Georges, Benoît. – Ce que les Français attendent de l’intelligence artificielle. Les Échos, 12/12/17

Paillé, Jean-Yves. – Dans la santé, Watson, l’IA d’IBM, doit encore faire ses preuves.La Tribune, 08/12/17

Simonite, Tom. – Artificial Intelligence seeks an Ethical Conscience. – Wired, 12/07/17

Lausson, Julien. – Intelligence artificielle : la Mission Villani vous demande votre avis. – Numérama, 07/12/17

Tisseron, Serge. - IA, robots qui parlent et robots sous influence.InaGlobal, 06/12/17

Yeh, Alexandra. – IA et journalisme : quelle éthique ?Meta-media, 05/12/17

#NPDJ Les nouvelles pratiques du journalisme 2017. – École de journalisme de Sciences Po, 04/12/17

Lesage, Nelly. – Un rapport estime que les robots vont prendre 800 millions d’emplois d’ici 2030. – Numérama, 30/11/12

2067, des robots dans la ville/Usbek & Rica. – Inriality, 28/11/17

Kiefer, Bertrand ; Navaris, Sophie. – « La médecine, le dernier lieu où l’on peut exprimer sa sensibilité » Entretien. – Tribune de Genève, 25/11/17

Maignan, Iris. – #Étude : les Français, pas (du tout) prêts pour l’intelligence artificielle. – Maddyness, 25/11/17

Web Summit 2017 à Lisbonne : que retenir du Davos de la Tech ? - FrenchWeb, 16/11/17

Guillemoles, Alain. - Watson mène la révolution de l’intelligence artificielle. – La Croix, 13/11/17

Deluzarche, Céline. – #IA : Deep learning, le grand trou de l’intelligence artificielle. – Maddyness, 13/11/17

Quel sera l’impact de l’intelligence artificielle sur l’emploi. – La Croix, 13/11/17

Piquard, Alexandre. – L’intelligence artificielle, star inquiétante du Web Summit à Lisbonne. – Le Monde, 10/11/17

Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. – Université de Montréal, 03/11/17

Gavois, Sébastien. – Intelligence artificielle : enjeux économiques et cadres légaux s’invitent au Sénat. – NextInpact, 26/10/17

Ezratty, Olivier. – Les usages de l’intelligence artificielle. – Opinions libres, 19/10/17. – E-book téléchargeable.

Intelligence artificielle, une nouvelle mission confiée à France Stratégie. – France Stratégie – Premier Ministre,16/10/17

Yann Le Cun ; « Aujourd’hui, Facebook est entièrement construit autour de l’intelligence artificielle » Entretien. – Le Monde, 03/10/17 – vidéo.

Surveillance : le tour de vis occidental

fingerprint with bar codeOn assiste, depuis quelques semaines, au renforcement de la surveillance de masse en Europe et dans les pays occidentaux. La vague d’attentats et le repli sécuritaire qui touche les démocraties pourraient expliquer ce phénomène.

En France, après le vote de la loi Renseignement en juillet 2015, nous avons eu début novembre l’annonce de la création du fichier TES qui devrait rassembler dans une seule base de données « les informations personnelles et biométriques de la quasi-totalité de la population » (Numérama).  Au Royaume Uni, le nouveau projet de loi sur le renseignement Investigatory Powers Act « qui marque un durcissement de la surveillance et légalise des pratiques déjà exercées en dehors de tout cadre juridique par les services de renseignement » (Le Monde). Avec cette loi, un certain nombre d’institutions et d’organismes britanniques – finances publiques, Agence de l’alimentation, Commission des paris, services de santé – en plus des services de police et de renseignement de tout le Royaume, pourra avoir accès à toutes les connections et enregistrements internet des citoyens et résidents en Grande-Bretagne (Independent).

Outre-Atlantique, la situation est aussi inquiétante : aux Etats-Unis, le FBI a passé un accord avec la société Dataminr pour accéder en temps réel aux 500 millions de publications quotidiennes de Twitter. Comme on le lit dans Les Echos, « Ce spécialiste du croisement des données (data mining) permet à ses clients (médias, banques, fonds d’investissements) d’obtenir des informations liées aux menaces terroristes, aux troubles sociaux et politiques etc.. ».  Après la victoire de Trump, la messagerie sécurisée Signal, a con a connu une augmentation de 400% de téléchargement comme le souligne Buzz Feed News. Le site Intercept a aussi interrogé les multinationales de l’internet pour savoir si elles étaient prêtes à collaborer pour mettre en place le « fichier des musulmans » préconisé par Trump : seul Twitter a refusé cette collaboration …

Et le Monde vient de révéler, suite aux derniers documents publiés par Snowden, que les smartphones des passagers d’Air France étaient espionnés en plein vol au profit de la NSA ou du GCHQ (services secrets britanniques) …

Au Québec, les services de police de la Ville de Montréal mettent sur écoute des journalistes comme Patrick Lagacé de la Presse, informe le blog Veille pour un(e) bibliothécaire engagé(e)Security camera

Néanmoins, un certain nombre d’institutions et d’organismes réagissent à ce tour de vis.

En France, le Conseil national du Numérique et la Cnil se montrent réservés vis-à-vis du Fichier TES. Le CNNum a carrément demandé la suspension de ce fichage généralisé de la totalité des Français …

Au niveau de l’Union européenne, une eurodéputée néerlandaise a attaqué devant le Conseil d’Etat la loi sur la surveillance internationale des communications électroniques, qui complète la loi sur le renseignement. « Sophie In’t Veld du groupe libéral ADLE a décidé de déposer 2 recours devant le Conseil d’Etat pour contester l’une de ces lois » écrit Julien Lausson dans Numérama.

Comment en est-on arrivé là ?

Nous avions évoqué les systèmes de surveillance massive dans des posts précédents, notamment l’intrusion de la NSA dans les communications électroniques, mais depuis la vague d’attentats en France et la mise en place de l’état d’urgence, un certain nombre de mesures de sécurité ont été renforcées.

La Loi Renseignement, votée en 2015, avait été partiellement retoquée par le Conseil Constitutionnel, notamment en ce qui concerne le volet surveillance internationale des communications électroniques. Ce texte, destiné à encadrer le renseignement à l’étranger, écarte explicitement les personnes résidant en France. Or deux députés socialistes, Patricia Adam et Philippe Nauche, ont déposé, à la demande du gouvernement en septembre 2015, une proposition de loi visant à combler « le seul trou laissé par le Conseil constitutionnel » comme  l’exprime Guillaume Champeau de Numérama. En facilitant l’interception massive des communications sur internet et les conversations téléphoniques, ce texte vise à « tranquilliser les agents de la DGSE qui agissent actuellement dans la plus grande illégalité, faute de loi encadrant leur surveillance ».  Le texte « aménage un régime spécial pour les services de renseignement qui souhaitent collecter et analyser massivement des communications électroniques depuis l’étranger ». Mais il concerne aussi les écoutes de communications émises « depuis l’étranger » ou si les personnes sont déjà « identifiées comme  présentant une menace au regard des intérêts fondamentaux de la Nation ». Donc, si des personnes résidant en France communiquent avec des personnes situées hors du territoire français, c’est le régime de cette proposition de loi qui s’appliquerait, comme le souligne Guillaume Champeau . Pour Sophie In’t Veld, cette loi malmènerait les droits dont bénéficie n’importe quel citoyen européen. Ses propres communications vers et depuis l’étranger – elle se rend souvent au Parlement européen à Strasbourg en tant qu’eurodéputée – « sont susceptibles d’avoir été interceptées ». En questionnant la légalité de ces mesures de surveillances, ces recours visent à obtenir la suppression des données personnelles collectées entre 2008 et 2015 (avant la loi sur la surveillance internationale) et ensuite démontrer qu’il existe une sorte de discrimination entre les Français et les autres citoyens de l’UE, ce qui va à l’encontre de la Charte des droits fondamentaux. postcard-surveillance-webversion1

Contenu et métadonnées : que surveille-t-on au juste ?

On a beaucoup évoqué le chiffrement des données pour échapper au piratage ou à la surveillance des communications électroniques. Mais le chiffrement porte généralement sur le contenu des communications et plus rarement sur les métadonnées, ces données techniques qui permettent le bon acheminement des communications (origine, destinataire, date, position géographique, etc.). Le Conseil national du numérique s’est penché sur le problème du chiffrement dans un article d’approfondissement, et plus précisément sur le chiffrement des métadonnées. S’il existe de manière de masquer certaines métadonnées, avec des réseaux de type Tor, la plupart des applications grand public, « assurent la confidentialité des contenus, mais ne peuvent pas garantir l’anonymat des utilisateurs ou des terminaux utilisés ».

Alors que traditionnellement les services de renseignement s’intéressaient au contenu des communications, on privilégie aujourd’hui de plus en plus le traitement automatisé des métadonnées. Ce passage du contenu au contenant, s’explique par plusieurs raisons. D’abord, l’analyse des métadonnées se prête mieux à une surveillance généralisée et automatisée : les métadonnées sont plus difficilement sécurisables et l’analyse des contenus implique un traitement individuel, donc plus coûteux. En plus, les contenus surveillés ne sont généralement pas explicites : les terroristes ne vont jamais dire « Rendez-vous à tel endroit pour placer la bombe » comme l’explique Rémi Récio délégué général à la Commission générale de contrôle des interceptions de sécurité (CNCIS), cité par le CNNum. « en revanche, il est plus important de reconstituer un réseau, donc des données techniques sont plus importantes que ce que vont dire les gens ».

Mais que faire avec ces quantités énormes de données ? Va-t-on analyser tous les renseignements collectés ? En fait, en prenant exemple sur la veille stratégique et l’intelligence économique, le système vise  « à débusquer les signaux faibles d’une activité criminelle ou terroriste par une surveillance généralisée des réseaux. Surveiller pour prévenir, mais aussi pour prédire ».

Une fois traitées par de puissants algorithmes, les données collectées en masse vont servir à l’établissement de ‘graphes sociaux’ (cartographie de réseaux de connexions et de relations entre individus en lien avec leur activité sur internet). Combinés à des outils statistiques, ces graphes sociaux vont aider à la constitution de patterns ou modèles de comportements, afin d’anticiper les risques d’une attaque terroriste. C’est ce que prévoit la Loi Renseignement de Juillet 2015, avec l’utilisation des fameuses ‘boites noires’ pour détecter les comportements ‘signants’.

arton15480-47b03Cette attitude est très dangereuse, car tout algorithme a une marge d’erreur et va donc identifier des personnes sans intention terroriste (des ‘faux positifs’). Si la marge d’erreur est de 1% (considérée comme faible), cela pourrait faire 600 000 personnes sur une population de 60 millions ! Alors que si le nombre de vrais terroristes est de 60, ils ne représentent que 0,01% …

Cela peut amener à des dérives, comme le fait de condamner à deux ans de prison ferme une personne ayant consulté de façon répétée des sites faisant l’apologie du terrorisme [quelle que soit la radicalisation effective du suspect, qui s’est révélée être assez importante]. Comme le souligne Olivier Ertzschied dans son post « De la confidentialité de l’acte de lecture », l’année où Mein Kampf entre dans le domaine public, « serait-il possible de condamner à deux ans de prison ferme un homme pour lecture régulière et répétée de Mein Kampf ? » Qu’y a-il de différent entre « la lecture répétée de brochure papier faisant l’apologie du terrorisme distribuées (et lues) en divers endroits de la planète et la lecture répétée de sites faisant l’apologie du terrorisme ? ». Pour le chercheur, « la confidentialité de l’acte de lecture est l’un des fondements essentiels de toute démocratie ». Encore une fois, c’est privilégier une idée de la sécurité au détriment des libertés fondamentales. « Pénaliser la lecture […] c’est condamner une intentionnalité supposée, c’est un ‘effet cigogne'[corrélation plutôt que causalité]». surveillance-electronique

Malheureusement, cette condamnation d’une intentionnalité de la lecture est en train de se concrétiser aux États-Unis, comme on le découvre dans le post de Thomas Fourmeux dans Biblio Numéricus « Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard) ». Cette transcription d’un article de l’EFF (Electronic Frontier Foundation) appelle les bibliothécaires à protéger leurs usagers les plus fragiles (adolescents, sans-abris, chômeurs, migrants) contre les agents du gouvernement qui viendraient enquêter sur les livres empruntés ou consultés et les mots-clés recherchés en ligne. Comme après la mise en place du « Patriot Act », les bibliothécaires américains s’inquiètent de la future administration Trump. « Les bibliothèques pourraient recevoir de la part du gouvernement des demandes de renseignements sans précédent sur les usagers »…

digital surveillance

 

Loi 2015-912 du 24 juillet 2015 relative au renseignement. – Légifrance, 27/07/15

Repenser l’impact de la surveillance après l’affaire Snowden : sécurité nationale, droits de l’homme, démocratie, subjectivité et obéissance/Zigmunt Bauman, Didier Bigo, Paulo Esteves, Elspeth Guild et al. – Cultures et conflits, 2015/2 via Cairn.info

Rees, Marc. - Renseignement : l’exécutif annonce une proposition de loi sur la surveillance internationale. – NextInpact, 02/09/16

Champeau, Guillaume. – Surveillance internationale : ce que prévoit la proposition de loi. – Numérama, 10/09/15

Chantrel, Flavien. – Tristan Nitot « Une société sous surveillance n’est plus une société libre ». – Blog du modérateur, 05/07/16

De la confidentialité de l’acte de lecture : les algorithmes en prison. – Affordance.info, 14/08/16

Nitot, Tristan. – Surveillance : // Les libertés au défi du numérique : comprendre et agir. – Paris : C&F éditions, Blogcollection, 2016

Rees, Marc. – Loi Renseignement : un an après, où en est la centralisation des données . – NextInpact, 10/10/16

Conseil National du Numérique. – Communiqué de presse : Fichier TES : le CNNum appelle le gouvernement à suspendre sa mise en oeuvre et s’autorise à examiner des alternatives techniques plus modernes et respctueuse des lois et des libertés. – Paris, 07/11/16

Rees, Marc. – Le CNNum demande la suspension du fichage 60 millions de Français. – NextInpact, 07/11/16

Lausson, Julien. - Le CNNum demande la suspension du fichage biométrique des Français. – Numérama, 07/11/16

Il faut renoncer à l’extension de la collecte des données biométriques /Un collectif. – Libération, 20/11/16

Grondin, Anaelle. - Plus aucun tweet n’échappera au FBI. – Les Echos, 17/11/16

Surveillance : ce que contient la nouvelle loi sur le renseignement britannique. – Le Monde, 21/11/16

Griffin, Andrew. – Everyone can now see your entire internet history. – The Independent,  24/11/16

Investigatory Powers Act - Parliament UK, 29/11/16 :

Untersinger, Martin ; Follerou, Jacques. – Espionnage des avions, d’Israël et de l’Autorité palestinienne : nouvelles révélations de Snowden. – Le Monde, 07/12/16

Fourmeux, Thomas. - Bibliothécaires, agissez maintenant pour protéger vos utilisateurs (avant qu’il ne soit trop tard). – Biblio Numericus, 08/12/16

 

 

Liberté ou sécurité … Sur le web, quelle alternative ?

bigdata_image2On a beaucoup évoqué la liberté d’expression ces derniers jours, de même que le besoin de sécurité et de surveillance du Net. Mais est-il possible de concilier ces deux piliers de la démocratie, dans un contexte de mondialisation accrue de l’information et d’obsession sécuritaire ?

Alors que la France se targue d’être le pays des droits de l’homme et de défendre à tout prix la liberté d’expression, depuis quelques années, ce droit subit un certain nombre de restrictions, et plus particulièrement sur l’internet …

Avant même les attentats de janvier, le gouvernement français avait pris des mesures accentuant la surveillance et les écoutes sur les communications électroniques. Avec la Loi de programmation militaire de 2013 d’abord, en étendant le périmètre des écoutes à de nombreux cas : l’Etat peut accéder directement aux données des opérateurs télécoms, FAI ou hébergeurs web sans nécessiter l’aval d’un juge « en prévention du terrorisme, de la criminalité ou de la délinquance organisées, ou de la reconstitution ou du maintien de groupement dissous » comme le souligne le Journal du Net. Et à présent, au lendemain des attentats, un décret prévoit de bloquer, sans contrôle judiciaire, une liste de sites établis par l’OCLCTIC (Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication). Même si Manuel Valls se défend de vouloir promulguer un « Patriot Act » à la française, ces mesures restreignent de façon significative les droits des citoyens en ligne. Alors que l’Union européenne tente depuis quelques années de protéger les données personnelles, notamment en empêchant les Etats-Unis à avoir accès aux fichiers des passagers européens (Passenger Name Record, PNR), le Ministre de l’intérieur explique dans Les Echos, que « les textes européens de lutte contre le terrorisme ne suffisent plus et qu’il faut adapter le système Schenguen lors des contrôles aux frontières ». Jean-Pierre Laborde, directeur du Comité contre le terrorisme de l’ONU, tout en étant en faveur d’un PNR européen, reconnaît dans une interview au Monde que la France dispose déjà d’un dispositif juridique suffisamment préventif et répressif sur la question et qu’une nouvelle loi sur le terrorisme n’apporterait rien de plus, avant d’avoir éprouvé la dernière loi qui vient d’être adoptée il y a à peine deux mois. De plus, « la France a des obligations en vertu des traités européens qu’elle a signés et qu’elle ne pourrait envisager une loi comme le Patriot Act sans entraîner des questionnements sur les règles de la libre circulation dans l’espace de l’Union européenne. » Enfin les lois antiterroristes doivent aussi prendre en compte « les obligations internationales concernant les droits de l’homme » … C’est aussi le point de vue d’Isabelle Falque-Pierrotin, Présidente de la CNIL, citée dans Numerama  « Parce que les libertés publiques sont consubstantielles à l’Etat de droit dont elles constituent le cœur, aucun impératif de sécurité ne peut conduire à leur remise en cause profonde » .donnees-persos-111705

D’autre part, en France, on comprend moins que nos valeurs universelles héritées des Lumières (liberté de mouvement et d’expression, notamment vis-à-vis des croyances religieuses, laïcité) soient moins partagées par les peuples du monde entier. Or, une publication quasi confidentielle comme Charlie Hebdo, est propulsée grâce au web au niveau de l’ensemble de la planète … Et comme une image en dit plus qu’un millier de mots … ! Et surtout, les populations qui sont aussi attachées à la liberté d’expression comme les anglo-saxons ne comprennent pas les limites que la France met à ce droit fondamental : incitation à la haine, racisme, xénophobie, etc… Comme le fait remarquer le philosophe américain Steve Fuller dans un article de Al Rasub, les Etats ne seraient plus en mesure de protéger l’ensemble des populations si tout le monde se comportaient effectivement en « Charlie » … Et la défense de la liberté d’expression risquerait de se transformer en apologie de l’autodéfense et du port d’armes, en raison de l’insuffisance des forces de sécurité publique pour protéger les citoyens !

Cette double incompréhension risque de multiplier les dérapages, aussi bien en France qu’à l’étranger, notamment en ce qui concerne la censure et la répression sur l’internet…

sécurité

Internet-signalement.gouv.fr.
Portail officiel de signalement des contenus illicites de l’internet

LOI n° 2013-1168 du 18 décembre 2013 relative à la programmation militaire pour les années 2014 à 2019 et portant diverses dispositions concernant la défense et la sécurité nationale. – Journal Officiel, version consolidée au 29/01/15

Champeau, Guillaume. – La CNIL dit « oui mais » à la surveillance accrue sur internet. – Numerama, 26/01/15

Fuller, Steve William. – Charlie Hebdo : a bonanza for gun owners in the making? – Al-Rasub, 20/01/15

« Un système d’échange de données serait plus efficace et protecteur de la liberté des citoyens »/ Entretien Jean-Paul Laborde, propos recueillis par Jacques Follerou. – Le Monde, 14/01/15

Fredouelle, Aude. – A quoi pourrait ressembler un « Patriot Act » à la française » ? Journal du Net, 14/01/15

Cazeneuve « Il nous faut adapter le système Schenguen ». – Les Echos, 11/01/15

#CharlieHebdo : Non à l’instrumentalisation sécuritaire. – Quadrature du Net, 09/01/15

Champeau, Guillaume. – Sites terroristes : le gouvernement notifie son projet de blocage à Bruxelles. – Numerama, 09/01/15

Rees, Marc. – Les écoutes légales des conversations sous Skype bientôt possibles. – NextINpact, 06/01/15

Lefebvre, Arnaud. – Big Brother en France : en 2015 le gouvernement aura accès à toutes les données des internautes. – Express.be, 02/01/15

Madden, Mary. – Public perception of privacy and security in the post-Snowden era. – Pew Research Center, 12/11/14

Réflexions sur l’ « IFLA Trend Report » : les défis qui attendent les professionnels dans la société de l’information

Twitter network of @OIIOxfordLe dernier « Trend Report » de l’IFLA , publié juste avant le Congrès de Singapour en août 2013, « Riding the Waves or Caught in the Tide? Navigating the evolving information environment” se penche sur les principales tendances qui marquent notre environnement informationnel.

Cette fois, ce ne sont pas des problèmes techniques, ou même scientifiques que le numérique pose à la profession et aux médiateurs, mais plutôt des questions éthiques et philosophiques, voire politiques, dues notamment à l’émergence du ‘big data’ avec le recueil d’un grand nombre de données personnelles pour toute transaction.

Le rapport présente cinq grandes tendances pour le futur proche :
– Les nouvelles technologies vont en même temps étendre et restreindre l’accès à l’information en fonction des publics concernés.
L’extension concerne le développement de l’ouverture des données publiques (open data), des archives ouvertes, des « e-commons » (savoirs communs), etc.
Les limites, ce sont les restrictions à l’accès : DRM, mots de passe, biométrie. Mais aussi le fossé numérique qui se creuse, créant une situation d’inclusion/exclusion en ce qui concerne les compétences numériques (information literacy skills).
– Les cours en ligne vont aussi bien démocratiser que bouleverser l’enseignement au niveau mondial. D’un côté les MOOC (cours en ligne massifs), les ressources éducatives en ligne vont permettre un apprentissage tout au long de la vie (lifelong learning), mais cet enseignement informel et souvent la pédagogie inversée (flipped learning) qu’il implique, vont remettre en question toute la structure éducative.
– Les frontières autour de la vie privée et la protection des données personnelles doivent être redéfinies. Le scandale de l’utilisation de métadonnées de messageries et de réseaux sociaux par la NSA et les multinationales de l’information ont révélé au monde que l’on pouvait traquer des individus à travers leurs connexions numériques et leur téléphone mobile … ! Tout cela a remis en cause la confiance que tout un chacun avait dans l’internet et le numérique … Comme le dit Philippe Mussi, conseiller régional Vert de la région PACA en introduction de la Semaine européenne de l’Open data : « l’ouverture des données, c’est la reprise en main par le citoyen de l’espace démocratique. Elles doivent être ouvertes, car c’est politique, et parce que c’est dangereux. Oui, les nouvelles libertés présentent des dangers. Dans un paysage général où le monde s’ouvre, où la transparence est à la fois demandée et imposée par la société, la transparence de la gestion publique est de toute première importance. On ne peut plus imaginer de démocratie fermée sur la propriété de la connaissance de la chose publique. Nous devons tous contribuer à cet objectif-là !” [Cité dans InteretActu].
– Dans ces sociétés hyper-connectées, de nouvelles voix et de nouveaux groupes vont émerger pour s’emparer de problèmes sociaux ou politiques à travers des actions collectives et de nouveaux médias.
– Les nouvelles technologies vont transformer l’économie mondiale : de nouveaux modèles économiques vont s’imposer à travers structures innovantes (e-commerce, mobilité, etc.).
En 2016, on prévoit 10 milliards d’appareils mobiles connectés à l’internet. Il y a aussi la technologie que l’on porte sur soi (wearable), comme les « Google Glasses ».

Mais en quoi tout ceci concerne les bibliothèques ?
Imaginons un usager entrant dans une bibliothèque portant ces fameuses lunettes « moteur de recherche » : de fait avec cet instrument, il peut mettre toutes les personnes présentes (lecteurs + bibliothécaires) sous surveillance … !! Comment les bibliothèques pourraient-elles rester des lieux sûrs dans ces conditions ? Il faudra désormais trouver le moyen de concilier la technophilie avec le respect de l’intimité …

Les cours en ligne, par exemple, sont des mines d’or en ce qui concerne les données personnelles. Les résultats de tests, les progrès réalisés par les étudiants, et d’autres informations sont importants pour les éducateurs pour évaluer les apprenants et améliorer leur enseignement. Mais dans un environnement mondial de plus en plus numérisé et connecté, il faut se poser la question : qui d’autre a accès à ces données ?
Il faut donc penser non seulement à gérer ces informations indispensables à l’enseignement, mais aussi à les protéger.

Les étudiants utilisent de plus en plus des moteurs de recherche pour répondre à leurs questions de cours. Il faudrait analyser leurs habitudes de recherche pour évaluer l’influence qu’elles ont sur leurs réponses. Est-ce vraiment toute l’information dont ils ont besoin ? Ces algorithmes appartiennent à des sociétés multinationales et surtout ont été développés pour augmenter les revenus des publicités en ligne. Cela devrait faire réfléchir les bibliothécaires et les enseignants lorsqu’ils encouragent les étudiants à utiliser ces outils …

D’autre part, si toutes les réponses sont dans l’algorithme, que devient la bibliothèque ?

D’après l’enquête de l’Oxford Internet Institute, actuellement les gens ont plus confiance dans les FAI (fournisseurs d’accès internet) que dans les médias et les principales institutions politiques, sociales ou économiques (journaux, entreprises, gouvernements, etc.).

Mais si les technologies de recherche limitent la quantité et la diversité d’information en fonction des usages, des langues et de la localisation géographique, peut-on encore avoir confiance dans les résultats fournis par les moteurs de recherche ?
Comment les bibliothécaires et les éducateurs pourraient-ils désormais assurer aux étudiants et aux usagers qu’ils accèdent bien à l’information pertinente et non à celle que leur données agglomérées a permis à l’algorithme de trouver ? Dans ce cas de figure, « comment qualifier « la chance » (J’ai de la chance) ? Comment édifier des communautés fondées sur l’inattendu ? » Louis Zacharilla – Global Intelligent Community Forum.

Les gouvernements, même les plus démocratiques, filtrent de plus en plus l’accès à l’information en ligne sous prétexte de prévention du terrorisme ou de l’ »immoralité ».
Les bibliothèques se sont toujours opposées à la censure : a-t-on prévu des réponses adéquates à cette problématique ?
Si ces pratiques se développent, les bibliothèques pourront-elles mener à bien leurs mission de recueil et de préservation de la mémoire numérique ? Cross-language blog linking in the aftermath of the 2010 Haitian earthquake

Future Libraries : infinite possibilities – IFLA WLIC 2013 IFLA World Library and Information Congress – 79th IFLA General Conference and Assembly. – 17-23 August 2013, Singapore

Riding the Waves or Caught in the Tide? Navigating the Evolving Information Environment. – Insights frond the Trend Report – IFLA, 16/08/2013

Livre numérique, médiation et service de référence en ligne, droit d’auteur – Congrès IFLA Singapour 2013. – Bibliobsession, 30/08/13

Guillaud, Hubert. – Open data (1/3) : la technique a-t-elle pris le pas ? - Internet Actu, 12/07/13

Oxford Internet Institute – University of Oxford

Oxford Internet Survey (OxIS) 2013 Report Lauch

Intelligent Community Forum

Sur les MOOC et le e-learning
Voir le Scoop It ProspecBib : Formation en ligne & à distance

Sur l’open access et les archives ouvertes
Voir le Scoop It : Open Access Now !

Sur la société de surveillance et l’utilisation des données personnelles
voir le Scoop it : Big Brother, little sisters

Carte d’identité : la biométrie s’impose avec une base de données centrale …

Le 6 mars, l’Assemblée nationale a définitivement adopté la Proposition de loi relative à la protection de l’identité. La nouvelle carte d’identité numérique comprend comme le passeport, des données biométriques (taille, couleur des yeux, deux empreintes digitales et une photo).
Ces données personnelles seront conservées dans un fichier central, le TES (Titres électroniques sécurisés, ou « fichier des gens honnêtes »).
La proposition de loi prévoit aussi l’exploitation des empreintes digitales à des fins de police judiciaire, notamment dans le cadre de recherche sur l’usurpation d’identité.

La CNIL avait déjà réagi en octobre 2011, en publiant une Note d’observations concernant la proposition de loi relative à la protection de l’identité. Elle rappelle que « les données biométriques ne sont pas des données à caractère personnel comme les autres » : la donnée biométrique n’est pas « attribuée par un tiers ou par la personne elle-même, elle est produite par le corps lui-même ». Certaines données « à trace » comme les empreintes digitales, peuvent même être capturées à l’insu de la personne …

Mais si la Commission trouve légitime ces dispositifs de reconnaissance biométrique, du moment que les données sont conservées sur un support individuel, détenu par la personne elle-même, en revanche, la position de la CNIL est très claire sur la mise en place d’un fichier central biométrique : « si légitimes soient-elles, les finalités invoquées ne justifiaient pas la conservation, au plan national, de données biométriques telles que les empreintes digitales et que les traitements ainsi mis en oeuvre seraient de nature à porter une atteinte excessive à la liberté individuelle. »

Les dimensions importantes de cette base de données centralisée multiplie les risques et impliquent une sécurisation technique complexe. La Commission propose des mesures alternatives de lutte contre la fraude qui sont tout aussi efficaces, tout en étant respectueuses de la vie privée des personnes : sécurisation des documents « sources » pour produire les titres d’identité, vérification des données d’état civil, etc. Elle préconise aussi l' »absence de lien univoque » entre les données biométriques du fichier central et les données d’état civil des personnes auxquelles elles correspondent.

Une autre puce RFID, optionnelle celle-ci, est prévue pour une authentification à distance dans le cadre de démarches administrative ou de e-commerce. La encore, la CNIL trouve cette préoccupation légitime, contrairement à Jean-Claude Vitran de la Ligue des Droit de l’homme « Une carte d’identité n’est pas un moyen de paiement », mais elle met en garde contre les dangers de « traçage » des individus : « de telles fonctions électroniques appellent des garanties particulières, dans la mesure où elles pourraient permettre la constitution d’un identifiant unique pour tous les citoyens français ainsi que la constitution d’un savoir public sur les agissements privés. » La Commission estime que de telles fonctionnalités doivent s’accompagner de « mécanismes dits de divulgation partielle ou sélective », c’est-à-dire que seules les données nécessaires aux transactions seront communiquées.

Le risque avec les puces RFID, c’est qu’elles peuvent fonctionner « sans contact », donc à distance, et qu’elles pourraient ainsi être piratées …
D’après Owni, le Ministère de l’intérieur à récemment reconnu que 10% des passeports biométriques en circulation seraient des faux !
Dans ces conditions, on se demande à quoi peuvent servir toutes ces mesures de « sécurisation » ….


Contestée, la carte d’identité biométrique a été définitivement adoptée
par Laurent Borredon, Le Monde, 07/03/12

L’Assemblée nationale a voté le fichage intégral de la population française
par Pierre Piazza, Maître de Conférences en Science politique à l’Université de Cergy-Pontoise, Le Monde, 06/03/12

Carte d’identité : déjà en haut de la fiche
Libération, 18/02/12

Le fichage « d’honnêtes gens » adopté par l’Assemblée nationale
par Hélène Puel, O1Net, 02/02/12

Fichier central des « gens honnêtes » : l’Assemblée vote oui
ZDNet, 03/02/12

Fichez les tous !
par Jean-Marc Manach, Owni, 01/02/12

Le fichier des « gens honnêtes » repasse à l’Assemblée
Bug Brother, Blogs Le Monde, 13/12/11

La future carte d’identité biométrique : entre fichage généralisé et business juteux
par Agnès Rousseaux, Basta !, 12/12/11

La nouvelle carte d’identité biométrique pour 2012
Protégez-vos données.fr, 12/07/11

Hadopi 3 : quand Nicolas Sarkozy découvre le streaming …

Une des principales critiques formulée contre le dispositif Hadopi, était que la pratique du « P2P » visée par la loi, était déjà dépassée, notamment par le streaming …

C’est contre cette nouvelle forme de piratage que Nicolas Sarkozy a lancé sa dernière croisade pour défendre le droit d’auteur. « Hadopi 3 » s’attaquera au streaming, c’est ce que le Président a annoncé aux « Rencontres internationales sur la Culture, l’économie et les médias » au Forum d’Avignon, le 18 novembre dernier. Après s‘être félicité du succès d’Hadopi (le piratage aurait reculé de 35%), Nicolas Sarkozy a dénoncé cette technologie « Sur les sites de streaming, l’idéologie de partage, c’est l’idéologie de l’argent : je vole d’un côté, je vends de l’autre … ».

Mais le gouvernement n’a pas vraiment approfondi ce dossier qui présente des difficultés aussi bien juridiques que techniques, même si Éric Besson pense que « c’est une nouvelle commande très claire du Président de la République ».

L’aspect illégal du straming ne se présente pas de façon aussi claire que pour le P2P.
Utilisé par les radios en ligne et les sites de vidéos (YouTube, DailyMotion), le streaming est « une diffusion en continu d’un flux audio ou vidéo et permet la lecture d’un flux de donnée à mesure qu’il est diffusé » (Streaming – Wikipedia).
Il s’oppose au téléchargement, car il n’implique pas la récupération sur un fichier de l’ensemble des données d’un morceau ou d’un extrait vidéo.
Evidemment, des petits malins ont trouvé moyen de télécharger complètement les fichiers grâce à des logiciels appropriés …

Cependant, les méthodes employées pour contrôler les échanges sur les réseaux de P2P ne pourront pas être appliquées telles quelles au streaming. Pour combattre ces pratiques illégales, il faudrait avoir recours à des mesures qui mettraient en cause le respect de la vie privée : filtrage, DPI (Deep Packet Inspection : analyse du contenu d’un paquet réseau). Pour cela les hébergeurs devraient voir évoluer leur statut qui comportera une obligation de surveillance …
De plus, les principales plate-formes de streaming et de téléchargement direct ne sont hébergées ni en France, ni en Europe.

D’ailleurs, la Cour de justice de l’Union européenne a tranché sur ce point : « le droit de l’Union s’oppose à une injonction, prise par une juridiction nationale, d’imposer à un fournisseur d’accès à internet (FAI) la mise en place d’un système de filtrage afin de prévenir les téléchargements illégaux de fichiers. Une telle injonction ne respecte l’interdiction d’imposer à un tel prestataire une obligation générale de surveillance ni l’exigence d’assurer le juste équilibre entre, d’une part, le droit de propriété intellectuelle et, d’autre part, la liberté d’entreprise, le droit à la protection des données à caractère personnel et la liberté de recevoir ou de communiquer des informations. »
Arrêt Sabam de la Cour de Justice de l’UE du 24 novembre 2011

En effet, cette injonction risquerait d’entraîner le blocage des communications à contenu licite …

En attendant, Frédéric Mitterrand, Ministre de la culture et de la communication, annonce qu’il dévoilera d’ici trois mois, différentes mesures contre les sites de streaming illégaux

Hadopi et la lutte contre le piratage numérique sont en train de devenir un des enjeux de la présidentielle et les deux principaux candidats (ou futur candidat …) s’en sont emparés.
A suivre …

Sarkozy prêt à une loi Hadopi 3 contre le streaming
par Guillaume Champeau, Numérama, 18/11/11

Hadopi et streaming : des questions techniques et juridiques se posent par Christophe Auffray, ZDNet.fr, 21/11/11

Pourquoi Sarkozy fait d’Hadopi un enjeu de la présidentielle par Olivier Tesquet, Télérama, 21/11/11

Le filtrage des téléchargements imposé aux FAI est illégal par Etienne Wery, Droit & Technologies, 24/11/11

Téléchargement illégal : la justice européenne dit non au filtrage généralisé par Christophe Auffray, ZDNet.fr, 24/11/11

L’Hadopi sonne la charge contre les sites de streaming et de DDL par Guillaume Champeau, Numérama, 25/11/11

Lutte contre le streaming illégal : la Hadopi a 3 mois pour formuler des mesures par Christophe Auffray, ZDNet.fr, 25/11/11

Hadopi 3 – Le fail annoncé Korben, 27/11/11

François Hollande remplacera Hadopi par Hadopi par Guillaume Champeau, Numérama, 28/11/11

Lutte contre le streaming illégal : la Hadopi répond présent par Christophe Auffray, ZDNet.fr, 28/11/11

Hadopi va s’attaquer au téléchargement direct et au streaming par Jacques Cheminat, Le Monde informatique, 29/11/11

Staypressed theme by Themocracy