Travail et numérique : un nouveau paradigme ? 1 – Les avancées robotiques

NaoDes messages contradictoires parviennent pour définir l’évolution  du travail à l’ère numérique. D’une part, le numérique est considéré comme le secteur d’avenir, avec à la clé des dizaines de milliers d’emplois, comme le prévoit le Plan Big Data ; d’autre part, l’automatisation croissante de nombreux secteurs risque de détruire des millions d’emplois si l’on en croit l’étude de Roland Berger, citée par RSLN.

Mais, plus profondément, c’est la structure même du travail et de l’emploi qui est remise en question avec l’introduction des technologies de l’information dans l’entreprise. Certains s’interrogent déjà sur la survie de l’entreprise, notamment en raison de la disparition des coûts de transaction : c’est ce qui ressort dans la synthèse réalisée par l’Atelier de l’emploi du Livre blanc de l’Aspen Institute   « The future of work 2 : comment la technologie transforme le travail ».  La structure verticale, fondée sur la hiérarchie des entreprises traditionnelles va être de plus en plus remplacée par l’horizontalisation et la décentralisation des organisations.

Aujourd’hui, nous examinerons uniquement l’impact des avancées du numérique et de la robotique sur le marché du travail.

Les progrès en intelligence artificielle et en robotique

Malgré quelques annonces fracassantes depuis une trentaine d’années, l’intelligence artificielle (IA) n’avait pas vraiment effectué d’avancées significatives et la robotique était cantonnée à certains secteurs industriels et restait encore très coûteuse ….

Mais il semblerait que ces deux activités de pointe, très liées par ailleurs, aient réalisé récemment un bond qualitatif permettant désormais de les prendre en compte dans l’avenir du marché du travail !

Alors, menaces ou opportunités ? C’est ce qu’analyse le PewResearch Internet Project dans une enquête auprès de 1896 experts. A la question « Quel va être l’impact des avancées de la robotique et de l’IA à l’horizon 2025 ? », une petite moitié (48%) a une réponse pessimiste : les robots et les agents intelligents vont peu à peu remplacer un grand nombre de travailleurs, aussi bien des ouvriers et des employés que des cadres, provoquant de grandes inégalités et du désordre social. Les autres experts (52%) prévoit en revanche que ces technologies ne vont pas remplacer plus d’emplois que ceux qu’ils vont créer d’ici 2025 ! Ils font confiance à l’inventivité humaine pour créer de nouveaux emplois, de nouveaux secteurs d’activité, de nouvelles façons de gagner sa vie, comme cela s’était passé à l’aube de la Révolution industrielle …. !

Mais tous les prospectivistes ne sont pas aussi optimistes ! Dans son étude, Roland Berger prévoit que 20% des tâches seront automatisées d’ici à 2025, les robots mettant au chômage 3 Millions de personnes ! Céline Deluzarche recense dans Le Journal du Net les 25 métiers bientôt remplacés par des robots … Et là encore, cela ne concerne pas uniquement les tâches répétitives des métiers manuels, mais des professions comme pilote d’avion, gardien de prison, pompier, agriculteur ou psychologue !! C’est pourquoi Bill Gates préconise dans une interview à l ‘American Institute Entreprise de taxer plutôt le capital et la consommation que le travail salarié ….

Le numérique, pourvoyeur d’emplois ?Fotolia_6549225_S-350X220

Quant au numérique, ce secteur ne produirait pas autant d’emplois qu’il en détruit … ;-( L’étude de Roland Berger compare par exemple, le nombre de postes créés par Instagram au moment de son rachat par Facebook (13) au nombre de salariés chez Kodak à son apogée (140 000) … !  Dans leur étude (U. d’Oxford, 2013) sur l’avenir de l’emploi et l’automatisation, Carl Frey et Michael Osborne estiment que 47% des emplois américains sont menacés ! Mais ils font aussi remarquer que ce dilemme s’est déjà posé dans l’histoire du marché du travail au siècle passé et que de nouvelles activités sont venues remplacer les emplois détruits par les différentes innovations : industries après  agriculture, services plutôt qu’industries, etc.

C’est dans cette perspective, avec l’idée que la plupart des métiers de demain n’ont pas encore été inventés, que le « Plan Big Data », un des 34 plans de reconquête industrielle lancé par le gouvernement en octobre 2013, vise à positionner la France parmi les leaders mondiaux dans ce nouveau secteur. Il prévoit un marché de 9 milliards d’euros à l’horizon 2020 et 130 000 emplois dont 80 000 créations ! La Commission européenne, prévoit, au niveau de l’UE,  900 000 postes à pourvoir en 2015. Mais cela implique des formations en masse de ‘data scientists’, sans parler des juristes et autres spécialistes de manipulations et trafics de données à prévoir avec la CNIL pour protéger les données personnelles.

Ces prévisions sont cependant toujours projetées dans un marché du travail et un écosystème économique semblables à ceux que nous connaissons. Or, de nombreuses tendances indiquent qu’ils sont en pleine mutation et que les organisations du travail actuelles (entreprises verticales, salariat) sont en voie de disparition …

Dans un prochain post, nous examinerons les alternatives à ce modèle économique et aux nouvelles façons de travailler (et de vivre !) que nous prépare l’avenir ! robots-option-binaire

The Future of Work II : comment la technologie transforme le travail ? par l’Atelier de l’Emploi. – ManPower Group, 10/05/11

Frey, Carl Benedict ; Osborne, Michael A. – The Future of Employment :How jobs are susceptible of computerisation ? - Oxford University, Sept. 2013

Guillaud, Hubert. - Comment travaillerons-nous ? - InternetActu, 18/02/14

Bill Gates says robots and automation will take jobs. – Next Big Future, 28/05/14

Comment travaillerons-nous demain ?Regards sur le Numérique, 03/06/14

Biseul, Xavier. – Le Plan BigData vise à créer 80 000 emplois d’ici à 2020. – 01Net, 03/07/14

Fumard, Camille. – Les métiers du numérique meilleur vivier pour lutter contre le chômage. – Regards sur le Numérique, 29/07/14

Robotisation du travail : jusqu’où l’Homme est-il prêt à « s’augmenter » sans perdre son emploi ?Regards sur le Numérique, 30/07/14

Smith, Aaron ; Anderson, Janna. – AI, Robotics and the Future of Jobs. – PewResearch Internet Project, 06/08/14

Les classes moyennes face à la transformation digitale. - Roland Berger, 27/10/14

Trujillo, Elsa. – Les robots pourraient détruire 3 Millions d’emplois en France d’ici 2025. – Regards sur le Numérique, 28/10/14

Barbaux, Aurélie. – Les algorithmes vont-ils remplacer les fonctionnaires ? – Usine digitale, 06/11/14

 

Lire, écrire à l’ère numérique – 2 – Ecriture et éditorialisation

La grammatologie

84135761_oComme il a été évoqué dans le post précédent, l’écriture est très liée au dispositif de lecture. L’écriture n’est pas la transcription fidèle de la parole pleine sur un support, ce n’est pas une simple reproduction du langage. C’est ce que Derrida explique dans la De la Grammatologie[1]  « La brisure [de l’écriture] marque l’impossibilité pour un signe, pour l’unité d’un signifiant et d’un signifié, de se produire dans la plénitude d’un présent et d’une présence absolue ». Cette distance de l’écriture par rapport au langage et à la pensée, va être traduite par la notion de ‘trace’ : « cette trace est l’ouverture de la première extériorité en général […] : l’espacement ». Derrida arrive ensuite à la notion de ‘gramme’ (que l’on retrouve dans ‘programme’ « Depuis l’’inscription génétique’ et les ‘courtes chaînes’ programmatiques réglant le comportement de l’amibe ou de l’annélide jusqu’au passage au-delà de l’écriture alphabétique de l’ordre du logos et d’un certain homo sapiens, la possibilité du gramme structure le mouvement de son histoire ». On retrouve ici l’idée de codage spécifique de certaines aires neuronales que le neuropsychologue Stanislas Dehaene avait identifié pour la lecture. C’est ce que souligne aussi Christian Fauré dans son post Généalogie d’un lecteur : L’écriture est une ‘grammatisation’ (le codage) d’un message et la lecture, la ‘dégrammatisation’. En lisant, on écrit aussi dans le cerveau, on décode ce qui est tracé sur le support. Si on n’effectuait pas ce processus de décodage, on lirait comme une ‘tête de lecture’, sans rien comprendre … ! Ou tout au moins en ne comprenant que très partiellement …. traces

La lecture, surtout dans un environnement scientifique, s’accompagne souvent d’écriture, soit sur le support lui-même, annotations, surlignages, soit sur un autre support : fiche de lecture, notice, etc. Ces balisages divers signalent que la lecture a dépassé le stade alphabétique pour atteindre un stade cognitif : tri, sélection. Comme le fait remarquer Christian Fauré, peu importe si on ne relit pas ses propres annotations, car « souligner un livre c’est aussi et en même temps écrire dans son cerveau ». Ces gribouillis si souvent réprimés par les éducateurs et les bibliothécaires – c’est vrai qu’ils endommagent les ouvrages – vont retrouver une nouvelle vie avec le numérique ! Les lecteurs ‘écrivants’ d’aujourd’hui vont aussi pouvoir partager leurs commentaires avec d’autres lecteurs comme dans les bibliothèques du Moyen-Age où chaque clerc ajoutait son commentaire dans la marge ! La différence, c’est que l’on peut les faire apparaître ou disparaître en fonction des besoins.

Dans l’environnement numérique des e-books, chaque lecteur peut conserver ses annotations sur la plateforme de lecture en ligne. De même, de nombreux outils existent pour catégoriser et annoter les articles et blogs sur la Toile. C’est ce qui me permet d’écrire moi-même ce post à partir de tous les articles que j’ai recensé sur Diigo à partir du tag ‘écriture’moleskine_ecriture_infinie_698

L’éditorialisation du web

Le grammatologue allemand Ulmer appelle cette nouvelle compétence ‘electracy’, electronic literacy. C’est pourquoi l’écriture dans l’environnement numérique ne peut être la reproduction à l’identique de l’œuvre numérisée, comme c’est le cas aujourd’hui des e-books et des revues en ligne. C’est l’objet de la série de séminaires organisés depuis 2011 par l’IRI au Centre Georges Pompidou « Ecritures numériques et éditorialisation ». Dominique Cardon et Audrey Laplante démontrent dans une de ces conférences comment fonctionne le dispositif d’éditorialisation de contenus sur le web. Grâce à une structuration des données par des algorithmes, l’internaute les atteint après un ‘parcours de lecture’. Il ne se trouve pas directement en relation avec les producteurs de contenus. La plupart du temps, il doit passer par les algorithmes des moteurs de recherche (PageRank de Google) ou des réseaux sociaux (EdgeRank de Facebook).

L’écriture sur le web passe aussi par les différentes sortes de messageries (mels, messageries instantanées, microblogging) qui permettent aux individus d’exprimer leurs opinions et leurs sentiments sur toutes sortes d’informations et d’évènements. Et ce, pas seulement au moyen d’écriture alphabétique mais aussi à travers plusieurs autres médias : infographies, photos, vidéos, etc.

Avec les sites web, blogs et réseaux sociaux, l’écriture n’est plus réservée aux seuls professionnels, journalistes ou spécialistes en communication des entreprises ou des organismes publics. Chacun peut devenir rédacteur ou éditeur de son propre contenu … Malgré l’importance et l’omniprésence des images, fixes ou animées, les jeunes n’ont jamais autant écrit qu’en ce début de 21e siècle !

De plus, des outils dédiés (Framapad) permettent de plus en plus une écriture collaborative, qui va de l’administration à la recherche (compte rendus de réunions, de colloques) à la fiction (cadavres exquis, romans collectifs).

Toutes ces activités laissent évidemment des traces sur les réseaux. Nous retrouvons donc ici la notion-clé de l’écriture théorisée par Derrida : la ‘trace’. Ce sont ces traces qui vont alimenter aussi bien la surveillance des « Big brothers » dictatoriaux ou démocratiques que les serveurs des entreprises et des organisations à travers le traitement des mégadonnées (Big Data)… !

2013-05-22 003Le traitement de certaines traces, les métadonnées, vont servir de balises sémantiques pour se repérer dans le chaos du web, c’est le rôle des moteurs de recherche. Ces derniers explorent le web en lisant d’abord des milliards de pages à l’aide de logiciels robots et les indexent automatiquement. Ensuite, ils ne se contentent pas de présenter les résultats de façon brute : ceux-ci sont présentés, éditorialisés en fonction d’algorithmes bien précis (PageRank).

En attendant les robots-écrivains, les ‘robots-journalistes’ !

Slate signale l’expérience d’Associated Press avec la rédaction d’articles par des logiciels robots. Pour le moment il s’agit essentiellement de dépêches traitant les résultats financiers d’entreprises financières américaines qui vont être intégrées en direct dans le fil international d’AP. Même s’il s’agit pour le moment de tâches de base qui ne passionnent pas les journalistes (extraire des informations des bases de données) mais que les automates sont beaucoup plus rapides et efficaces à traiter … Tous les professionnels de l’information, documentalistes, veilleurs, traducteurs, rédacteurs se sentent menacés par l’émergence de cette concurrence virtuelle, mais l’intelligence artificielle a encore de grands progrès à faire avant mettre en dangers toutes ces professions intellectuelles … automated robot journalism

[1] Derrida, Jacques. – De la grammatologie. – Paris, Ed. de Minuit, 1967.


 Enseigner l’écriture numérique. – Dossier séminaire PRECIP – UTC de Compiègne, 4-5 avril 2012 – Revue Skhole.fr

Généalogie d’un lecteur (2) : l’écriture du lecteur. – Christian Fauré, 01/07/12

L’écriture numérique, une écriture sociale ? – Le rendez-vous des lettres – Eduscol, 2012

Gilliot, Jean-Marie ; Scarlatti, Serge. – Écritures collaboratives pour des cours ouverts sur le web. – Institut Mines Télécom – Télécom Bretagne, 2012

How does writing modifies your brain ? [infographic]. – Daily Infographic, 26/05/13

750 auteurs réunis pour l’écriture d’un roman collectif. – Actualitté, 07/11/13

De la stratégie de contenu web à la stratégie d’information web. – Plume interactive, 10/06/13

Sicot, Timothée. – SMS et réseaux sociaux améliorent l’écriture des étudiants. – L’Atelier : disrupture innovation, 24/09/13

Cardon, Dominique ; Laplante, Audrey. – Algorithmes et éditorialisation automatisée – Ecriture numérique et éditorialisation. – Polemic Tweet, 24/04/14

Oresmus, Will. – Journalisme-robot : le soulèvement des machines à écrire. – Slate, 27/07/14

 

 

Lire, écrire … A l’ère numérique – 1 – La lecture aujourd’hui

270x300 lireL’environnement numérique est depuis quelque temps accusé de tous les maux, et surtout d’avoir « tué » la lecture, notamment chez les jeunes. En perturbant l’attention des lecteurs avec des liens hypertextes et des notifications diverses (mails, réseaux sociaux, SMS et même coups de fils) sur les ordinateurs et terminaux mobiles, la lecture numérique perd l’intensité de l’’attention profonde’ qui permet de s’investir pleinement dans un texte et de comprendre un document. Cette dernière se transforme alors en ‘hyperattention’ et se disperse en suivant plusieurs fils d’information. C’est ce que démontre Katherine Hayles, professeur à l’Université de Duke, citée dans le séminaire de l’IRI « Ecologie de l’attention » organisé par Bernard Stiegler et Igor Galligo en 2013-2014 au Centre Pompidou. J’avais évoqué cette controverse dans le post « Livres/écrans : quelle hybridation pour la bibliothèque du 21e siècle » : il apparaissait que le problème ne résidait pas dans l’opposition ‘papier/numérique’, puisque les liseuses à encre électronique (e-ink) permettent l’attention profonde, mais dans la dualité entre culture des écrans et culture du livre selon le psychanalyste Serge Tisseron. Dans la culture du livre le rapport au savoir est vertical (auteur/lecteur), tandis que devant les écrans, les lecteurs se trouvent devant un accès plus diversifié et horizontal.

D’autre part, comme le démontre le neuropsychologue Stanislas Dehaene dans la vidéo cerveau_lecture« cerveau et lecture » à l’Académie Royale de Belgique, la mise en place de la lecture est apparue assez tard dans l’histoire de l’humanité : au cours de l’évolution, la plasticité du cerveau a permis de ‘recycler’ une aire neuronale pour la consacrer à l’activité du décodage de signes abstraits (mots). L’imagerie cérébrale a permis d’identifier cette zone et notamment le rôle du cortex temporal gauche, la « boite à lettre » du cerveau, dans cette activité. Les neurones de cette région ne répondent pas lorsque la personne est illettrée. Si notre système cognitif a pu s’adapter à un moment de notre histoire pour produire l’activité de lecture (et d’écriture comme mémoire externe), il devrait être capable de  s’adapter aussi à l’environnement numérique.

C’est ce qu’explique Christian Jarrett dans le post de Wired  «The Internet isn’t ruining your teenager’s brain ». Malgré les prophètes de mauvais augure qui nous présentent une génération d’adolescents perturbés et distraits, internet et les usages numériques pourraient avoir une action positive sur l’esprit des jeunes en les rendant plus sociaux. Et même si une très faible minorité subit une addiction, par exemple aux jeux vidéo, la plasticité du cerveau devrait permettre d’inverser ce processus à l’âge adulte …

internet-rend-il-bete,M24827

D’ailleurs la lecture numérique a d’autres avantages recensés dans le post La lecture sur l’internet rend-elle idiot? Pas si sûr! : survoler un article pour en extraire les informations pertinentes, etc. Comme le dit l’écrivain espagnol Lorenzo Silva, cité dans un article d’Actualitté, Internet est « le grand texte du peuple qui ne lit pas ». Si les gens ne lisent plus comme avant, internet n’est rien d’autre que du texte (de moins en moins …) et il faut s’assurer de la qualité de ce grand texte !

Il existe aussi un certain nombre d’outils qui permettent de retrouver sur les écrans la tranquillité de la page imprimée. Evernote ou Readability suppriment tous les parasites (publicités, annonces diverses, renvois, etc.) qui polluent les sites web pour donner accès à une lecture ‘zen’ ou décalée ;-) Mais, sauf si on déconnecte le terminal, on n’échappera pas aux ‘distractions’ en ligne : hypertexte, notifications …

Il est vrai que la place de la lecture a beaucoup régressé dans les activités culturelles des Français, au profit bien sûr des médias audiovisuels et interactifs : télévision, vidéos, jeux vidéo, musique, etc. La lecture de vingt livres ou plus par an est passée, d’après les enquêtes sur les pratiques culturelles des Français,  de 28 personnes sur 100 en 1973 à 16 en 2008, et surtout de 41 à 16 pour les 18-24 ans ! Un enquête plus récente d’IPSOS citée dans Actualitté comparaît les données de 2014 sur le comportement des lecteurs avec celles de 2011 : si la proportion des lecteurs au format papier a légèrement diminué passant de 70% à 69%, les lecteurs au format numérique sont passé de 8 à 11% en trois ans ! La pratique de la lecture n’a donc pas disparu, mais se transforme …

Au niveau mondial, l’édition numérique serait en hausse et devrait progresser de près de 20% sur la période 2013-2018 d’après le « Global e-book market ».

La fréquentation des bibliothèques reflète d’ailleurs cette tendance : l’inscription en bibliothèque a progressé entre 1973 et 2008 : on est passé de 13 Français de 15 ans et plus sur 100 en 1973 à 18 inscrits en 2008 et surtout de 18 à 31 pour les 18 – 24 ans ! Il est intéressant de corréler ces données avec les pratiques de lecture de livres : il semblerait que les jeunes ne fréquentent pas les bibliothèques uniquement pour lire des livres ! En revanche, en ce qui concerne les bibliothèques universitaires, l’étude réalisée par l’Université de Toulouse en 2012 montre que la relation entre l’utilisation de la documentation des BU et la réussite aux examens des étudiants est bien réelle. «… le lien entre emprunts et réussite est très fort : la probabilité de valider son semestre est beaucoup plus élevée pour les étudiants empruntant beaucoup d’ouvrages que pour ceux en empruntant peu …». enhanced-ebooks

Mais revenons à la lecture numérique. Si les neurosciences cognitives n’ont pas encore tranché sur les différences entre la lecture « papier » et la lecture « écran », cette dernière n’a pas que des inconvénients : elle permet aussi un partage « social » des commentaires et annotations, mais surtout la ‘fouille de données’, en anglais le TDM (text and data mining). C’est ce que souligne Christophe Perales dans son post « Infini de la lecture : de Cassiodore au text et data mining » en comparant l’arrivée du numérique avec la mutation qu’a connu le livre au début du IIIe siècle en passant du volumen au codex. Cette mutation a complètement changé les rapports des lecteurs à l’écrit bien plus que l’invention de l’imprimerie ! « le codex va ouvrir la possibilité de constituer des tables des matières, des index, de confronter bien plus commodément, et quasi simultanément, des passages différents, à l’intérieur d’un même livre ou entre plusieurs ouvrages. […] Une innovation matérielle peut donc avoir des conséquences intellectuelles importantes. »

Le web nous a fait retrouver la possibilité de plusieurs lecteurs d’intervenir sur un même texte pour le commenter à travers des annotations qui existaient déjà au Moyen-Age ! Mais c’est la fouille de contenu qui représente la pratique la plus disruptive apportée par le numérique à la lecture. L’utilisation de ces ‘mégadonnées’ à partir des textes et des corpus grâce aux outils des humanités numérique va changer complètement le rapport au savoir pour les chercheurs. Évidemment, un problème juridique existe encore pour l’accès complètement libre à ces textes. Mais ce qui change complètement la donne dans cette innovation ce n’est plus l’ »interface neuronal » entre l’œil et le système cognitif qui décrypte ces signaux, mais un dispositif automatique, un robot qui « lit » et traite ces volumes très importants d’information. Même si en fin de compte, ce sont des humains qui donnent un sens à cette opération … ! 2013-12-01 002

Pour aller plus loin

Ferrando, Sylvie. - Compte rendu de l’ouvrage  de Stanislas Dehaene Les  neurones de la lecture, introd. de J.P Changeux. Ed. Odile Jacob, 2007. – Relais d’Information sur les sciences de la cognition (RISC)-CNRS, 2007 (pdf).

Ministère de la culture et de la communication. - Enquête sur les pratiques culturelles des Français : évolution 1973-2008. – Département des enquêtes, de la prospective et des statistiques.

Emprunt en bibliothèques universitaires et réussite aux examens de licence. – Étude lecture V 21 – Université de Toulouse, décembre 2012

Keim, Brandon. – Why the smart reading device of the future may be … Paper. – Wired, 05/01/14

Helmlinger, Julien. – Comportement et évolution de la lecture chez les Français. – Actualitté, 13/03/14

L’attention et la dynamique des écrans et images virtuelles in Ecologie de l’Attention – IRI – Centre Pompidou, 02/04/14 – Vidéo Lignes de temps

Jahjah, Marc. – Qu’est-ce que la lecture sociale ? - INAGlobal, 23/07/14

Lire à l’écran : (re)tournons à la page. – Site de François Jourde, 06/08/14

Est-ce que le livre numérique tue vraiment la lecture? – Slate, 14/08/14

Delarbre, Clémence. – La bibliothèque du futur sera-t-elle sans livres ? – Rue 89, 14/08/14

Des livres, des lecteurs, des lectures. – Le dernier blog, 26/08/14

Perales, Christophe. - Infini de la lecture : de Cassiodore au text et data mining. -BibliOpen – Blog Educpros, 04/09/14

Bonnes vacances !

break-feets-field-574-736x550

Quelques références issues de Philosophie Magazine sur le temps et l(a)es vacance(s) à méditer si vous trouvez le temps …

Eltchaninoff, Michel. – L’été en suspend. – PhiloMag. n°21, 03/07/08

Stiegler, Bernard ; Eltchaninoff, Michel. - « Dans la vacance, on cherche à retrouver la consistance dans l’existence » Entretien. – PhiloMag. n°21, 03/07/08

Rosa, Hartmut. – « Les vacances participent de l’accélération généralisé » Entretien. – PhiloMag. n°51, 30/06/11

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Enseignement et numérique : quelles difficultés, quels enjeux ?

l2code-cssUne controverse s’est développée récemment en France sur la nécessité d’enseigner le numérique à l’école. Doit-on en faire une discipline comme les autres, comme les maths ou l’instruction civique ? Ou au contraire, aborder chaque aspect de ce nouveau champ de connaissance à partir des autres enseignements : philosophie, droit, économie, physique, etc. comme le propose Michel Guillou, dans son post sur la « littératie numérique » ?

Il faudrait d’abord définir ce que l’on entend aujourd’hui par numérique, notion qui recouvre un grand nombre de connaissances et d’activités et bien distincte de l’informatique, aussi bien la théorie que la technologie spécifique. Or, un projet de loi vient d’être déposé à l’Assemblée nationale pour instituer l’ apprentissage du code informatique à l’école primaire (NextINpact, 13/06/14). Cet apprentissage, appuyé d’ailleurs par le Conseil national du numérique, est préconisé dans le ‘nouveau socle de connaissance’ du Ministère de l’éducation nationale.

Mais si une certaine base de connaissances et de pratique des algorithmes est indispensable à une bonne éducation, il paraît excessif de faire de nos « chères têtes blondes » des ‘codeurs’ émérites ! En effet, l’informatique est fondée sur la logique, et cette matière n’est abordée qu’en terminale, avec la philosophie … ! Il vaut mieux apprendre aux élèves à « mettre à plat » un problème ou une situation à l’aide d’algorithmes comme une recette de cuisine, comme l’explique Tasneem Raja dans « Is coding the new literacy? ». Une fois que les enfants auront compris ce qu’est une itération comme on comprend la composition d’une sauce en cuisine, les « petit(e)s malin(e)s pourront s’inscrire en atelier de ‘code’ pour programmer, par exemple, le jeu vidéo de leurs rêves, comme ils/elles peuvent s’inscrire à un atelier de pâtisserie, pour réaliser de magnifiques cupcakes ;-) Il existe d’ailleurs des tutoriels très attractifs pour les très jeunes amateurs, comme le montre ce programme de Mitch Resnick du Medialab du MIT. tarif-e-learning

Mais l’informatique ne représente qu’un aspect, essentiel certes, des si vieilles « Nouvelles technologies de l’information et de la communication » NTIC ou TIC, rebaptisées « numérique » depuis quelques années …. Les usages de ces technologies ont pénétré tous les champs de notre vie quotidienne. Les jeunes « digital natives » n’envisagent même plus la vie sans ces services … Comme certains pratiquent apparemment mieux que leurs enseignants, on pourrait penser qu’il est inutile de leur enseigner quoi que ce soit à ce sujet !

Or la pratique n’est pas la connaissance et encore moins la conscience des mécanismes ou des enjeux qui sous-tendent ces usages technologiques. En raison des inégalités très lourdes qui existent dans la société actuelle, seule l’école peut répondre à cette nécessité. Il est indispensable que les enseignants apportent un éclairage sur ce que recouvrent un profil Facebook, une messagerie instantanée, un téléchargement ou une recherche Google. Les enseignants peuvent bien sûr être assistés par des documentalistes et bibliothécaires, pour la recherche documentaires et les ressources numériques.

Si le numérique est effectivement « ignoré de la maternelle à l’ENA », comme l’affirment les participants d’ EDUCNUM 2014 , cité par Renaissance Numérique, que représente-t-il au juste ? « De la culture et de l’humain. On dépasse la technique et l’informatique » comme le twitte Clotilde Chevet, ou « Une culture générale numérique englobe à la fois le code, les images ou les questions des libertés » pour Sophie Pène.

Plutôt que d’apprendre à coder, les élèves ont d’avantage besoin d’ « apprendre à penser par eux-mêmes, à ‘décoder’, à ‘déchiffrer’  » analyse Olivier Le Deuff dans le Guide des égarés. Ils doivent être formés à une « culture nouvelle », en produisant un « nouveau régime de savoirs … C’est la question de la formation du citoyen dans des environnements complexes où se produisent différentes lectures et écritures ».

Mais qu’en est-il de l’utilisation des techniques numériques dans l’enseignement ? Les TICE, le e-learning, et à présent les MOOC, arrivent-ils à transformer l’éducation ? Assistons-nous à un nouveau paradigme pédagogique grâce au numérique ?
Si les moyens techniques et humains, et surtout la formation des enseignants, sont loin d’être opérationnels, certains indicateurs portent à l’optimisme.

Le e-learning permet d’abord aux apprenants à être plus autonomes, moins passifs face à l’enseignement du maître. Le ‘blended learning’ combine la transmission des connaissances et les compétences de l’enseignant avec des modules de e-learning, une recherche de contenus, des exercices et des ‘jeux sérieux’, et surtout des échanges avec d’autres étudiants et enseignants grâce aux forums de discussion.

Comme le souligne Mathieu Cisel dans son post « ce ne sont pas seulement les équipes pédagogiques qui s’adaptent ; pour les apprenants aussi c’est une évolution très importante de la posture face à l’apprentissage. Beaucoup plus d’autonomie, d’autonomisation et de responsabilisation » (La Révolution MOOC, 26/05/14).

Et surtout, comme l’affirme Emmanuel Davidenkoff, Directeur de l’Étudiant, « n’attendons pas de savoir si le numérique améliore les apprentissages. Intégrons-le tout simplement, car il est notre nouveau monde ».

Tablet PC with cloud of application icons

Resnick, Mitch. – Let’s teach kids to code. – TED, nov. 2012

Berne, Xavier. – Faut-il sensibiliser les enfants au code dès l’école primaire ?Next INpact, 21/05/14

Tasneem, Raja. – Is coding the new literacy ? - Mother Jones, 06/14

Guillou, Michel. – Socle : tous les élèves doivent savoir publier. – Culture numérique, 13/05/14

Guillou, Michel. – Pour une littératie numérique qui traverse et éclaire les disciplines scolaires. – Culture numérique, 01/06/14

Une culture générale du numérique pour tous ! - Renaissance numérique, 02/06/14

Enseignement de l’informatique à l’école : l’Académie des technologies prend position. – vousnousils, 03/06/14

François Fourcade. – Le numérique ne peut s’affranchir des lois de la pédagogie. – Parlons pédagogie ! Blog Educpros, 03/06/14

Cisel, Mathieu. – MOOC : la question de l’autonomie des apprenants. – La Révolution MOOC – Blog Educpros, 26/05/14

Gauchet, Marcel ; Soulé, Véronique. – Internet oblige le prof à remettre de l’ordre dans du désordre : interview. – Libération, 06/06/14

Kumar, Lokesh. – Blended learning – Is it the right move for you?Upside Learning, 10/06/14

Davidenkoff, Emmanuel. – Intégrons le numérique à l’école, car il est notre nouveau monde. – L’Express, 13/06/14

Le Deuff, Olivier. – Il faut apprendre à décoder, l’enjeu d’un nouveau programme commun. – Guide des égarés, 15/06/14

Compagnon, Antoine ; Duquesne, Margaux. – L’école du futur vue par Antoine compagnon. - Journaleuse, 16/06/14

Apprenants en ligne : à la conquête de leur liberté. – Thot Cursus, 17/06/14

 

Données personnelles : entre utilisation et protection : où en sommes-nous dans la gestion du « pétrole du 21e siècle » ?

1639802-donnees-personnelles-internet-a-besoin-d-un-bouton-effacer-selon-eric-schmidtDepuis quelques mois, une certaine paranoïa s’est emparée de nombre de citoyens utilisant les services en ligne, surtout à partir de terminaux mobiles. Des ‘portes dérobées’ (back doors), cachées dans leurs appareils, donneraient accès à des informations confidentielles à des organismes publics (services secrets) ou privés (« géants du Net »). Les révélations d’Edward Snowden sur la surveillance électronique massive de la NSA à travers un système auquel personne n’échappe, pas même la chancelière allemande ou la présidente du Brésil, ont amplifié ce phénomène …

Mais que représentent ces fameuses données que les pouvoirs économiques et politiques se disputent ? Comment sont-elles collectées et traitées, de même que les métadonnées qui les accompagnent ?  Peut-on les protéger tout en participant à l’univers numérique ?

La plupart du temps, nous donnons nous-même ces informations au système d’exploitation de l’appareil ou aux différentes applications auxquelles on s’abonne. Il en va de même pour les métadonnées : géolocalisation, contacts téléphoniques, réseaux personnels ou professionnels à travers les différents réseaux sociaux. Nos centres d’intérêts et nos goûts s’affichent aussi sur les médias sociaux …

La préoccupation de la protection des informations confidentielles dans les systèmes informatiques ne date pas d’hier. En France, la loi « Informatique et liberté » remonte à 1978 et a été à l’origine de toutes les CNIL européennes ! Une dernière mise à jour de cette loi précise les conditions d’utilisation des techniques biométriques.

Mais le traitement de ces données peut aussi s’avérer positif, comme dans le cas d’applications de e-santé qui permettent de surveiller un certain nombre d’indicateurs physiologiques (glycémie, cholestérol, tension artérielle, etc.). Ou alors, comme l’affirme Alex Pentland, professeur d’ingénierie sociale au Medialab (MIT), permettre une amélioration des relations sociales par une observation de tous les flux d’informations échangés par des individus à l’intérieur d’une communauté. C’est ce qu’il explique dans un entretien au Spiegel « Le Big data est à l’étude du comportement social ce que le microscope était à l’étude des bactéries. Pour construire une meilleure société, on a besoin d’une représentation complète des interactions sociales. » ! Évidemment, ce traitement se fait avec l’autorisation des personnes impliquées, mais cette intrusion dans l’intimité des gens semble assez osée même pour une cause aussi philanthropique ! Ce chercheur pense que la meilleure façon de les protéger est de partager les données à travers un « New Deal » des données !

fichage_protection_donnees-1ed41

En matière de e-santé, la CNIL envisage aussi de labelliser les applications mobiles pour inciter les éditeurs à informer les consommateurs sur l’utilisation de leurs données personnelles. Car avec l’’internet des objets’ tout le monde va pouvoir surveiller et contrôler tout le monde si l’on n’y prend pas garde … !

Le scandale de la surveillance généralisée du système Prism mise en place par la NSA a fonctionné comme un électrochoc dans nos sociétés mondialisées et connectées. La plupart des démocraties a voulu prendre ses distances avec l’espionnage américain et les multinationales (américaines) de l’internet. Au sein de l’Union européenne, la France et l’Allemagne en renforçant leurs réglementations, mais aussi à travers une décision de la Cour européenne de Justice reconnaissant le droit à l’oubli face aux informations remontées par le moteur de recherche Google. La protection des données personnelles représente aussi un des enjeux de la négociation du Grand Traité Transatlantique.  En France, le futur projet de loi numérique devrait traiter de ces aspects, notamment en encadrant mieux le régime juridique des services de renseignements (Rapport du Sénateur J.P Sueur).

Mais ces précautions juridiques ne vont pas empêcher l’industrie de l’information de puiser dans le nouvel Eldorado constitué par le Big Data dans lequel les données personnelles sont loin de représenter la portion congrue … C’est ce prévoit le Pew Research Internet Project dans son étude prospective sur l’internet des objets en 2025. La prolifération de capteurs ‘intelligents’, caméras de surveillance, logiciels, bases de données et data centers massifs vont produire dans le monde entier un environnement informatique invisible et omniprésent. Accompagnées par les produits de la ‘réalité augmentée’ que l’on portera sur soi comme les lunettes Google, montres ou vêtements intelligents, toutes ces données seront indexées (tags) et analysées par des experts de l’ingénierie sociale pour des « data brokers ». Comme l’indique un rapport de la Federal Trade Commission, cité par Slate  « Les “data brokers” collectent les données de consommateurs à partir de sources en ligne et en dehors, très généralement sans que ces consommateurs soient au courant. Ils classent tout, des achats en ligne, à l’activité sur les médias sociaux, en passant par les contrats d’assurance, les abonnements aux magazines, les tendances religieuses et politiques, et d’autres détails du quotidien de ces consommateurs. » C’est pourquoi la FTC recommande au Congrès un plus grand contrôle de ces activités pour protéger les consommateurs. donnees-persos-111705

La Commission européenne est aussi préoccupée par ces intrusions massives dans la vie privée et même par les « effets secondaires » impliqués par les les procédures d’identification et d’authentification.  Elle a confié à une équipe de recherche le projet ABC4Trust (Attribute-based Credentials for Trust), financé par l’UE, qui protège l’identité des personnes tout en préservant la sécurité des systèmes. Désormais, pour se connecter au site de sa banque, au lieu de s’identifier avec des informations personnelles, on utilisera une sorte de certificat (attribut) qui permet de s’identifier sans risques. Des pilotes de ce projet sont actuellement testés sur des étudiants en Suède et en Grèce.

Le secteur de la e-sécurité devrait se développer en même temps que le Big Data, mais les consommateurs semblent faire plus confiance aux logiciels libres qu’aux systèmes propriétaires !

Données personnelles : la directive européenne s’applique à Google Inc.  – Legalis, 13/05/14

Léonard, Thierry ; Wéry, Etienne. – Arrêt Google : la Cour de justice a-t-elle condamné à mort les moteurs de recherche. - Droit & Technologies, 15/05/14

Monnier, Cécile. – TAFTA et la protection des données personnelles : les enjeux cachés de l’élection européenne. – Blog Médiapart, 16/05/14

Les données numériques : un enjeu d’éducation et de citoyenneté. - Conseil économique, social et environnemental, 19/05/14

Isabelle Falque-Pierrotin : « Je ne crois pas du tout à la fin de la vie privée ». – Le Monde, 19/05/14

La CNIL envisage de labelliser les applications de santé. - TICSanté.com, 19/05/14

Vion-Dury, Philippe. – Et si l’internet des objets était une mauvaise chose pour nous ? - Rue 89, 19/05/14

Anderson, Janna ; Rainie, Lee. – The internet of things will thrive by 2025. - Pew Research Internet Project, 14/05/14

Interview with Alex Pentland : Can we use Big Data to make society Better ? - Spiegel.de, 10/05/14

Manach, Jean-Marc. – DGSE/Orange : Joue-la comme Super-Dupont (#Oupas).Bug Brother – Blog Le Monde, 20/05/14

Sénécat, Adrien. Les ruses de Facebook, Google et Netflix pour récupérer vos données personnelles. – L’Express, 20/05/14

Kerry, Cameron F. – Missed connections : Talking with Europe about data, privacy and surveillance. - Brookings, 20/05/14

Cuny, Delphine. -  Un an après Snowden, la France envisage de mieux encadrer l’utilisation des données. - La Tribune, 22/05/14

Méta-objets du méta-monde.Affordance info, 25/05/14

Rethinking Personnal Data : a new lens for strenghening trust. – Prepared in collaboration with A.T. Kearney – World Economic Forum – Industry Agenda, May 2014

Gorce, Gaëtan (auteur de la proposition de loi). – Techniques biométriques. – Sénat, 27/05/14

La sécurité et la confidentialité : désormais les deux peuvent aller de pair. – Commission européenne – Cordis, 27/05/14

Jourdan, Camille. – Certaines de vos données sont aspirées par milliards, et non Google et Facebook n’y sont pour rien. – Slate, 28/05/14

 

 

 

Peut-on encore parler de « Neutralité du Net » ?

Depuis quelques mois, ce principe quasi intangible du réseau a été remis en cause, notamment aux États-Unis. En Europe, le Parlement européen vient de réaffirmer la neutralité du Net au travers du « Paquet Télécom », et au Brésil,  Dilma Roussef, l’a inscrite dans sa « Constitution de l’internet » pendant le « Net Mundial ».
600px-network_neutrality_poster_symbolMais d’abord qu’est-ce que la « neutralité du Net » ou « neutralité du réseau » ? Wikipedia nous donne une première définition : « c’est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. ». Dans ces conditions, les opérateurs télécoms et les FAI ne peuvent pas intervenir sur les contenus et ne font que transmettre de façon équitables les données des producteurs aux utilisateurs.

Cette égalité dans l’accès se comprend à partir de l’architecture même du réseau des réseaux, qui, à l’origine a voulu être le plus simple possible et permettre à tous les innovateurs d’intégrer leurs applications sans développement particulier pour atteindre leur(s) public(s). C’est ce qu’explique Barbara van Schewick, professeur au CIS de Stanford, dans son intervention « Architecture and Innovation of the Internet », le 1er décembre 2010. C’est grâce, notamment aux « end-to-end arguments » qui permettent au réseau de ne fournir que des infrastructures générales à l’ensemble des applications ; le réseau n’était pas optimisé pour favoriser des applications spécifiques. Comme le dit Barbara van Schewick, l’internet dans les années 2000, était « application-blind », aveugle aux contenus des applications. C’est ce qui a permis à des start-up comme e-bay, Skype ou YouTube de prospérer sans être inquiétées par les opérateurs…

Mais aujourd’hui la technologie a changé, notamment depuis le développement de terminaux mobiles. Les FAI et les opérateurs télécoms peuvent distinguer les applications en fonction de leur contenus et et donc les contrôler moduler ainsi leur distribution en fonction de leurs intérêts … Et surtout faire payer les producteurs et donc les utilisateurs pour avoir accès au réseau dans de bonnes conditions !

net-neutrality-arm-wrestle

C’est cette nouvelle discrimination sur le réseau qui menace les internautes américains. Depuis que la société Verizon (service télécom)  a fait casser en justice la réglementation américaine protégeant la neutralité, la FCC (Commission Fédérale des Communications) doit faire de nouvelles propositions avant le 15 mai. L’idée est, tout en conservant le principe essentiel consistant à interdire tout filtrage ou blocage de trafic (légal), de faire payer les fournisseurs de contenus comme Netflix (vidéos à la demande) en échange d’un ‘traitement préférentiel’ et pour un tarif ‘commercialement raisonnable’.

En Europe, la situation semble plus rassurante. La « Commission industrie » du Parlement européen vient d’adopter un rapport qui réaffirme la neutralité d’internet et doit passer devant le Conseil de l’UE les 5 et 6 juin prochains. Mais un de ses amendements introduit des exceptions qui inquiètent les acteurs du numérique. Cet amendement introduit la notion de « services spécialisés » de fournisseurs comme Skype ou YouTube avec lesquels les opérateurs télécoms pourraient conclure des accords pour ‘prioriser’ certains flux. En France le Conseil National du Numérique a approuvé cette exception qui permet de « garantir à certains acteurs un trafic de qualité » ; en revanche l’association « la Quadrature du Net » dénonce de « dangereuses failles » dans ce vote où « les géants de l’internet fixent les règles du jeu ». Avec la protection des données personnelles, la neutralité du Net sera un des enjeux des prochaines élections européennes.
Enfin, au Brésil, dans le cadre du « NetMundial », le « Marco civil da Internet » adopté par le gouvernement de Dilma Roussef, inscrit la neutralité du Net et la protection des données personnelles dans cette «Constitution de l’internet » que le Brésil voudrait pouvoir étendre au niveau de la gouvernance mondiale de la Toile … Mais, si ce pays émergent veut marquer sa distance avec l’hégémonie américaine, il est prématuré d’évaluer son influence sur  les multinationales du Net …savetheinternet_logo

Neutralité du Réseau. – Wikipedia
Neutralité du Net. - La Quadrature du Net
Van Schewick, Barbara. – Internet Architecture and Innovation. – Standford CIS, 01/12/10 – Vimeo
Neutralité du Net: un grand pas en avant pour l’internet libre.La Quadrature du Net, 03/04/14
Auffray, Christophe. – Neutralité du Net : les FAI vont-ils gagner la partie aux Etats-Unis ? - ZDNet, 24/04/14
Duvauchelle, Antoine. – Le principe de neutralité du Net adopté au Parlement européen. ZDNet, 03/04/14
Duvauchelle, Antoine. – Marco civil da Internet : le Brésil inscrit neutralité et protection des données dans la loi. - ZDNet, 24/04/14
Vallerey, Elodie.- Neutralité du Net : l’amendement européen qui fait polémique.  L’Usine digitale, 24/03/14
Chazelle, Barbara. – Neutralité du Net : il est temps d’affirmer que c’est un droit fondamental ! -  Meta-media, 27/04/14
Monnier, Cécile. La neutralité du net, ou les enjeux cachés de l’élection européenne… - Blog Mediapart, 03/05/14
Champeau, Guillaume. – Présidente de l’UE, l’Italie pourrait soutenir la neutralité du Net. – Numerama, 05/05/14

Le web a 25 ans … Survivra-t-il à toutes ses déviances ?

Internet1Le 12 mars 1989, il y a exactement 25 ans, l’informaticien britannique Tim Berners-Lee publiait un document qui décrivait le fonctionnement du World Wide Web. Élaboré dans un laboratoire du CERN à Genève, cet outil de communication devait surtout servir aux chercheurs du nucléaire …
Mais c’est grâce à ce navigateur que l’internet a été popularisé auprès du grand public. C’est lui qui, aujourd’hui, permet à 2,7 milliards d’internautes de se connecter sur la Toile et surtout d’interagir sur les réseaux sociaux ! Malheureusement, comme toute grande invention, le Web a aussi ses côtés négatifs, et ces dernières années ont été marquées du signe de la défiance, surtout depuis les révélations d’Edward Snowden sur les pratiques d’espionnage massif de la NSA et de détournements de données personnelles des internautes…

Sir Berners-Lee a d’ailleurs appelé ces jours-ci à un sursaut de civisme et d’éthique sur les réseaux par l’institution du d’une « Magna Carta » du Web.
En effet, le web était au départ porteur de valeurs de partage, d’échange et d’égalité, venues essentiellement des pionniers de la contre-culture américaine, comme le montre bien l’article d’Hubert Guillaud dans InternetActu, qui visaient une gestion collective et non commerciale de la circulation des informations et du savoir …
Aujourd’hui, l’essentiel du web est aux mains de multinationales de l’information, les « Géants du Web », les fameux GAFA (Google Apple Facebook Amazon et autre Microsoft …) et les internautes (enfin, ceux qui en sont conscients …) se méfient de plus en plus de moteurs qui pillent sans états d’âme les données personnelles pour les vendre aux publicitaires ou les donner (??) aux services secrets … La vie privée, est en effet devenue une « anomalie » aujourd’hui, comme l’a déclaré Vint Cerf, Chef évangéliste chez Google, ou tout au plus une illusion pour Mark Zuckerberg, le patron de Facebook … !

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computing
Dans une étude récente le Pew Internet Project présente « 15 thèses sur l’avenir du numérique ». Malgré l’enthousiasme des chercheurs sur les progrès techniques, notamment en matière de santé, d’enseignement, d’évolution des relations internationales (« printemps arabe ») et de sécurité, 5 de ces thèses se présentent de façon beaucoup moins optimistes, « Less hopeful theses ».
Elles soulignent, d’abord l’élargissement du fossé numérique entre nantis et démunis (have & have not) qui reflète l’inégalité croissante des sociétés actuelles, amplifiée par l’écho des réseaux sociaux … !! De nombreux conflits risquent de se développer à l’instar des révolutions arabes.
Les abus et la criminalité se multiplient sur la toile, et évidemment le cyber-terrorisme. Outre la disparition de la vie privée et de la confidentialité, les « maladies numériques » (physiques, mentales et sociales) affectent de plus en plus les individus, familles et communautés.
Mais un des impacts majeurs se trouve au niveau géopolitique : Internet représente en effet un phénomène de mondialisation achevé qui ne reconnait plus la souveraineté des États ; les lois des différents pays ont du mal à s’appliquer à cet acteur transnational.
D’autre part, les gouvernements vont de plus en plus utiliser internet comme un instrument de contrôle politique et social : en répondant par la censure et la fermeture aux velléités d’ouverture et de liberté d’expression de leurs concitoyens …
De plus, en raison de la montée de la cyber-criminalité, la e-sécurité est en train de devenir le principal soucis des consommateurs et des internautes en général … bigdata_image2

Olivier Ertzscheid a une vision encore plus noire de l'avenir du Net. Pour ce spécialiste de l'information, l'internet va se diviser en deux entités : OuterWeb et InfraNet. Le web va se dissoudre et se diffuser dans une multiplicité d'objets connectés (l '»internet des objets ») tout autour de nous : écrans, murs, voiture, lunettes, montres, etc. Il deviendra le « World Wide Wear », un accessoire que l'on 'porte sur nous' … En devenant invisible, il sera d'autant plus dangereux !!

Les acteurs du web seront d'ailleurs de moins en moins humains. Les robots représentent déjà la majorité du trafic sur la Toile : certains pour nous rendre service (moteurs de recherche), d'autres pour des pratiques beaucoup moins avouables (cookies, surveillance, indexation des métadonnées des internautes à des fin commerciales, policières ou malveillantes). Ces informations vont servir à développer l'industrie du « Big data » qui devrait pouvoir prédire le comportement d'un grand nombre de consommateurs-citoyens par le traitement de masse de milliards de données et de métadonnées glanées sur les moteurs de recherche, les messageries et les réseaux sociaux.
Dans ces nouveaux réseaux, « l'essentiel des interactions s'effectuera en deçà de notre seuil de perception » !
Le premier web s'était construit autour du document et de l'écrit (clavier, souris), les nouveaux internets, mobiles désormais, s'élaborent autour des gestes et de la voix. L'image prend aussi une part prépondérante avec la multiplication des écrans : téléphone, tablettes, ordinateur portable viennent compléter l'usage de la télévision (connectée ou pas). Voir l'étude de Médiamétrie sur la consommation de vidéo.
On assiste aussi à une certaine privatisation des réseaux à travers les applications mobiles qui remettent en cause la gratuité et la neutralité du Net. Demain, il faudra peut-être payer pour avoir accès à un internet « nettoyé » des pilleurs de données personnelles, grâce un « opt-out » !

Aurélie Barbaux, dans l’Usine digitale s’inquiète d’une probable « mort d’internet ». Son article part aussi des révélations de Snowden qui risquent de donner le coup fatal. Les géants du Net vont passer « une année d’enfer » pour regagner la confiance des internautes et des gouvernements. Ces derniers ont d’ailleurs des tentations protectionnistes qui peuvent s’avérer « interneticides » … !
Aussi bien Jean-Marc Ayrault pour la France, qu’Angela Merkel pour l’Europe proposent des infrastructures « sûres » pour de nouveaux internets … ! Ces internets « privés », entourés de frontières, vont à l’encontre de l’idée du Réseau des réseaux et surtout sont en contradiction avec l’espace mondial où il se situe !
A. Barbaux cite l’ouvrage de Boris Beaude, chercheur à l’EPFL (Polytechnique de Lausanne), « Les fins d’Internet ». Celui-ci reprend « les mises à mal quasi définitives des valeurs qui ont porté la création du réseau mondial : liberté d’expression, résilience, abolition de l’espace, intelligence collective et partagée, gratuité et décentralisation. » Pour sauver l’internet, le chercheur appelle à forger une nouvelle valeur, « porter l’émergence du monde comme horizon politique pertinent pour l’humanité, comme espace d’identification et de projection autour d’intérêts communs »
On retrouve ici les enjeux éthiques, politiques et géopolitiques exprimés aussi bien par les thèses du Pew Internet Center que par Tim Berners Lee.

EFF_version_of_NSA_logo

Crochet-Damais, Antoine. – Le World Wide Web fête ses 25 ans. – Journal du Net, 10/003/14

Kiss, Jemima. – An online Magna Carta: Berners-Lee calls for bill of rights for web. – The Guardian, 12/03/14

Berners-Lee, Tim. – Statement from Sir Tim Berners-Lee on the 25th Anniversary of the Web. – PewResearch Internet Project, 11/03/14

Anderson, Janna ; Rainie, Lee. – 15 Theses About the Digital Future. – PewResearch Internet Project, 11/03/14

Ertzscheid, Olivier. – Outerweb et infranet : rendez-vous en 2063. – Affordance.Info, 02/02/14

Barbaux, Aurélie. – Internet peut-il mourir ?. – L’Usine digitale, 27/02/14

Guillaud, Hubert. – Ce que l’internet n’a pas réussi (1/4) : des rêves de pionniers à un monde post-Snowden. – InternetActu, 04/02/14

Anizon, Emmanuelle ; Tesquet, Olivier. – Que reste-t-il de notre vie privée sur Internet ?. – Télérama, 15/02/14

Things the NSA doesn’t want you to know. And why you should know about it :). – La Quadrature du Net, 2014

Vers une modification du droit d’auteur en Europe ?

La Commission européenne vient de lancer une consultation auprès des citoyens sur la « modernisation » du droit d’auteur et du copyright. Ceux-ci, auteurs, créateurs, consommateurs ou gestionnaires, ont jusqu’au 5 mars pour exprimer leur opinion. Les résultats seront publiés dans un Livre Blanc qui servira de base au projet de directive sur la modernisation du droit d’auteur qui sera soumis au Parlement européen après les élections européennes de mai 2014.
Comme on pouvait le prévoir, deux camps s’affrontent sur ce sujet :
- d’un côté les syndicats d’auteurs et de créateurs qui défendent une conception « classique » de la créativité et du droit d’auteur, tout en dénonçant l’amalgame réalisé par la Commission européenne entre droit d’auteur et copyright (qui relève plus des éditeurs ou d’une marque commerciale alors que le droit d’auteur offre une protection financière et morale aux créateurs).
- de l’autre les défenseurs du partage sur internet qui favorisent les pratiques non marchandes et une économie culturelle équitable plutôt que les industries culturelles traditionnelles.

Cette consultation européenne arrive à un moment où les grands éditeurs intensifient leurs contrôles sur les œuvres en circulation sur la toile, allant même jusqu’à utiliser des robots pour traquer les « pirates » comme le relate SILex à propos de la mésaventure d’Alain Hurtig. Celui-ci avait récupéré un exemplaire du Droit à la paresse de Paul Lafargue sur le site de l’ABU, donc relevant complètement du domaine public. Or Editis et les Éditions de la Découverte lui ont intimé l’ordre (par mail) de le retirer à travers leur intermédiaire « Attributor » (qui utilise des robots). En fait, il y avait eu confusion avec une autre édition, augmentée, de l’ouvrage, publiée par La Découverte. Évidemment, après quelques jour de « buzz » sur twitter, Editis et La Découverte sont revenus sur leur décision … !

Outre la multiplications de DRM qui entravent les usages des consommateurs, comme partager, revendre, prêter une œuvre numérique, les grands éditeurs veulent imposer leurs propres lois. C’est le cas d’Elsevier qui en simplifiant le « data mining » sur ses bases de données obligent les établissements, comme les BU françaises à travers l’accord avec le consortium Couperin, de passer par une API connectée à la plateforme ScienceDirect … Cela limite les possibilités d’analyse et retarde considérablement l’accès aux données. De plus, les citations ne doivent pas dépasser 200 caractères du texte original, ce qui contredit ouvertement l’exception de « courte citation » du droit d’auteur et des droits voisins …!

« Last but not least », Facebook vient de s’arroger le droit de contrôler les contenus publiés sur le réseau social grâce à un brevet digne de « Minority Report » ! Ce dispositif permet d’utiliser les informations de profils d’utilisateurs et des « signes sociaux » pour déterminer si des contenus partagés sont piratés ou non. Et Facebook prétend même « prédire » quels internautes seraient susceptibles de faire circuler des contenus piratés, comme dans la nouvelle de Philip K. Dick (et dans le film éponyme) !
Toutes ces péripéties justifieraient bien un « dépoussiérage » du droit d’auteur, au moins au niveau européen …

Consultation publique sur la révision des règles de l’Union européenne en matière de droit d’auteur
Commission européenne – Le Marché unique de l’UE, 2013

Mobilisation pour défendre ou moderniser le droit d’auteur en Europe. – par Antoine Oury – Actualitté, 31/01/14

Réponse de la Quadrature du Net à la consultation publique de la Commission européenne sur la réforme du droit d’auteur en Europe. – La Quadrature du Net, janvier 2014

L’Europe consulte sur le droit d’auteur encore et toujours. – Par Guillaume Champeau – Numérama, 05/12/13

Les Syndicats d’auteurs mobilisés pour défendre le droit d’auteur. – par Antoine Oury – Actualitté, 055/02/14

Participez à la consultation de la Commission européenne sur le droit d’auteur et signez la pétition des créateurs. – Creators for Europe, janvier-mars 2014

DRM et copyright : la liberté du consommateur en jeu. – Par Clément Solym – Actualitté, 10/002/14

Message à Editis : laissez « Le droit à la paresse » dans le domaine public !. – S.I.Lex, 05/02/14

Data Mining : quand Elsevier écrit sa propre loi – par Pierre-Carl Langlais. – Sciences communes, 08/02/14

Et Facebook inventa le Robocopyright social. – S.I.Lex, 05/12/13

Staypressed theme by Themocracy