Le « moi quantifié » sera-t-il l’ homme nouveau du XXIe siècle ?

objects-connectésLes « objets connectés » sont en train d’envahir notre quotidien : montre, lunettes, chaussettes, réfrigérateur et même arrêt de bus …. ! De plus en plus d’objets et de services sont décrétés ‘intelligents’ (smart) ou connectés et combinés à la révolution de traitement des ‘big data’, ils sont censés bouleverser notre vie quotidienne. Santé, urbanisme, transports devraient être impactés par ces nouveaux gadgets, sans parler même du marketing ou de l’éducation !

Avec les ‘wearables’, appareils « prêt-à-porter », on se rapproche de l’’informatique intime’, comme la nomme Idriss J. Aberkane dans le Point.

Les ordinateurs, en se miniaturisant, se sont de plus en plus rapprochés du corps humain, jusqu’à le pénétrer (pace-maker ou implants divers) …

A quoi vont nous servir tous ces capteurs qui nous entortillent comme une véritable toile d’araignée … Car le web n’est plus lointain ou dans les nuages, il est sur nous ou en nous ! La sécurité sociale peut sans problème dérembourser les médicaments ou réduire les prestations médicales : de nouvelles starts-up ont trouvé la solution, plus besoin de déranger le médecin ; une bague ou un bracelet connecté vont pouvoir mesurer le taux de sucre pour les diabétiques ou le nombre de pas que doit parcourir un obèse pour maigrir ! Chacun pourra surveiller son état physique à tout moment et apprécier les progrès qu’il aura pu réaliser. Le « quantified self » doit permettre de se jauger en continu.

Mais dans ces conditions, l’humain est-il encore acteur de ses décisions ou n’est-il qu’une partie de l’interaction, qu’un somme de données reflétées dans les capteurs ? Ce ‘moi quantifié’ est-il toujours un sujet ou la somme de tronçons physiques ou psychiques, qui s’imbriquent dans des états physiologiques et des comportements ? Des « dividuels » comme les nomme Alain Damasio dans son roman de science-fiction « La zone du dehors » ?

Sans évoquer les problèmes éthiques et juridiques que posent déjà la gestion et le traitement de ces milliards de données plus que personnelles (santé, comportement, émotions, etc …) qui transitent forcément sur les « nuages » de grandes entreprises multinationales … Depuis quelques semaines, on ne compte plus le nombre de piratages effectués sur les données de santé … !

Olivier Ertzscheid démontre dans son post du 17 septembre 2014 « Vous prendrez bien deux doigts de digital ?» comme l’humain perd progressivement le pouvoir en passant de l’index du web 1.0 (lien hypertext) au pouce levé (Like) du web social, pour perdre complètement la main dans le « World wide wear » et l’internet des objets …. ! Le pouce et l’index permettaient l’activité de préhension nécessaire pour toute interaction. Tandis qu’avec les objets connectés, apparaît « une forme d’appréhension qui vient de l’incapacité de « préhension » et donc de « com-préhension ». Car pour com-prendre le numérique, il nous faut le prendre « ensemble » » (ibid). 05894964-photo-illustration-objets-connectes

Pourtant, d’après le rapport « The Wearable Future », de PWC d’octobre 2014, 20% d’Américains posséderaient déjà des objets connectés, et le succès pour ces appareils ne devrait que croître, surtout parmi les « millenials » (jeunes nés autour de l’an 2000). Même si sur l’échantillon analysé (1000 personnes), 33% de ces « adopteurs précoces » n’utilisent plus ou très peu ces objets (bandeaux, bracelets) et plus de 80% s’inquiètent de l’impact de cette technologie sur leur vie privée et sur les brèches possible de sécurité qu’ils pourraient comporter, plus de 50% de ces consommateurs sont plutôt favorables à l’avenir des wearables … Ils soulignent trois avantages dans cette technologie : la sûreté, notamment en ce qui concerne les enfants, une vie plus saine grâce aux exercices organisés par ces objets, et enfin leur simplicité et facilité d’usage …

Mais que faire de toutes ces données recueillies par ces appareils (qui communiquent entre eux, sans forcément en informer le sujet …) et qui peut les interpréter ? C’est la question que se pose Marie-Julie Catoir-Brisson dans son article « Du moi quantifié au corps comme objet connecté » : est-ce aux médecins à gérer ces informations provenant des patients, ce qui risque de remettre en cause la relation médecin patient … D’autant plus que « presque tous ceux qui ont utilisé ces appareils déclarent qu’ils ont modifié leurs habitudes d’une manière ou d’une autre (5).» Ce qui signifie que l’usage de ces objets connectés au quotidien transforme le rapport de l’individu à son propre corps et surtout à sa représentation. » (ibid).

L’étude de Goldman Sachs de septembre 2014 « The Internet of Things : making sense of the next mega-trend » examine les enjeux impliqués par les 28 milliards d’objets connectés à l’horizon 2020. Le rapport identifie cinq champs d’adoption : les « wearables », les voitures connectées, les maisons (domotique), les « villes intelligentes «  (smart cities) et enfin l’industrie, les transports, l’énergie et la santé. Cinq caractéristiques définissent aussi cette nouvelle technologies, résumés par l’acronyme S-E-N-S-E : Sensing (les capteurs) : température, pression, accélération ; Efficient : ajoute de l’intelligence aux processus ; Network : connecte les objets au réseau qui passe du ’Cloud computing’ au ‘fog computing’ (brouillard, buée), à la logique plus floue … ; Specialized : processus spécifiques et fragmentation ; Everywhere : ubiquité et présence ‘pervasive’. Les entreprises vont se concentrer sur ces nouveaux produits comme source de revenus grâce aux économies d’échelle et à la productivité. Mais il va falloir mettre en place les infrastructures nécessaires pour ce nouveau système : wifi, plateformes, applications, etc., avec les smartphones comme interfaces privilégiées … !
Là encore, l’étude met en garde sur les risques d’atteintes à la vie privée et les failles de sécurité …objets-connectes

A ce propos, la « Working party » sur la protection des données personnelles de l’Union européenne a émis une « Opinion sur les récents développements de l’internet des objets » adoptée le 16 septembre 2014. Tout en se réjouissant des avantages que cette technologie apportera aussi bien à l’industrie qu’aux citoyens européens, la WP29 rappelle qu’elle doit respecter la vie privée et s’inquiète des défis de sécurité qui sont associés à l’Internet des objets. La vulnérabilité de ces appareils, souvent déployés en dehors des structures traditionnelles de l’industrie de l’information, révèle un manque de sécurité dans leur construction (perte de données, infection de virus, accès non autorisé aux données personnelles, usages intrusif des ‘wearables’). Pour cela, elle propose d’incorporer le maximum de garanties dans ces objets et recommande aux usagers de garder un contrôle complet de leurs données personnelles …

 

Aberkane, Idriss J. – Demain, l’informatique intime. – Le Point, 15/08/14

Catoir-Brisson, Marie-Julie. – Du « moi quantifié » au corps comme objet connecté. – Métamorphoses des écrans, 23/08/14

The Internet of Things : makinge sense of the next mega-trend. –  Goldman Sachs Report, 03/09/14

The language of the Internet of Things. – The Economist, 06/09/14

Ertzscheid, Olivier. – Vous prendrez bien deux doigts de digital ?. – Affordance.info, 19/09/14

Opinion 8/2014 on the recent developments of the Internet of Things/ Article 29 Data Working Party. – Europa.eu, 16/09/14

Bonnet, Florence. – Big Data, objets connectés : il faut protéger le « prosommateur ». – Journal d u Net, 30/09/14

Wearable Technology Future is ripe for growth. – Pwc, 21/10/14

Guillaud, Hubert. – Dans un monde de smartphones, les gadgets doivent s’adapter. -InternetActu, 14/01/15

Au tribunal de l’internet ! Données de santé : les conditions de leur partage. – Le Point, 23/03/15

 

 

Lire, écrire … Voir ! Les technologies au service des déficients visuels

deficient-visuelSMS, mails, objets connectés, notre monde numérique multiplie les écrans où lecture et écriture sont un passage obligé à la communication. Seul le téléphone et la radio font encore exception …

Ces usages semblent exclure un grand nombre de non-voyants et de malvoyants de l’accès à la société de l’information et de la connaissance. Or, ce sont précisément ces nouvelles technologies qui vont apporter, en partie, des réponses adéquates à ce handicap.

Le Congrès « Vision innovation » qui s’est tenu à l’UNESCO le 10 février 2015 en partenariat avec l’Institut de la vision, avait pour objectif de répondre à ces défis. Comme l’affirme le Pr Sahel, Directeur de l’Institut de la vision « Nous sommes aujourd’hui dans un moment particulier où l’innovation pourrait venir au-devant des patients que ce soit pour limiter l’aggravation de la maladie ou pour vivre mieux avec un handicap visuel.

Ces innovations sont très importantes et beaucoup de technologies proviennent d’autres domaines que la médecine. Si la dimension « accessibilité » est intégrée dans la réflexion, le design et l’ergonomie d’un produit ou d’un service, il n’en sera que plus riche et universel. ».

L’accessibilité en bibliothèque et en ligne

L’accessibilité a été un des principaux objectifs des bibliothèques pour compenser le handicap. A la Bibliothèque de Sciences Po, comme dans d’autres établissements, des aménagements ont été réalisés pour les déficients visuels : salle insonorisée et équipements adaptés, clavier et imprimante braille, synthèse vocale, zoom texte, etc. La bibliothèque de l’IEP de Toulouse s’est dotée d’un téléagrandisseur  « Clearview Speech Couleur ». Équipé d’un logiciel de synthèse vocale et d’un logiciel d’agrandissement d’écran, il facilite la lecture, la création de fichiers informatiques, la numérisation des documents ainsi que la consultation sur internet. Toujours à Toulouse, mais à la médiathèque José Cabanis, une application spécifique permet l’identification par synthèse vocale de tous les documents via leur étiquette RFID. Positionné sur un document le petit lecteur DAISY (Digital Accessible Information System) énonce les principales informations : auteur, titre, résumé … En équipant ainsi tous les documents et pas seulement les collections adaptées, la Médiathèque permet une mixité entre voyants et malvoyants, lorsque ces derniers s’y rendent en famille … b_touch

Et évidemment, la bibliothèque de l’Association Valentin Haüy a créé une bibliothèque numérique de livres audio, Eole et met gratuitement à disposition de personnes handicapées plus de 6000 ouvrages sur un site internet dédié. Les ouvrages en braille numérique ou audio sont au format DAISY qui permet une navigation plus aisée. La bibliothèque bénéficie dans ce cas de l’exception « handicap » du droit d’auteur et des droits voisins qui permet la reproduction et la représentation des œuvres au profit des personnes en situation de handicap. Sur ce thème, l’ARALD (Agence Rhône-Alpes pour le livre et la documentation) organise avec la Médiathèque Valentin Haüy une Journée d’information « Bibliothèque, accessibilité et numérique » le 5 mars 2015 à Lyon.

Le copyright et l’accessibilité dans l’édition : le Traité de Marrakech (juin 2013)

Si en France et en Europe, le droit d’auteur comporte une exception de « handicap », ce n’était pas le cas dans le reste du monde et particulièrement aux Etats-Unis, où les lois sur le copyright ne permettaient pas de transformer les ouvrages numériques par la synthèse vocale ou le braille. Les associations de malvoyants ont dû mener une bataille au niveau international pour obtenir ces facilités pour les déficients visuels avec l’institution par l’Organisation mondiale de la propriété intellectuelle (OMPI) du Traité de Marrakech (27 juin 2013). Le traité reconnaît l’importance pour les personnes handicapées de disposer d’un « exemplaire en format accessible » afin « d’accéder à l’œuvre et d’y avoir accès aussi aisément et librement qu’une personne sans déficience visuelle ou autre difficulté de lecture des textes imprimés. ».

Les NBIC au service des aveugles et des déficients visuels

La journée « Vision – Innovation » a présenté toutes les solutions que les technologies actuelles permettent pour rendre la vue ou améliorer la vie aux personnes en situation de handicap.

Avec les NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives), chercheurs, ophtalmologistes, orthoptistes, laboratoires médicaux, opticiens, starts up et associations de patients tentent de répondre aux besoins des 4, 3 milliards de personnes qui ont une mauvaise vision dans le monde dont 2,5 milliards ne sont pas corrigés … Quant à la cécité, elle touche environ 5% de la population mondiale, à peu près le nombre d’habitants de l’Espagne …

Pour les plus touchés, les non-voyants, victimes de rétinopathies ou de DMLA (dégénérescence maculaire liée à l’âge), des avancées formidables sont perceptibles et font espérer une solution assez proche, comme le système de restauration de la vision IRIS, développé par la ‘jeune pousse’ Pixium Vision. Cet implant rétinien remplace les fonctions physiologiques des cellules photo-réceptricesA de l’œil en stimulant électriquement les cellules nerveuses de la rétine interne qui transmettent ensuite l’information au cerveau via le nerf optique. Ce système fonctionne avec une caméra asynchrone et un petit ordinateur de poche : il devrait permettre au patient de se déplacer de façon autonome.prothese-optique

D’autres solutions ont été présentées comme les lunettes « intelligentes » à réalité augmentée de Light Vision pour les personnes atteintes de DMLA. En détectant les parties encore fonctionnelles de la rétine, le système affiche les bonnes images au bon endroit ! La société pense distribuer une centaine lunettes en 2016. GenSight Biologics préconise, en revanche une thérapie génique pour des rétinites, la DMLA et la dégénérescence des cellules du nerf optique. L’objectif est de développer des vecteurs issus des « Adeno-Associated Virus » (AAV) pour le traitement génique de certaines dystrophies rétiniennes.

Mais il n’y a pas que ces grandes pathologies, dans les pays développés, la presbytie atteint un grand nombre de personnes. L’application « Back in Focus » permet de lire sur écran sans ses lunettes. Ce support numérique permet de tirer parti des appareils mobiles pour avoir l’image corrigée pour la vision de chacun. C’est l’écran qui s’adapte aux yeux des personnes (âgées souvent) plutôt que les lunettes correctrices … ! Ca simplifie beaucoup la vie pour lire un SMS ou regarder un plan sur son smartphone !

Dassault Systemes a développé une simulation de réalité virtuelle en 3D pour la recherche médicale pour faire ressentir aux utilisateurs et aux soignants ce que vit une personne malvoyante ou en fauteuil roulant … Des simulations semblables sont aussi disponibles sur la vision des animaux : chat, chien ou oiseau. On peut voir ce que perçoivent nos compagnons à poil ou à plumes, au ras du sol ou dans les airs… !

Mais ce qu’ont surtout développé les services ophtalmologistes, les laboratoires et les opticiens, ce sont des parcours de soins et d’accompagnement des malades ; l’aspect humain et organisationnel primant ainsi sur les aspects thérapeutiques et technologiques.

L’autre grande innovation, c’est l’émergence des réseaux sociaux spécialisés à partir d’association de patients comme Retina ou Carenity. Les patients ne sentent plus seuls avec leur handicap et peuvent compter sur des communautés comprenant des médecins, bénévoles, soignants et personnes connaissant les mêmes affections.

 

Sciences Po accessible

Vision innovation 2015
UNESCO, 10 février 2015

Taillandier, Florent. - A quand des ebooks vraiment adaptés aux déficients visuels ? – CNET France, 28/05/13

European Commission. – Marrakech Treaty : Equal Access to Books for Visually Impaired and Print Disabled. – Disabled World, 28/06/13

Organisation mondiale de la propriété intellectuelle (OMPI). – Traité de Marrakech visant à faciliter l’accès des aveugles, des déficients visuels et des personnes ayant d’autres difficultés de lecture des textes imprimés aux oeuvres publiées. – OMPI, 27/06/13

Kudzia, Kudzia. - Table ronde « Lire autrement : vers de nouveaux usages et de nouveaux services en bibliothèque. – Accessible ABF, 11/05/14

 

Liberté ou sécurité … Sur le web, quelle alternative ?

bigdata_image2On a beaucoup évoqué la liberté d’expression ces derniers jours, de même que le besoin de sécurité et de surveillance du Net. Mais est-il possible de concilier ces deux piliers de la démocratie, dans un contexte de mondialisation accrue de l’information et d’obsession sécuritaire ?

Alors que la France se targue d’être le pays des droits de l’homme et de défendre à tout prix la liberté d’expression, depuis quelques années, ce droit subit un certain nombre de restrictions, et plus particulièrement sur l’internet …

Avant même les attentats de janvier, le gouvernement français avait pris des mesures accentuant la surveillance et les écoutes sur les communications électroniques. Avec la Loi de programmation militaire de 2013 d’abord, en étendant le périmètre des écoutes à de nombreux cas : l’Etat peut accéder directement aux données des opérateurs télécoms, FAI ou hébergeurs web sans nécessiter l’aval d’un juge « en prévention du terrorisme, de la criminalité ou de la délinquance organisées, ou de la reconstitution ou du maintien de groupement dissous » comme le souligne le Journal du Net. Et à présent, au lendemain des attentats, un décret prévoit de bloquer, sans contrôle judiciaire, une liste de sites établis par l’OCLCTIC (Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication). Même si Manuel Valls se défend de vouloir promulguer un « Patriot Act » à la française, ces mesures restreignent de façon significative les droits des citoyens en ligne. Alors que l’Union européenne tente depuis quelques années de protéger les données personnelles, notamment en empêchant les Etats-Unis à avoir accès aux fichiers des passagers européens (Passenger Name Record, PNR), le Ministre de l’intérieur explique dans Les Echos, que « les textes européens de lutte contre le terrorisme ne suffisent plus et qu’il faut adapter le système Schenguen lors des contrôles aux frontières ». Jean-Pierre Laborde, directeur du Comité contre le terrorisme de l’ONU, tout en étant en faveur d’un PNR européen, reconnaît dans une interview au Monde que la France dispose déjà d’un dispositif juridique suffisamment préventif et répressif sur la question et qu’une nouvelle loi sur le terrorisme n’apporterait rien de plus, avant d’avoir éprouvé la dernière loi qui vient d’être adoptée il y a à peine deux mois. De plus, « la France a des obligations en vertu des traités européens qu’elle a signés et qu’elle ne pourrait envisager une loi comme le Patriot Act sans entraîner des questionnements sur les règles de la libre circulation dans l’espace de l’Union européenne. » Enfin les lois antiterroristes doivent aussi prendre en compte « les obligations internationales concernant les droits de l’homme » … C’est aussi le point de vue d’Isabelle Falque-Pierrotin, Présidente de la CNIL, citée dans Numerama  « Parce que les libertés publiques sont consubstantielles à l’Etat de droit dont elles constituent le cœur, aucun impératif de sécurité ne peut conduire à leur remise en cause profonde » .donnees-persos-111705

D’autre part, en France, on comprend moins que nos valeurs universelles héritées des Lumières (liberté de mouvement et d’expression, notamment vis-à-vis des croyances religieuses, laïcité) soient moins partagées par les peuples du monde entier. Or, une publication quasi confidentielle comme Charlie Hebdo, est propulsée grâce au web au niveau de l’ensemble de la planète … Et comme une image en dit plus qu’un millier de mots … ! Et surtout, les populations qui sont aussi attachées à la liberté d’expression comme les anglo-saxons ne comprennent pas les limites que la France met à ce droit fondamental : incitation à la haine, racisme, xénophobie, etc… Comme le fait remarquer le philosophe américain Steve Fuller dans un article de Al Rasub, les Etats ne seraient plus en mesure de protéger l’ensemble des populations si tout le monde se comportaient effectivement en « Charlie » … Et la défense de la liberté d’expression risquerait de se transformer en apologie de l’autodéfense et du port d’armes, en raison de l’insuffisance des forces de sécurité publique pour protéger les citoyens !

Cette double incompréhension risque de multiplier les dérapages, aussi bien en France qu’à l’étranger, notamment en ce qui concerne la censure et la répression sur l’internet…

sécurité

Internet-signalement.gouv.fr.
Portail officiel de signalement des contenus illicites de l’internet

LOI n° 2013-1168 du 18 décembre 2013 relative à la programmation militaire pour les années 2014 à 2019 et portant diverses dispositions concernant la défense et la sécurité nationale. – Journal Officiel, version consolidée au 29/01/15

Champeau, Guillaume. – La CNIL dit « oui mais » à la surveillance accrue sur internet. – Numerama, 26/01/15

Fuller, Steve William. – Charlie Hebdo : a bonanza for gun owners in the making? – Al-Rasub, 20/01/15

« Un système d’échange de données serait plus efficace et protecteur de la liberté des citoyens »/ Entretien Jean-Paul Laborde, propos recueillis par Jacques Follerou. – Le Monde, 14/01/15

Fredouelle, Aude. – A quoi pourrait ressembler un « Patriot Act » à la française » ? Journal du Net, 14/01/15

Cazeneuve « Il nous faut adapter le système Schenguen ». – Les Echos, 11/01/15

#CharlieHebdo : Non à l’instrumentalisation sécuritaire. – Quadrature du Net, 09/01/15

Champeau, Guillaume. – Sites terroristes : le gouvernement notifie son projet de blocage à Bruxelles. – Numerama, 09/01/15

Rees, Marc. – Les écoutes légales des conversations sous Skype bientôt possibles. – NextINpact, 06/01/15

Lefebvre, Arnaud. – Big Brother en France : en 2015 le gouvernement aura accès à toutes les données des internautes. – Express.be, 02/01/15

Madden, Mary. – Public perception of privacy and security in the post-Snowden era. – Pew Research Center, 12/11/14

Travail et numérique : un nouveau paradigme ? – 2. L’entreprise et l’organisation en question

1370941087_generation_yLe numérique n’apporte pas seulement des transformations techniques sur le lieu de travail, comme on l’a vu avec l’automatisation croissante dans le post précédent, c’est toute l’organisation du travail et l’emploi qui sont remis en question.

La structure pyramidale de l’entreprise d’abord, avec son fonctionnement ‘top-down’, ne pourra pas tenir longtemps face à l’émergence de la dimension horizontale d’internet. A l’ère de la communication ‘tout azimut’ sur les réseaux sociaux, il serait difficile de ne pas prendre en compte le point de vue des salariés … Cela pourrait d’ailleurs être un des facteurs de réussite des réseaux sociaux d’entreprises (RSE) : Facebook travaille à mettre au point une version pour l’entreprise de son célèbre réseau … Et les grandes entreprises françaises ont pris la mesure de l’importance de la dimension collaborative au travail : voir à ce sujet le rapport d’octobre 2014 du groupe de travail du CIGREF  « Aujourd’hui dans les entreprises, les formes de management changent sous l’impulsion des transformations numériques qui s’opèrent. Les logiques d’efficacité opérationnelles nécessitent de s’appuyer sur les femmes et les hommes de l’entreprise ainsi que les réseaux formels et informels qu’ils constituent. L’entreprise espère ainsi fluidifier et accélérer les flux d’information, favoriser, partager les bonnes pratiques et faire émerger des idées nouvelles ».

Les « Géants du web », comme Google ou Microsoft ont aussi compris qu’il fallait laisser une certaine liberté à leurs salariés pour leur permettre de développer leur créativité. La firme de Mountain View accorde 20% de leur temps de travail à ses employés pour développer leur propre projet ; c’est grâce à cela que nous bénéficions d’applications comme Gmail, Google Maps ou d’un logiciel de numérisation de livres … formationnumerique2

L’emploi stable et permanent est en passe d’être dépassé : exit le CDI, place à l’intermittence généralisée … ! Mais avec un revenu de base pour survivre comme le souligne Xavier de la Porte, citant Thierry Crouzet dans InternetActu. Avec la croissance de la précarité, le salariat qui représente depuis deux siècles le modèle du rapport au travail, devrait peu à peu disparaître au profit d’autres formes de rapports à l’emploi. C’est aussi ce qu’explique Bernard Stiegler dans une interview sur We demain : le modèle salarial keynésien implique « de redistribuer via les salaires, une partie des gains de productivité réalisés grâce à la technologie, et constituer ainsi du pouvoir d’achat ». C’est sur ce paradigme que reposait l’Etat providence fondé sur la croissance. Mais ce modèle est sous perfusion depuis la crise de 2008 … ! C’est pourquoi il faudrait penser à une nouvelle redistribution, à un nouveau paradigme.

Si les technologies de l’information peuvent générer de nouvelles contraintes et multiplier les aspects négatifs dans l’organisation du travail (intensification du travail, morcellement de tâches, externalisation, contrôle  et surveillance accrue des salariés, sans oublier les troubles psycho-sociaux), comme le souligne Amandine Brugière dans InternetActu, elles permettent aussi une personnalisation du travail, une autre articulation entre travail et vie personnelle.

L’atelier Digiwork (Fing) a imaginé 8 scénarios pour le travail à l’ère numérique, avec pour chacun, des tendances contradictoires :

–          « numérique libéral » : précarité, chômage, outsourcing, CDD, augmentation du temps de travail, digital labor (exploitation des internautes), désengagement de la ‘génération Y’, surveillance ….

–          Le modèle ‘autonome’ : collaboration, auto-entrepreneur, porosité entre temps de travail et temps personnel, mode projet, modèle contributif, marchand ou non.

La multiplication des plateformes web peut aussi bien amener une nouvelle forme d’exploitation au service des consommateurs comme les services Uber (taxis) ou AirBn’B (chambres) que de la participation contributive à but non-marchand. Ces services s’accompagnent de collectifs de travail, impliquant des réseaux physiques et numériques, qui dépassent les limites physiques et organisationnels de l’entreprise ou de l’administration. Ces nouveaux organigrammes reposent sur le principe du « BYON » (Bring Your Own Network).

labo Ethique numerique_logoLes adeptes du télétravail peuvent se retrouver aussi dans des lieux bien matériels, les espaces de co-working. Là aussi, l’unité de lieu et de temps dans l’entreprise se dilue et se multiplie au rythme de ces nouveaux modes d’organisation. Le lieu de travail devient aussi « entreprise apprenante », grâce à la » formation de pair à pair ». Le management aussi se renouvelle dans « l’entreprise agile », il fonctionne principalement en mode projet, distribué de pair à pair : le fameux « scrumisme ».

Les jeunes aujourd’hui sont assez réalistes sur ce que l’avenir leur réserve au niveau professionnel, ils sont bien conscients que le numérique risque de détruire de nombreux emplois, mais d’autre part, ils accueillent assez positivement les innovations de l’entreprise. C’est ce que souligne le post de Tommy Pouilly dans Regards sur le numérique.

En bouleversant l’organisation du travail, le numérique implique toute la société, et ce aussi bien au niveau technologique et économique qu’en matière de transmission des savoirs. Dans l’entreprise ‘connectée’, comme l’explique Elsa Bastien dans Digital Society Forum (Orange) « les jeunes comme les aînés ont des choses à apporter et à s’apporter : à la nouvelle génération la transmission de la culture numérique et ses nouvelles « manières de faire » et à la génération en place le transfert de ce que l’on apprend sur le temps long, la connaissance du métier et de l’entreprise. ».

Pour aller plus loin

Pouilly, Tommy. – Les « sans bureau fixe » à la conquête du mieux-vivre en ville. – Regards sur le numérique, 16/10/13

Bys, Christophe. – « La notion de temps de travail n’a plus de sens dans de nombreux métiers » explique Henri Isaac. - Usine Digitale, 25/10/13

Kaplan, Daniel. – Travailler autrement ? Mutations des lieux et des temps du travail. – Digiwork – La FING, 18/04/14

Comment travaillerons-nous demain ?  – Regards sur le numérique, 03/06/14

Bastin, Côme. - Bernard Stiegler : « L’emploi salarié devient minoritaire ». – We Demain, 13/06/14

Boboc, Anca ; Taboy, Thierry. – Numérique et transformations du monde du travail : vers de nouveaux équilibres. – Digital Society Forum, 06/14

Brugière, Amandine. - La métamorphose du travail. – InternetActu, 27/06/14

Les réseaux sociaux d’entreprise. – Cigref, octobre 2014 (pdf)

Leclerc, François. – Huit scénarios extrêmes pour imaginer comment nous travaillerons demain. – La Tribune, 17/10/14

Sussan, Rémi. – L’avenir du bureau. – InternetActu, 30/10/14

Guillaud, Hubert. – Le bonheur au travail ? Sérieux ! - InternetActu, 03/11/14

Pouilly, Tommy. – Recruteurs du futur cherchent jeunes hors du système. – Regards sur le numérique, 26/11/14

 

Travail et numérique : un nouveau paradigme ? 1 – Les avancées robotiques

NaoDes messages contradictoires parviennent pour définir l’évolution  du travail à l’ère numérique. D’une part, le numérique est considéré comme le secteur d’avenir, avec à la clé des dizaines de milliers d’emplois, comme le prévoit le Plan Big Data ; d’autre part, l’automatisation croissante de nombreux secteurs risque de détruire des millions d’emplois si l’on en croit l’étude de Roland Berger, citée par RSLN.

Mais, plus profondément, c’est la structure même du travail et de l’emploi qui est remise en question avec l’introduction des technologies de l’information dans l’entreprise. Certains s’interrogent déjà sur la survie de l’entreprise, notamment en raison de la disparition des coûts de transaction : c’est ce qui ressort dans la synthèse réalisée par l’Atelier de l’emploi du Livre blanc de l’Aspen Institute   « The future of work 2 : comment la technologie transforme le travail ».  La structure verticale, fondée sur la hiérarchie des entreprises traditionnelles va être de plus en plus remplacée par l’horizontalisation et la décentralisation des organisations.

Aujourd’hui, nous examinerons uniquement l’impact des avancées du numérique et de la robotique sur le marché du travail.

Les progrès en intelligence artificielle et en robotique

Malgré quelques annonces fracassantes depuis une trentaine d’années, l’intelligence artificielle (IA) n’avait pas vraiment effectué d’avancées significatives et la robotique était cantonnée à certains secteurs industriels et restait encore très coûteuse ….

Mais il semblerait que ces deux activités de pointe, très liées par ailleurs, aient réalisé récemment un bond qualitatif permettant désormais de les prendre en compte dans l’avenir du marché du travail !

Alors, menaces ou opportunités ? C’est ce qu’analyse le PewResearch Internet Project dans une enquête auprès de 1896 experts. A la question « Quel va être l’impact des avancées de la robotique et de l’IA à l’horizon 2025 ? », une petite moitié (48%) a une réponse pessimiste : les robots et les agents intelligents vont peu à peu remplacer un grand nombre de travailleurs, aussi bien des ouvriers et des employés que des cadres, provoquant de grandes inégalités et du désordre social. Les autres experts (52%) prévoit en revanche que ces technologies ne vont pas remplacer plus d’emplois que ceux qu’ils vont créer d’ici 2025 ! Ils font confiance à l’inventivité humaine pour créer de nouveaux emplois, de nouveaux secteurs d’activité, de nouvelles façons de gagner sa vie, comme cela s’était passé à l’aube de la Révolution industrielle …. !

Mais tous les prospectivistes ne sont pas aussi optimistes ! Dans son étude, Roland Berger prévoit que 20% des tâches seront automatisées d’ici à 2025, les robots mettant au chômage 3 Millions de personnes ! Céline Deluzarche recense dans Le Journal du Net les 25 métiers bientôt remplacés par des robots … Et là encore, cela ne concerne pas uniquement les tâches répétitives des métiers manuels, mais des professions comme pilote d’avion, gardien de prison, pompier, agriculteur ou psychologue !! C’est pourquoi Bill Gates préconise dans une interview à l ‘American Institute Entreprise de taxer plutôt le capital et la consommation que le travail salarié ….

Le numérique, pourvoyeur d’emplois ?Fotolia_6549225_S-350X220

Quant au numérique, ce secteur ne produirait pas autant d’emplois qu’il en détruit … ;-( L’étude de Roland Berger compare par exemple, le nombre de postes créés par Instagram au moment de son rachat par Facebook (13) au nombre de salariés chez Kodak à son apogée (140 000) … !  Dans leur étude (U. d’Oxford, 2013) sur l’avenir de l’emploi et l’automatisation, Carl Frey et Michael Osborne estiment que 47% des emplois américains sont menacés ! Mais ils font aussi remarquer que ce dilemme s’est déjà posé dans l’histoire du marché du travail au siècle passé et que de nouvelles activités sont venues remplacer les emplois détruits par les différentes innovations : industries après  agriculture, services plutôt qu’industries, etc.

C’est dans cette perspective, avec l’idée que la plupart des métiers de demain n’ont pas encore été inventés, que le « Plan Big Data », un des 34 plans de reconquête industrielle lancé par le gouvernement en octobre 2013, vise à positionner la France parmi les leaders mondiaux dans ce nouveau secteur. Il prévoit un marché de 9 milliards d’euros à l’horizon 2020 et 130 000 emplois dont 80 000 créations ! La Commission européenne, prévoit, au niveau de l’UE,  900 000 postes à pourvoir en 2015. Mais cela implique des formations en masse de ‘data scientists’, sans parler des juristes et autres spécialistes de manipulations et trafics de données à prévoir avec la CNIL pour protéger les données personnelles.

Ces prévisions sont cependant toujours projetées dans un marché du travail et un écosystème économique semblables à ceux que nous connaissons. Or, de nombreuses tendances indiquent qu’ils sont en pleine mutation et que les organisations du travail actuelles (entreprises verticales, salariat) sont en voie de disparition …

Dans un prochain post, nous examinerons les alternatives à ce modèle économique et aux nouvelles façons de travailler (et de vivre !) que nous prépare l’avenir ! robots-option-binaire

The Future of Work II : comment la technologie transforme le travail ? par l’Atelier de l’Emploi. – ManPower Group, 10/05/11

Frey, Carl Benedict ; Osborne, Michael A. – The Future of Employment :How jobs are susceptible of computerisation ? - Oxford University, Sept. 2013

Guillaud, Hubert. - Comment travaillerons-nous ? - InternetActu, 18/02/14

Bill Gates says robots and automation will take jobs. – Next Big Future, 28/05/14

Comment travaillerons-nous demain ?Regards sur le Numérique, 03/06/14

Biseul, Xavier. – Le Plan BigData vise à créer 80 000 emplois d’ici à 2020. – 01Net, 03/07/14

Fumard, Camille. – Les métiers du numérique meilleur vivier pour lutter contre le chômage. – Regards sur le Numérique, 29/07/14

Robotisation du travail : jusqu’où l’Homme est-il prêt à « s’augmenter » sans perdre son emploi ? – Regards sur le Numérique, 30/07/14

Smith, Aaron ; Anderson, Janna. – AI, Robotics and the Future of Jobs. – PewResearch Internet Project, 06/08/14

Les classes moyennes face à la transformation digitale. - Roland Berger, 27/10/14

Trujillo, Elsa. – Les robots pourraient détruire 3 Millions d’emplois en France d’ici 2025. – Regards sur le Numérique, 28/10/14

Barbaux, Aurélie. – Les algorithmes vont-ils remplacer les fonctionnaires ? – Usine digitale, 06/11/14

 

Lire, écrire à l’ère numérique – 2 – Ecriture et éditorialisation

La grammatologie

84135761_oComme il a été évoqué dans le post précédent, l’écriture est très liée au dispositif de lecture. L’écriture n’est pas la transcription fidèle de la parole pleine sur un support, ce n’est pas une simple reproduction du langage. C’est ce que Derrida explique dans la De la Grammatologie[1]  « La brisure [de l’écriture] marque l’impossibilité pour un signe, pour l’unité d’un signifiant et d’un signifié, de se produire dans la plénitude d’un présent et d’une présence absolue ». Cette distance de l’écriture par rapport au langage et à la pensée, va être traduite par la notion de ‘trace’ : « cette trace est l’ouverture de la première extériorité en général […] : l’espacement ». Derrida arrive ensuite à la notion de ‘gramme’ (que l’on retrouve dans ‘programme’ « Depuis l’’inscription génétique’ et les ‘courtes chaînes’ programmatiques réglant le comportement de l’amibe ou de l’annélide jusqu’au passage au-delà de l’écriture alphabétique de l’ordre du logos et d’un certain homo sapiens, la possibilité du gramme structure le mouvement de son histoire ». On retrouve ici l’idée de codage spécifique de certaines aires neuronales que le neuropsychologue Stanislas Dehaene avait identifié pour la lecture. C’est ce que souligne aussi Christian Fauré dans son post Généalogie d’un lecteur : L’écriture est une ‘grammatisation’ (le codage) d’un message et la lecture, la ‘dégrammatisation’. En lisant, on écrit aussi dans le cerveau, on décode ce qui est tracé sur le support. Si on n’effectuait pas ce processus de décodage, on lirait comme une ‘tête de lecture’, sans rien comprendre … ! Ou tout au moins en ne comprenant que très partiellement …. traces

La lecture, surtout dans un environnement scientifique, s’accompagne souvent d’écriture, soit sur le support lui-même, annotations, surlignages, soit sur un autre support : fiche de lecture, notice, etc. Ces balisages divers signalent que la lecture a dépassé le stade alphabétique pour atteindre un stade cognitif : tri, sélection. Comme le fait remarquer Christian Fauré, peu importe si on ne relit pas ses propres annotations, car « souligner un livre c’est aussi et en même temps écrire dans son cerveau ». Ces gribouillis si souvent réprimés par les éducateurs et les bibliothécaires – c’est vrai qu’ils endommagent les ouvrages – vont retrouver une nouvelle vie avec le numérique ! Les lecteurs ‘écrivants’ d’aujourd’hui vont aussi pouvoir partager leurs commentaires avec d’autres lecteurs comme dans les bibliothèques du Moyen-Age où chaque clerc ajoutait son commentaire dans la marge ! La différence, c’est que l’on peut les faire apparaître ou disparaître en fonction des besoins.

Dans l’environnement numérique des e-books, chaque lecteur peut conserver ses annotations sur la plateforme de lecture en ligne. De même, de nombreux outils existent pour catégoriser et annoter les articles et blogs sur la Toile. C’est ce qui me permet d’écrire moi-même ce post à partir de tous les articles que j’ai recensé sur Diigo à partir du tag ‘écriture’moleskine_ecriture_infinie_698

L’éditorialisation du web

Le grammatologue allemand Ulmer appelle cette nouvelle compétence ‘electracy’, electronic literacy. C’est pourquoi l’écriture dans l’environnement numérique ne peut être la reproduction à l’identique de l’œuvre numérisée, comme c’est le cas aujourd’hui des e-books et des revues en ligne. C’est l’objet de la série de séminaires organisés depuis 2011 par l’IRI au Centre Georges Pompidou « Ecritures numériques et éditorialisation ». Dominique Cardon et Audrey Laplante démontrent dans une de ces conférences comment fonctionne le dispositif d’éditorialisation de contenus sur le web. Grâce à une structuration des données par des algorithmes, l’internaute les atteint après un ‘parcours de lecture’. Il ne se trouve pas directement en relation avec les producteurs de contenus. La plupart du temps, il doit passer par les algorithmes des moteurs de recherche (PageRank de Google) ou des réseaux sociaux (EdgeRank de Facebook).

L’écriture sur le web passe aussi par les différentes sortes de messageries (mels, messageries instantanées, microblogging) qui permettent aux individus d’exprimer leurs opinions et leurs sentiments sur toutes sortes d’informations et d’évènements. Et ce, pas seulement au moyen d’écriture alphabétique mais aussi à travers plusieurs autres médias : infographies, photos, vidéos, etc.

Avec les sites web, blogs et réseaux sociaux, l’écriture n’est plus réservée aux seuls professionnels, journalistes ou spécialistes en communication des entreprises ou des organismes publics. Chacun peut devenir rédacteur ou éditeur de son propre contenu … Malgré l’importance et l’omniprésence des images, fixes ou animées, les jeunes n’ont jamais autant écrit qu’en ce début de 21e siècle !

De plus, des outils dédiés (Framapad) permettent de plus en plus une écriture collaborative, qui va de l’administration à la recherche (compte rendus de réunions, de colloques) à la fiction (cadavres exquis, romans collectifs).

Toutes ces activités laissent évidemment des traces sur les réseaux. Nous retrouvons donc ici la notion-clé de l’écriture théorisée par Derrida : la ‘trace’. Ce sont ces traces qui vont alimenter aussi bien la surveillance des « Big brothers » dictatoriaux ou démocratiques que les serveurs des entreprises et des organisations à travers le traitement des mégadonnées (Big Data)… !

2013-05-22 003Le traitement de certaines traces, les métadonnées, vont servir de balises sémantiques pour se repérer dans le chaos du web, c’est le rôle des moteurs de recherche. Ces derniers explorent le web en lisant d’abord des milliards de pages à l’aide de logiciels robots et les indexent automatiquement. Ensuite, ils ne se contentent pas de présenter les résultats de façon brute : ceux-ci sont présentés, éditorialisés en fonction d’algorithmes bien précis (PageRank).

En attendant les robots-écrivains, les ‘robots-journalistes’ !

Slate signale l’expérience d’Associated Press avec la rédaction d’articles par des logiciels robots. Pour le moment il s’agit essentiellement de dépêches traitant les résultats financiers d’entreprises financières américaines qui vont être intégrées en direct dans le fil international d’AP. Même s’il s’agit pour le moment de tâches de base qui ne passionnent pas les journalistes (extraire des informations des bases de données) mais que les automates sont beaucoup plus rapides et efficaces à traiter … Tous les professionnels de l’information, documentalistes, veilleurs, traducteurs, rédacteurs se sentent menacés par l’émergence de cette concurrence virtuelle, mais l’intelligence artificielle a encore de grands progrès à faire avant mettre en dangers toutes ces professions intellectuelles … automated robot journalism

[1] Derrida, Jacques. – De la grammatologie. – Paris, Ed. de Minuit, 1967.


 Enseigner l’écriture numérique. – Dossier séminaire PRECIP – UTC de Compiègne, 4-5 avril 2012 – Revue Skhole.fr

Généalogie d’un lecteur (2) : l’écriture du lecteur. – Christian Fauré, 01/07/12

L’écriture numérique, une écriture sociale ? – Le rendez-vous des lettres – Eduscol, 2012

Gilliot, Jean-Marie ; Scarlatti, Serge. – Écritures collaboratives pour des cours ouverts sur le web. – Institut Mines Télécom – Télécom Bretagne, 2012

How does writing modifies your brain ? [infographic]. – Daily Infographic, 26/05/13

750 auteurs réunis pour l’écriture d’un roman collectif. – Actualitté, 07/11/13

De la stratégie de contenu web à la stratégie d’information web. – Plume interactive, 10/06/13

Sicot, Timothée. – SMS et réseaux sociaux améliorent l’écriture des étudiants. – L’Atelier : disrupture innovation, 24/09/13

Cardon, Dominique ; Laplante, Audrey. – Algorithmes et éditorialisation automatisée – Ecriture numérique et éditorialisation. – Polemic Tweet, 24/04/14

Oresmus, Will. – Journalisme-robot : le soulèvement des machines à écrire. – Slate, 27/07/14

 

 

Lire, écrire … A l’ère numérique – 1 – La lecture aujourd’hui

270x300 lireL’environnement numérique est depuis quelque temps accusé de tous les maux, et surtout d’avoir « tué » la lecture, notamment chez les jeunes. En perturbant l’attention des lecteurs avec des liens hypertextes et des notifications diverses (mails, réseaux sociaux, SMS et même coups de fils) sur les ordinateurs et terminaux mobiles, la lecture numérique perd l’intensité de l’’attention profonde’ qui permet de s’investir pleinement dans un texte et de comprendre un document. Cette dernière se transforme alors en ‘hyperattention’ et se disperse en suivant plusieurs fils d’information. C’est ce que démontre Katherine Hayles, professeur à l’Université de Duke, citée dans le séminaire de l’IRI « Ecologie de l’attention » organisé par Bernard Stiegler et Igor Galligo en 2013-2014 au Centre Pompidou. J’avais évoqué cette controverse dans le post « Livres/écrans : quelle hybridation pour la bibliothèque du 21e siècle » : il apparaissait que le problème ne résidait pas dans l’opposition ‘papier/numérique’, puisque les liseuses à encre électronique (e-ink) permettent l’attention profonde, mais dans la dualité entre culture des écrans et culture du livre selon le psychanalyste Serge Tisseron. Dans la culture du livre le rapport au savoir est vertical (auteur/lecteur), tandis que devant les écrans, les lecteurs se trouvent devant un accès plus diversifié et horizontal.

D’autre part, comme le démontre le neuropsychologue Stanislas Dehaene dans la vidéo cerveau_lecture« cerveau et lecture » à l’Académie Royale de Belgique, la mise en place de la lecture est apparue assez tard dans l’histoire de l’humanité : au cours de l’évolution, la plasticité du cerveau a permis de ‘recycler’ une aire neuronale pour la consacrer à l’activité du décodage de signes abstraits (mots). L’imagerie cérébrale a permis d’identifier cette zone et notamment le rôle du cortex temporal gauche, la « boite à lettre » du cerveau, dans cette activité. Les neurones de cette région ne répondent pas lorsque la personne est illettrée. Si notre système cognitif a pu s’adapter à un moment de notre histoire pour produire l’activité de lecture (et d’écriture comme mémoire externe), il devrait être capable de  s’adapter aussi à l’environnement numérique.

C’est ce qu’explique Christian Jarrett dans le post de Wired  «The Internet isn’t ruining your teenager’s brain ». Malgré les prophètes de mauvais augure qui nous présentent une génération d’adolescents perturbés et distraits, internet et les usages numériques pourraient avoir une action positive sur l’esprit des jeunes en les rendant plus sociaux. Et même si une très faible minorité subit une addiction, par exemple aux jeux vidéo, la plasticité du cerveau devrait permettre d’inverser ce processus à l’âge adulte …

internet-rend-il-bete,M24827

D’ailleurs la lecture numérique a d’autres avantages recensés dans le post La lecture sur l’internet rend-elle idiot? Pas si sûr! : survoler un article pour en extraire les informations pertinentes, etc. Comme le dit l’écrivain espagnol Lorenzo Silva, cité dans un article d’Actualitté, Internet est « le grand texte du peuple qui ne lit pas ». Si les gens ne lisent plus comme avant, internet n’est rien d’autre que du texte (de moins en moins …) et il faut s’assurer de la qualité de ce grand texte !

Il existe aussi un certain nombre d’outils qui permettent de retrouver sur les écrans la tranquillité de la page imprimée. Evernote ou Readability suppriment tous les parasites (publicités, annonces diverses, renvois, etc.) qui polluent les sites web pour donner accès à une lecture ‘zen’ ou décalée ;-) Mais, sauf si on déconnecte le terminal, on n’échappera pas aux ‘distractions’ en ligne : hypertexte, notifications …

Il est vrai que la place de la lecture a beaucoup régressé dans les activités culturelles des Français, au profit bien sûr des médias audiovisuels et interactifs : télévision, vidéos, jeux vidéo, musique, etc. La lecture de vingt livres ou plus par an est passée, d’après les enquêtes sur les pratiques culturelles des Français,  de 28 personnes sur 100 en 1973 à 16 en 2008, et surtout de 41 à 16 pour les 18-24 ans ! Un enquête plus récente d’IPSOS citée dans Actualitté comparaît les données de 2014 sur le comportement des lecteurs avec celles de 2011 : si la proportion des lecteurs au format papier a légèrement diminué passant de 70% à 69%, les lecteurs au format numérique sont passé de 8 à 11% en trois ans ! La pratique de la lecture n’a donc pas disparu, mais se transforme …

Au niveau mondial, l’édition numérique serait en hausse et devrait progresser de près de 20% sur la période 2013-2018 d’après le « Global e-book market ».

La fréquentation des bibliothèques reflète d’ailleurs cette tendance : l’inscription en bibliothèque a progressé entre 1973 et 2008 : on est passé de 13 Français de 15 ans et plus sur 100 en 1973 à 18 inscrits en 2008 et surtout de 18 à 31 pour les 18 – 24 ans ! Il est intéressant de corréler ces données avec les pratiques de lecture de livres : il semblerait que les jeunes ne fréquentent pas les bibliothèques uniquement pour lire des livres ! En revanche, en ce qui concerne les bibliothèques universitaires, l’étude réalisée par l’Université de Toulouse en 2012 montre que la relation entre l’utilisation de la documentation des BU et la réussite aux examens des étudiants est bien réelle. «… le lien entre emprunts et réussite est très fort : la probabilité de valider son semestre est beaucoup plus élevée pour les étudiants empruntant beaucoup d’ouvrages que pour ceux en empruntant peu …». enhanced-ebooks

Mais revenons à la lecture numérique. Si les neurosciences cognitives n’ont pas encore tranché sur les différences entre la lecture « papier » et la lecture « écran », cette dernière n’a pas que des inconvénients : elle permet aussi un partage « social » des commentaires et annotations, mais surtout la ‘fouille de données’, en anglais le TDM (text and data mining). C’est ce que souligne Christophe Perales dans son post « Infini de la lecture : de Cassiodore au text et data mining » en comparant l’arrivée du numérique avec la mutation qu’a connu le livre au début du IIIe siècle en passant du volumen au codex. Cette mutation a complètement changé les rapports des lecteurs à l’écrit bien plus que l’invention de l’imprimerie ! « le codex va ouvrir la possibilité de constituer des tables des matières, des index, de confronter bien plus commodément, et quasi simultanément, des passages différents, à l’intérieur d’un même livre ou entre plusieurs ouvrages. […] Une innovation matérielle peut donc avoir des conséquences intellectuelles importantes. »

Le web nous a fait retrouver la possibilité de plusieurs lecteurs d’intervenir sur un même texte pour le commenter à travers des annotations qui existaient déjà au Moyen-Age ! Mais c’est la fouille de contenu qui représente la pratique la plus disruptive apportée par le numérique à la lecture. L’utilisation de ces ‘mégadonnées’ à partir des textes et des corpus grâce aux outils des humanités numérique va changer complètement le rapport au savoir pour les chercheurs. Évidemment, un problème juridique existe encore pour l’accès complètement libre à ces textes. Mais ce qui change complètement la donne dans cette innovation ce n’est plus l’ »interface neuronal » entre l’œil et le système cognitif qui décrypte ces signaux, mais un dispositif automatique, un robot qui « lit » et traite ces volumes très importants d’information. Même si en fin de compte, ce sont des humains qui donnent un sens à cette opération … ! 2013-12-01 002

Pour aller plus loin

Ferrando, Sylvie. - Compte rendu de l’ouvrage  de Stanislas Dehaene Les  neurones de la lecture, introd. de J.P Changeux. Ed. Odile Jacob, 2007. – Relais d’Information sur les sciences de la cognition (RISC)-CNRS, 2007 (pdf).

Ministère de la culture et de la communication. - Enquête sur les pratiques culturelles des Français : évolution 1973-2008. – Département des enquêtes, de la prospective et des statistiques.

Emprunt en bibliothèques universitaires et réussite aux examens de licence. – Étude lecture V 21 – Université de Toulouse, décembre 2012

Keim, Brandon. – Why the smart reading device of the future may be … Paper. – Wired, 05/01/14

Helmlinger, Julien. – Comportement et évolution de la lecture chez les Français. – Actualitté, 13/03/14

L’attention et la dynamique des écrans et images virtuelles in Ecologie de l’Attention – IRI – Centre Pompidou, 02/04/14 – Vidéo Lignes de temps

Jahjah, Marc. – Qu’est-ce que la lecture sociale ? - INAGlobal, 23/07/14

Lire à l’écran : (re)tournons à la page. – Site de François Jourde, 06/08/14

Est-ce que le livre numérique tue vraiment la lecture? – Slate, 14/08/14

Delarbre, Clémence. – La bibliothèque du futur sera-t-elle sans livres ? – Rue 89, 14/08/14

Des livres, des lecteurs, des lectures. – Le dernier blog, 26/08/14

Perales, Christophe. - Infini de la lecture : de Cassiodore au text et data mining. -BibliOpen – Blog Educpros, 04/09/14

Bonnes vacances !

break-feets-field-574-736x550

Quelques références issues de Philosophie Magazine sur le temps et l(a)es vacance(s) à méditer si vous trouvez le temps …

Eltchaninoff, Michel. – L’été en suspend. – PhiloMag. n°21, 03/07/08

Stiegler, Bernard ; Eltchaninoff, Michel. - « Dans la vacance, on cherche à retrouver la consistance dans l’existence » Entretien. – PhiloMag. n°21, 03/07/08

Rosa, Hartmut. – « Les vacances participent de l’accélération généralisé » Entretien. – PhiloMag. n°51, 30/06/11

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Enseignement et numérique : quelles difficultés, quels enjeux ?

l2code-cssUne controverse s’est développée récemment en France sur la nécessité d’enseigner le numérique à l’école. Doit-on en faire une discipline comme les autres, comme les maths ou l’instruction civique ? Ou au contraire, aborder chaque aspect de ce nouveau champ de connaissance à partir des autres enseignements : philosophie, droit, économie, physique, etc. comme le propose Michel Guillou, dans son post sur la « littératie numérique » ?

Il faudrait d’abord définir ce que l’on entend aujourd’hui par numérique, notion qui recouvre un grand nombre de connaissances et d’activités et bien distincte de l’informatique, aussi bien la théorie que la technologie spécifique. Or, un projet de loi vient d’être déposé à l’Assemblée nationale pour instituer l’ apprentissage du code informatique à l’école primaire (NextINpact, 13/06/14). Cet apprentissage, appuyé d’ailleurs par le Conseil national du numérique, est préconisé dans le ‘nouveau socle de connaissance’ du Ministère de l’éducation nationale.

Mais si une certaine base de connaissances et de pratique des algorithmes est indispensable à une bonne éducation, il paraît excessif de faire de nos « chères têtes blondes » des ‘codeurs’ émérites ! En effet, l’informatique est fondée sur la logique, et cette matière n’est abordée qu’en terminale, avec la philosophie … ! Il vaut mieux apprendre aux élèves à « mettre à plat » un problème ou une situation à l’aide d’algorithmes comme une recette de cuisine, comme l’explique Tasneem Raja dans « Is coding the new literacy? ». Une fois que les enfants auront compris ce qu’est une itération comme on comprend la composition d’une sauce en cuisine, les « petit(e)s malin(e)s pourront s’inscrire en atelier de ‘code’ pour programmer, par exemple, le jeu vidéo de leurs rêves, comme ils/elles peuvent s’inscrire à un atelier de pâtisserie, pour réaliser de magnifiques cupcakes ;-) Il existe d’ailleurs des tutoriels très attractifs pour les très jeunes amateurs, comme le montre ce programme de Mitch Resnick du Medialab du MIT. tarif-e-learning

Mais l’informatique ne représente qu’un aspect, essentiel certes, des si vieilles « Nouvelles technologies de l’information et de la communication » NTIC ou TIC, rebaptisées « numérique » depuis quelques années …. Les usages de ces technologies ont pénétré tous les champs de notre vie quotidienne. Les jeunes « digital natives » n’envisagent même plus la vie sans ces services … Comme certains pratiquent apparemment mieux que leurs enseignants, on pourrait penser qu’il est inutile de leur enseigner quoi que ce soit à ce sujet !

Or la pratique n’est pas la connaissance et encore moins la conscience des mécanismes ou des enjeux qui sous-tendent ces usages technologiques. En raison des inégalités très lourdes qui existent dans la société actuelle, seule l’école peut répondre à cette nécessité. Il est indispensable que les enseignants apportent un éclairage sur ce que recouvrent un profil Facebook, une messagerie instantanée, un téléchargement ou une recherche Google. Les enseignants peuvent bien sûr être assistés par des documentalistes et bibliothécaires, pour la recherche documentaires et les ressources numériques.

Si le numérique est effectivement « ignoré de la maternelle à l’ENA », comme l’affirment les participants d’ EDUCNUM 2014 , cité par Renaissance Numérique, que représente-t-il au juste ? « De la culture et de l’humain. On dépasse la technique et l’informatique » comme le twitte Clotilde Chevet, ou « Une culture générale numérique englobe à la fois le code, les images ou les questions des libertés » pour Sophie Pène.

Plutôt que d’apprendre à coder, les élèves ont d’avantage besoin d’ « apprendre à penser par eux-mêmes, à ‘décoder’, à ‘déchiffrer’  » analyse Olivier Le Deuff dans le Guide des égarés. Ils doivent être formés à une « culture nouvelle », en produisant un « nouveau régime de savoirs … C’est la question de la formation du citoyen dans des environnements complexes où se produisent différentes lectures et écritures ».

Mais qu’en est-il de l’utilisation des techniques numériques dans l’enseignement ? Les TICE, le e-learning, et à présent les MOOC, arrivent-ils à transformer l’éducation ? Assistons-nous à un nouveau paradigme pédagogique grâce au numérique ?
Si les moyens techniques et humains, et surtout la formation des enseignants, sont loin d’être opérationnels, certains indicateurs portent à l’optimisme.

Le e-learning permet d’abord aux apprenants à être plus autonomes, moins passifs face à l’enseignement du maître. Le ‘blended learning’ combine la transmission des connaissances et les compétences de l’enseignant avec des modules de e-learning, une recherche de contenus, des exercices et des ‘jeux sérieux’, et surtout des échanges avec d’autres étudiants et enseignants grâce aux forums de discussion.

Comme le souligne Mathieu Cisel dans son post « ce ne sont pas seulement les équipes pédagogiques qui s’adaptent ; pour les apprenants aussi c’est une évolution très importante de la posture face à l’apprentissage. Beaucoup plus d’autonomie, d’autonomisation et de responsabilisation » (La Révolution MOOC, 26/05/14).

Et surtout, comme l’affirme Emmanuel Davidenkoff, Directeur de l’Étudiant, « n’attendons pas de savoir si le numérique améliore les apprentissages. Intégrons-le tout simplement, car il est notre nouveau monde ».

Tablet PC with cloud of application icons

Resnick, Mitch. – Let’s teach kids to code. – TED, nov. 2012

Berne, Xavier. – Faut-il sensibiliser les enfants au code dès l’école primaire ?Next INpact, 21/05/14

Tasneem, Raja. – Is coding the new literacy ? - Mother Jones, 06/14

Guillou, Michel. – Socle : tous les élèves doivent savoir publier. – Culture numérique, 13/05/14

Guillou, Michel. – Pour une littératie numérique qui traverse et éclaire les disciplines scolaires. – Culture numérique, 01/06/14

Une culture générale du numérique pour tous ! - Renaissance numérique, 02/06/14

Enseignement de l’informatique à l’école : l’Académie des technologies prend position. – vousnousils, 03/06/14

François Fourcade. – Le numérique ne peut s’affranchir des lois de la pédagogie. – Parlons pédagogie ! Blog Educpros, 03/06/14

Cisel, Mathieu. – MOOC : la question de l’autonomie des apprenants. – La Révolution MOOC – Blog Educpros, 26/05/14

Gauchet, Marcel ; Soulé, Véronique. – Internet oblige le prof à remettre de l’ordre dans du désordre : interview. – Libération, 06/06/14

Kumar, Lokesh. – Blended learning – Is it the right move for you?Upside Learning, 10/06/14

Davidenkoff, Emmanuel. – Intégrons le numérique à l’école, car il est notre nouveau monde. – L’Express, 13/06/14

Le Deuff, Olivier. – Il faut apprendre à décoder, l’enjeu d’un nouveau programme commun. – Guide des égarés, 15/06/14

Compagnon, Antoine ; Duquesne, Margaux. – L’école du futur vue par Antoine compagnon. - Journaleuse, 16/06/14

Apprenants en ligne : à la conquête de leur liberté. – Thot Cursus, 17/06/14

 

Staypressed theme by Themocracy