Lire, écrire … A l’ère numérique – 1 – La lecture aujourd’hui

270x300 lireL’environnement numérique est depuis quelque temps accusé de tous les maux, et surtout d’avoir « tué » la lecture, notamment chez les jeunes. En perturbant l’attention des lecteurs avec des liens hypertextes et des notifications diverses (mails, réseaux sociaux, SMS et même coups de fils) sur les ordinateurs et terminaux mobiles, la lecture numérique perd l’intensité de l’’attention profonde’ qui permet de s’investir pleinement dans un texte et de comprendre un document. Cette dernière se transforme alors en ‘hyperattention’ et se disperse en suivant plusieurs fils d’information. C’est ce que démontre Katherine Hayles, professeur à l’Université de Duke, citée dans le séminaire de l’IRI « Ecologie de l’attention » organisé par Bernard Stiegler et Igor Galligo en 2013-2014 au Centre Pompidou. J’avais évoqué cette controverse dans le post « Livres/écrans : quelle hybridation pour la bibliothèque du 21e siècle » : il apparaissait que le problème ne résidait pas dans l’opposition ‘papier/numérique’, puisque les liseuses à encre électronique (e-ink) permettent l’attention profonde, mais dans la dualité entre culture des écrans et culture du livre selon le psychanalyste Serge Tisseron. Dans la culture du livre le rapport au savoir est vertical (auteur/lecteur), tandis que devant les écrans, les lecteurs se trouvent devant un accès plus diversifié et horizontal.

D’autre part, comme le démontre le neuropsychologue Stanislas Dehaene dans la vidéo cerveau_lecture« cerveau et lecture » à l’Académie Royale de Belgique, la mise en place de la lecture est apparue assez tard dans l’histoire de l’humanité : au cours de l’évolution, la plasticité du cerveau a permis de ‘recycler’ une aire neuronale pour la consacrer à l’activité du décodage de signes abstraits (mots). L’imagerie cérébrale a permis d’identifier cette zone et notamment le rôle du cortex temporal gauche, la « boite à lettre » du cerveau, dans cette activité. Les neurones de cette région ne répondent pas lorsque la personne est illettrée. Si notre système cognitif a pu s’adapter à un moment de notre histoire pour produire l’activité de lecture (et d’écriture comme mémoire externe), il devrait être capable de  s’adapter aussi à l’environnement numérique.

C’est ce qu’explique Christian Jarrett dans le post de Wired  «The Internet isn’t ruining your teenager’s brain ». Malgré les prophètes de mauvais augure qui nous présentent une génération d’adolescents perturbés et distraits, internet et les usages numériques pourraient avoir une action positive sur l’esprit des jeunes en les rendant plus sociaux. Et même si une très faible minorité subit une addiction, par exemple aux jeux vidéo, la plasticité du cerveau devrait permettre d’inverser ce processus à l’âge adulte …

internet-rend-il-bete,M24827

D’ailleurs la lecture numérique a d’autres avantages recensés dans le post La lecture sur l’internet rend-elle idiot? Pas si sûr! : survoler un article pour en extraire les informations pertinentes, etc. Comme le dit l’écrivain espagnol Lorenzo Silva, cité dans un article d’Actualitté, Internet est « le grand texte du peuple qui ne lit pas ». Si les gens ne lisent plus comme avant, internet n’est rien d’autre que du texte (de moins en moins …) et il faut s’assurer de la qualité de ce grand texte !

Il existe aussi un certain nombre d’outils qui permettent de retrouver sur les écrans la tranquillité de la page imprimée. Evernote ou Readability suppriment tous les parasites (publicités, annonces diverses, renvois, etc.) qui polluent les sites web pour donner accès à une lecture ‘zen’ ou décalée ;-) Mais, sauf si on déconnecte le terminal, on n’échappera pas aux ‘distractions’ en ligne : hypertexte, notifications …

Il est vrai que la place de la lecture a beaucoup régressé dans les activités culturelles des Français, au profit bien sûr des médias audiovisuels et interactifs : télévision, vidéos, jeux vidéo, musique, etc. La lecture de vingt livres ou plus par an est passée, d’après les enquêtes sur les pratiques culturelles des Français,  de 28 personnes sur 100 en 1973 à 16 en 2008, et surtout de 41 à 16 pour les 18-24 ans ! Un enquête plus récente d’IPSOS citée dans Actualitté comparaît les données de 2014 sur le comportement des lecteurs avec celles de 2011 : si la proportion des lecteurs au format papier a légèrement diminué passant de 70% à 69%, les lecteurs au format numérique sont passé de 8 à 11% en trois ans ! La pratique de la lecture n’a donc pas disparu, mais se transforme …

Au niveau mondial, l’édition numérique serait en hausse et devrait progresser de près de 20% sur la période 2013-2018 d’après le « Global e-book market ».

La fréquentation des bibliothèques reflète d’ailleurs cette tendance : l’inscription en bibliothèque a progressé entre 1973 et 2008 : on est passé de 13 Français de 15 ans et plus sur 100 en 1973 à 18 inscrits en 2008 et surtout de 18 à 31 pour les 18 – 24 ans ! Il est intéressant de corréler ces données avec les pratiques de lecture de livres : il semblerait que les jeunes ne fréquentent pas les bibliothèques uniquement pour lire des livres ! En revanche, en ce qui concerne les bibliothèques universitaires, l’étude réalisée par l’Université de Toulouse en 2012 montre que la relation entre l’utilisation de la documentation des BU et la réussite aux examens des étudiants est bien réelle. «… le lien entre emprunts et réussite est très fort : la probabilité de valider son semestre est beaucoup plus élevée pour les étudiants empruntant beaucoup d’ouvrages que pour ceux en empruntant peu …». enhanced-ebooks

Mais revenons à la lecture numérique. Si les neurosciences cognitives n’ont pas encore tranché sur les différences entre la lecture « papier » et la lecture « écran », cette dernière n’a pas que des inconvénients : elle permet aussi un partage « social » des commentaires et annotations, mais surtout la ‘fouille de données’, en anglais le TDM (text and data mining). C’est ce que souligne Christophe Perales dans son post « Infini de la lecture : de Cassiodore au text et data mining » en comparant l’arrivée du numérique avec la mutation qu’a connu le livre au début du IIIe siècle en passant du volumen au codex. Cette mutation a complètement changé les rapports des lecteurs à l’écrit bien plus que l’invention de l’imprimerie ! « le codex va ouvrir la possibilité de constituer des tables des matières, des index, de confronter bien plus commodément, et quasi simultanément, des passages différents, à l’intérieur d’un même livre ou entre plusieurs ouvrages. […] Une innovation matérielle peut donc avoir des conséquences intellectuelles importantes. »

Le web nous a fait retrouver la possibilité de plusieurs lecteurs d’intervenir sur un même texte pour le commenter à travers des annotations qui existaient déjà au Moyen-Age ! Mais c’est la fouille de contenu qui représente la pratique la plus disruptive apportée par le numérique à la lecture. L’utilisation de ces ‘mégadonnées’ à partir des textes et des corpus grâce aux outils des humanités numérique va changer complètement le rapport au savoir pour les chercheurs. Évidemment, un problème juridique existe encore pour l’accès complètement libre à ces textes. Mais ce qui change complètement la donne dans cette innovation ce n’est plus l’ »interface neuronal » entre l’œil et le système cognitif qui décrypte ces signaux, mais un dispositif automatique, un robot qui « lit » et traite ces volumes très importants d’information. Même si en fin de compte, ce sont des humains qui donnent un sens à cette opération … ! 2013-12-01 002

Pour aller plus loin

Ferrando, Sylvie. - Compte rendu de l’ouvrage  de Stanislas Dehaene Les  neurones de la lecture, introd. de J.P Changeux. Ed. Odile Jacob, 2007. – Relais d’Information sur les sciences de la cognition (RISC)-CNRS, 2007 (pdf).

Ministère de la culture et de la communication. - Enquête sur les pratiques culturelles des Français : évolution 1973-2008. – Département des enquêtes, de la prospective et des statistiques.

Emprunt en bibliothèques universitaires et réussite aux examens de licence. – Étude lecture V 21 – Université de Toulouse, décembre 2012

Keim, Brandon. – Why the smart reading device of the future may be … Paper. – Wired, 05/01/14

Helmlinger, Julien. – Comportement et évolution de la lecture chez les Français. – Actualitté, 13/03/14

L’attention et la dynamique des écrans et images virtuelles in Ecologie de l’Attention – IRI – Centre Pompidou, 02/04/14 – Vidéo Lignes de temps

Jahjah, Marc. – Qu’est-ce que la lecture sociale ? - INAGlobal, 23/07/14

Lire à l’écran : (re)tournons à la page. – Site de François Jourde, 06/08/14

Est-ce que le livre numérique tue vraiment la lecture? – Slate, 14/08/14

Delarbre, Clémence. – La bibliothèque du futur sera-t-elle sans livres ? – Rue 89, 14/08/14

Des livres, des lecteurs, des lectures. – Le dernier blog, 26/08/14

Perales, Christophe. - Infini de la lecture : de Cassiodore au text et data mining. -BibliOpen – Blog Educpros, 04/09/14

Bonnes vacances !

break-feets-field-574-736x550

Quelques références issues de Philosophie Magazine sur le temps et l(a)es vacance(s) à méditer si vous trouvez le temps …

Eltchaninoff, Michel. – L’été en suspend. – PhiloMag. n°21, 03/07/08

Stiegler, Bernard ; Eltchaninoff, Michel. - « Dans la vacance, on cherche à retrouver la consistance dans l’existence » Entretien. – PhiloMag. n°21, 03/07/08

Rosa, Hartmut. – « Les vacances participent de l’accélération généralisé » Entretien. – PhiloMag. n°51, 30/06/11

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Enseignement et numérique : quelles difficultés, quels enjeux ?

l2code-cssUne controverse s’est développée récemment en France sur la nécessité d’enseigner le numérique à l’école. Doit-on en faire une discipline comme les autres, comme les maths ou l’instruction civique ? Ou au contraire, aborder chaque aspect de ce nouveau champ de connaissance à partir des autres enseignements : philosophie, droit, économie, physique, etc. comme le propose Michel Guillou, dans son post sur la « littératie numérique » ?

Il faudrait d’abord définir ce que l’on entend aujourd’hui par numérique, notion qui recouvre un grand nombre de connaissances et d’activités et bien distincte de l’informatique, aussi bien la théorie que la technologie spécifique. Or, un projet de loi vient d’être déposé à l’Assemblée nationale pour instituer l’ apprentissage du code informatique à l’école primaire (NextINpact, 13/06/14). Cet apprentissage, appuyé d’ailleurs par le Conseil national du numérique, est préconisé dans le ‘nouveau socle de connaissance’ du Ministère de l’éducation nationale.

Mais si une certaine base de connaissances et de pratique des algorithmes est indispensable à une bonne éducation, il paraît excessif de faire de nos « chères têtes blondes » des ‘codeurs’ émérites ! En effet, l’informatique est fondée sur la logique, et cette matière n’est abordée qu’en terminale, avec la philosophie … ! Il vaut mieux apprendre aux élèves à « mettre à plat » un problème ou une situation à l’aide d’algorithmes comme une recette de cuisine, comme l’explique Tasneem Raja dans « Is coding the new literacy? ». Une fois que les enfants auront compris ce qu’est une itération comme on comprend la composition d’une sauce en cuisine, les « petit(e)s malin(e)s pourront s’inscrire en atelier de ‘code’ pour programmer, par exemple, le jeu vidéo de leurs rêves, comme ils/elles peuvent s’inscrire à un atelier de pâtisserie, pour réaliser de magnifiques cupcakes ;-) Il existe d’ailleurs des tutoriels très attractifs pour les très jeunes amateurs, comme le montre ce programme de Mitch Resnick du Medialab du MIT. tarif-e-learning

Mais l’informatique ne représente qu’un aspect, essentiel certes, des si vieilles « Nouvelles technologies de l’information et de la communication » NTIC ou TIC, rebaptisées « numérique » depuis quelques années …. Les usages de ces technologies ont pénétré tous les champs de notre vie quotidienne. Les jeunes « digital natives » n’envisagent même plus la vie sans ces services … Comme certains pratiquent apparemment mieux que leurs enseignants, on pourrait penser qu’il est inutile de leur enseigner quoi que ce soit à ce sujet !

Or la pratique n’est pas la connaissance et encore moins la conscience des mécanismes ou des enjeux qui sous-tendent ces usages technologiques. En raison des inégalités très lourdes qui existent dans la société actuelle, seule l’école peut répondre à cette nécessité. Il est indispensable que les enseignants apportent un éclairage sur ce que recouvrent un profil Facebook, une messagerie instantanée, un téléchargement ou une recherche Google. Les enseignants peuvent bien sûr être assistés par des documentalistes et bibliothécaires, pour la recherche documentaires et les ressources numériques.

Si le numérique est effectivement « ignoré de la maternelle à l’ENA », comme l’affirment les participants d’ EDUCNUM 2014 , cité par Renaissance Numérique, que représente-t-il au juste ? « De la culture et de l’humain. On dépasse la technique et l’informatique » comme le twitte Clotilde Chevet, ou « Une culture générale numérique englobe à la fois le code, les images ou les questions des libertés » pour Sophie Pène.

Plutôt que d’apprendre à coder, les élèves ont d’avantage besoin d’ « apprendre à penser par eux-mêmes, à ‘décoder’, à ‘déchiffrer’  » analyse Olivier Le Deuff dans le Guide des égarés. Ils doivent être formés à une « culture nouvelle », en produisant un « nouveau régime de savoirs … C’est la question de la formation du citoyen dans des environnements complexes où se produisent différentes lectures et écritures ».

Mais qu’en est-il de l’utilisation des techniques numériques dans l’enseignement ? Les TICE, le e-learning, et à présent les MOOC, arrivent-ils à transformer l’éducation ? Assistons-nous à un nouveau paradigme pédagogique grâce au numérique ?
Si les moyens techniques et humains, et surtout la formation des enseignants, sont loin d’être opérationnels, certains indicateurs portent à l’optimisme.

Le e-learning permet d’abord aux apprenants à être plus autonomes, moins passifs face à l’enseignement du maître. Le ‘blended learning’ combine la transmission des connaissances et les compétences de l’enseignant avec des modules de e-learning, une recherche de contenus, des exercices et des ‘jeux sérieux’, et surtout des échanges avec d’autres étudiants et enseignants grâce aux forums de discussion.

Comme le souligne Mathieu Cisel dans son post « ce ne sont pas seulement les équipes pédagogiques qui s’adaptent ; pour les apprenants aussi c’est une évolution très importante de la posture face à l’apprentissage. Beaucoup plus d’autonomie, d’autonomisation et de responsabilisation » (La Révolution MOOC, 26/05/14).

Et surtout, comme l’affirme Emmanuel Davidenkoff, Directeur de l’Étudiant, « n’attendons pas de savoir si le numérique améliore les apprentissages. Intégrons-le tout simplement, car il est notre nouveau monde ».

Tablet PC with cloud of application icons

Resnick, Mitch. – Let’s teach kids to code. – TED, nov. 2012

Berne, Xavier. – Faut-il sensibiliser les enfants au code dès l’école primaire ?Next INpact, 21/05/14

Tasneem, Raja. – Is coding the new literacy ? - Mother Jones, 06/14

Guillou, Michel. – Socle : tous les élèves doivent savoir publier. – Culture numérique, 13/05/14

Guillou, Michel. – Pour une littératie numérique qui traverse et éclaire les disciplines scolaires. – Culture numérique, 01/06/14

Une culture générale du numérique pour tous ! - Renaissance numérique, 02/06/14

Enseignement de l’informatique à l’école : l’Académie des technologies prend position. – vousnousils, 03/06/14

François Fourcade. – Le numérique ne peut s’affranchir des lois de la pédagogie. – Parlons pédagogie ! Blog Educpros, 03/06/14

Cisel, Mathieu. – MOOC : la question de l’autonomie des apprenants. – La Révolution MOOC – Blog Educpros, 26/05/14

Gauchet, Marcel ; Soulé, Véronique. – Internet oblige le prof à remettre de l’ordre dans du désordre : interview. – Libération, 06/06/14

Kumar, Lokesh. – Blended learning – Is it the right move for you?Upside Learning, 10/06/14

Davidenkoff, Emmanuel. – Intégrons le numérique à l’école, car il est notre nouveau monde. – L’Express, 13/06/14

Le Deuff, Olivier. – Il faut apprendre à décoder, l’enjeu d’un nouveau programme commun. – Guide des égarés, 15/06/14

Compagnon, Antoine ; Duquesne, Margaux. – L’école du futur vue par Antoine compagnon. - Journaleuse, 16/06/14

Apprenants en ligne : à la conquête de leur liberté. – Thot Cursus, 17/06/14

 

Données personnelles : entre utilisation et protection : où en sommes-nous dans la gestion du « pétrole du 21e siècle » ?

1639802-donnees-personnelles-internet-a-besoin-d-un-bouton-effacer-selon-eric-schmidtDepuis quelques mois, une certaine paranoïa s’est emparée de nombre de citoyens utilisant les services en ligne, surtout à partir de terminaux mobiles. Des ‘portes dérobées’ (back doors), cachées dans leurs appareils, donneraient accès à des informations confidentielles à des organismes publics (services secrets) ou privés (« géants du Net »). Les révélations d’Edward Snowden sur la surveillance électronique massive de la NSA à travers un système auquel personne n’échappe, pas même la chancelière allemande ou la présidente du Brésil, ont amplifié ce phénomène …

Mais que représentent ces fameuses données que les pouvoirs économiques et politiques se disputent ? Comment sont-elles collectées et traitées, de même que les métadonnées qui les accompagnent ?  Peut-on les protéger tout en participant à l’univers numérique ?

La plupart du temps, nous donnons nous-même ces informations au système d’exploitation de l’appareil ou aux différentes applications auxquelles on s’abonne. Il en va de même pour les métadonnées : géolocalisation, contacts téléphoniques, réseaux personnels ou professionnels à travers les différents réseaux sociaux. Nos centres d’intérêts et nos goûts s’affichent aussi sur les médias sociaux …

La préoccupation de la protection des informations confidentielles dans les systèmes informatiques ne date pas d’hier. En France, la loi « Informatique et liberté » remonte à 1978 et a été à l’origine de toutes les CNIL européennes ! Une dernière mise à jour de cette loi précise les conditions d’utilisation des techniques biométriques.

Mais le traitement de ces données peut aussi s’avérer positif, comme dans le cas d’applications de e-santé qui permettent de surveiller un certain nombre d’indicateurs physiologiques (glycémie, cholestérol, tension artérielle, etc.). Ou alors, comme l’affirme Alex Pentland, professeur d’ingénierie sociale au Medialab (MIT), permettre une amélioration des relations sociales par une observation de tous les flux d’informations échangés par des individus à l’intérieur d’une communauté. C’est ce qu’il explique dans un entretien au Spiegel « Le Big data est à l’étude du comportement social ce que le microscope était à l’étude des bactéries. Pour construire une meilleure société, on a besoin d’une représentation complète des interactions sociales. » ! Évidemment, ce traitement se fait avec l’autorisation des personnes impliquées, mais cette intrusion dans l’intimité des gens semble assez osée même pour une cause aussi philanthropique ! Ce chercheur pense que la meilleure façon de les protéger est de partager les données à travers un « New Deal » des données !

fichage_protection_donnees-1ed41

En matière de e-santé, la CNIL envisage aussi de labelliser les applications mobiles pour inciter les éditeurs à informer les consommateurs sur l’utilisation de leurs données personnelles. Car avec l’’internet des objets’ tout le monde va pouvoir surveiller et contrôler tout le monde si l’on n’y prend pas garde … !

Le scandale de la surveillance généralisée du système Prism mise en place par la NSA a fonctionné comme un électrochoc dans nos sociétés mondialisées et connectées. La plupart des démocraties a voulu prendre ses distances avec l’espionnage américain et les multinationales (américaines) de l’internet. Au sein de l’Union européenne, la France et l’Allemagne en renforçant leurs réglementations, mais aussi à travers une décision de la Cour européenne de Justice reconnaissant le droit à l’oubli face aux informations remontées par le moteur de recherche Google. La protection des données personnelles représente aussi un des enjeux de la négociation du Grand Traité Transatlantique.  En France, le futur projet de loi numérique devrait traiter de ces aspects, notamment en encadrant mieux le régime juridique des services de renseignements (Rapport du Sénateur J.P Sueur).

Mais ces précautions juridiques ne vont pas empêcher l’industrie de l’information de puiser dans le nouvel Eldorado constitué par le Big Data dans lequel les données personnelles sont loin de représenter la portion congrue … C’est ce prévoit le Pew Research Internet Project dans son étude prospective sur l’internet des objets en 2025. La prolifération de capteurs ‘intelligents’, caméras de surveillance, logiciels, bases de données et data centers massifs vont produire dans le monde entier un environnement informatique invisible et omniprésent. Accompagnées par les produits de la ‘réalité augmentée’ que l’on portera sur soi comme les lunettes Google, montres ou vêtements intelligents, toutes ces données seront indexées (tags) et analysées par des experts de l’ingénierie sociale pour des « data brokers ». Comme l’indique un rapport de la Federal Trade Commission, cité par Slate  « Les “data brokers” collectent les données de consommateurs à partir de sources en ligne et en dehors, très généralement sans que ces consommateurs soient au courant. Ils classent tout, des achats en ligne, à l’activité sur les médias sociaux, en passant par les contrats d’assurance, les abonnements aux magazines, les tendances religieuses et politiques, et d’autres détails du quotidien de ces consommateurs. » C’est pourquoi la FTC recommande au Congrès un plus grand contrôle de ces activités pour protéger les consommateurs. donnees-persos-111705

La Commission européenne est aussi préoccupée par ces intrusions massives dans la vie privée et même par les « effets secondaires » impliqués par les les procédures d’identification et d’authentification.  Elle a confié à une équipe de recherche le projet ABC4Trust (Attribute-based Credentials for Trust), financé par l’UE, qui protège l’identité des personnes tout en préservant la sécurité des systèmes. Désormais, pour se connecter au site de sa banque, au lieu de s’identifier avec des informations personnelles, on utilisera une sorte de certificat (attribut) qui permet de s’identifier sans risques. Des pilotes de ce projet sont actuellement testés sur des étudiants en Suède et en Grèce.

Le secteur de la e-sécurité devrait se développer en même temps que le Big Data, mais les consommateurs semblent faire plus confiance aux logiciels libres qu’aux systèmes propriétaires !

Données personnelles : la directive européenne s’applique à Google Inc.  – Legalis, 13/05/14

Léonard, Thierry ; Wéry, Etienne. – Arrêt Google : la Cour de justice a-t-elle condamné à mort les moteurs de recherche. - Droit & Technologies, 15/05/14

Monnier, Cécile. – TAFTA et la protection des données personnelles : les enjeux cachés de l’élection européenne. – Blog Médiapart, 16/05/14

Les données numériques : un enjeu d’éducation et de citoyenneté. - Conseil économique, social et environnemental, 19/05/14

Isabelle Falque-Pierrotin : « Je ne crois pas du tout à la fin de la vie privée ». – Le Monde, 19/05/14

La CNIL envisage de labelliser les applications de santé. - TICSanté.com, 19/05/14

Vion-Dury, Philippe. – Et si l’internet des objets était une mauvaise chose pour nous ? - Rue 89, 19/05/14

Anderson, Janna ; Rainie, Lee. – The internet of things will thrive by 2025. - Pew Research Internet Project, 14/05/14

Interview with Alex Pentland : Can we use Big Data to make society Better ? - Spiegel.de, 10/05/14

Manach, Jean-Marc. – DGSE/Orange : Joue-la comme Super-Dupont (#Oupas).Bug Brother – Blog Le Monde, 20/05/14

Sénécat, Adrien. Les ruses de Facebook, Google et Netflix pour récupérer vos données personnelles. – L’Express, 20/05/14

Kerry, Cameron F. – Missed connections : Talking with Europe about data, privacy and surveillance. - Brookings, 20/05/14

Cuny, Delphine. -  Un an après Snowden, la France envisage de mieux encadrer l’utilisation des données. - La Tribune, 22/05/14

Méta-objets du méta-monde.Affordance info, 25/05/14

Rethinking Personnal Data : a new lens for strenghening trust. – Prepared in collaboration with A.T. Kearney – World Economic Forum – Industry Agenda, May 2014

Gorce, Gaëtan (auteur de la proposition de loi). – Techniques biométriques. – Sénat, 27/05/14

La sécurité et la confidentialité : désormais les deux peuvent aller de pair. – Commission européenne – Cordis, 27/05/14

Jourdan, Camille. – Certaines de vos données sont aspirées par milliards, et non Google et Facebook n’y sont pour rien. – Slate, 28/05/14

 

 

 

Peut-on encore parler de « Neutralité du Net » ?

Depuis quelques mois, ce principe quasi intangible du réseau a été remis en cause, notamment aux États-Unis. En Europe, le Parlement européen vient de réaffirmer la neutralité du Net au travers du « Paquet Télécom », et au Brésil,  Dilma Roussef, l’a inscrite dans sa « Constitution de l’internet » pendant le « Net Mundial ».
600px-network_neutrality_poster_symbolMais d’abord qu’est-ce que la « neutralité du Net » ou « neutralité du réseau » ? Wikipedia nous donne une première définition : « c’est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. ». Dans ces conditions, les opérateurs télécoms et les FAI ne peuvent pas intervenir sur les contenus et ne font que transmettre de façon équitables les données des producteurs aux utilisateurs.

Cette égalité dans l’accès se comprend à partir de l’architecture même du réseau des réseaux, qui, à l’origine a voulu être le plus simple possible et permettre à tous les innovateurs d’intégrer leurs applications sans développement particulier pour atteindre leur(s) public(s). C’est ce qu’explique Barbara van Schewick, professeur au CIS de Stanford, dans son intervention « Architecture and Innovation of the Internet », le 1er décembre 2010. C’est grâce, notamment aux « end-to-end arguments » qui permettent au réseau de ne fournir que des infrastructures générales à l’ensemble des applications ; le réseau n’était pas optimisé pour favoriser des applications spécifiques. Comme le dit Barbara van Schewick, l’internet dans les années 2000, était « application-blind », aveugle aux contenus des applications. C’est ce qui a permis à des start-up comme e-bay, Skype ou YouTube de prospérer sans être inquiétées par les opérateurs…

Mais aujourd’hui la technologie a changé, notamment depuis le développement de terminaux mobiles. Les FAI et les opérateurs télécoms peuvent distinguer les applications en fonction de leur contenus et et donc les contrôler moduler ainsi leur distribution en fonction de leurs intérêts … Et surtout faire payer les producteurs et donc les utilisateurs pour avoir accès au réseau dans de bonnes conditions !

net-neutrality-arm-wrestle

C’est cette nouvelle discrimination sur le réseau qui menace les internautes américains. Depuis que la société Verizon (service télécom)  a fait casser en justice la réglementation américaine protégeant la neutralité, la FCC (Commission Fédérale des Communications) doit faire de nouvelles propositions avant le 15 mai. L’idée est, tout en conservant le principe essentiel consistant à interdire tout filtrage ou blocage de trafic (légal), de faire payer les fournisseurs de contenus comme Netflix (vidéos à la demande) en échange d’un ‘traitement préférentiel’ et pour un tarif ‘commercialement raisonnable’.

En Europe, la situation semble plus rassurante. La « Commission industrie » du Parlement européen vient d’adopter un rapport qui réaffirme la neutralité d’internet et doit passer devant le Conseil de l’UE les 5 et 6 juin prochains. Mais un de ses amendements introduit des exceptions qui inquiètent les acteurs du numérique. Cet amendement introduit la notion de « services spécialisés » de fournisseurs comme Skype ou YouTube avec lesquels les opérateurs télécoms pourraient conclure des accords pour ‘prioriser’ certains flux. En France le Conseil National du Numérique a approuvé cette exception qui permet de « garantir à certains acteurs un trafic de qualité » ; en revanche l’association « la Quadrature du Net » dénonce de « dangereuses failles » dans ce vote où « les géants de l’internet fixent les règles du jeu ». Avec la protection des données personnelles, la neutralité du Net sera un des enjeux des prochaines élections européennes.
Enfin, au Brésil, dans le cadre du « NetMundial », le « Marco civil da Internet » adopté par le gouvernement de Dilma Roussef, inscrit la neutralité du Net et la protection des données personnelles dans cette «Constitution de l’internet » que le Brésil voudrait pouvoir étendre au niveau de la gouvernance mondiale de la Toile … Mais, si ce pays émergent veut marquer sa distance avec l’hégémonie américaine, il est prématuré d’évaluer son influence sur  les multinationales du Net …savetheinternet_logo

Neutralité du Réseau. – Wikipedia
Neutralité du Net. - La Quadrature du Net
Van Schewick, Barbara. – Internet Architecture and Innovation. – Standford CIS, 01/12/10 – Vimeo
Neutralité du Net: un grand pas en avant pour l’internet libre.La Quadrature du Net, 03/04/14
Auffray, Christophe. – Neutralité du Net : les FAI vont-ils gagner la partie aux Etats-Unis ? - ZDNet, 24/04/14
Duvauchelle, Antoine. – Le principe de neutralité du Net adopté au Parlement européen. ZDNet, 03/04/14
Duvauchelle, Antoine. – Marco civil da Internet : le Brésil inscrit neutralité et protection des données dans la loi. - ZDNet, 24/04/14
Vallerey, Elodie.- Neutralité du Net : l’amendement européen qui fait polémique.  L’Usine digitale, 24/03/14
Chazelle, Barbara. – Neutralité du Net : il est temps d’affirmer que c’est un droit fondamental ! -  Meta-media, 27/04/14
Monnier, Cécile. La neutralité du net, ou les enjeux cachés de l’élection européenne… - Blog Mediapart, 03/05/14
Champeau, Guillaume. – Présidente de l’UE, l’Italie pourrait soutenir la neutralité du Net. – Numerama, 05/05/14

Le web a 25 ans … Survivra-t-il à toutes ses déviances ?

Internet1Le 12 mars 1989, il y a exactement 25 ans, l’informaticien britannique Tim Berners-Lee publiait un document qui décrivait le fonctionnement du World Wide Web. Élaboré dans un laboratoire du CERN à Genève, cet outil de communication devait surtout servir aux chercheurs du nucléaire …
Mais c’est grâce à ce navigateur que l’internet a été popularisé auprès du grand public. C’est lui qui, aujourd’hui, permet à 2,7 milliards d’internautes de se connecter sur la Toile et surtout d’interagir sur les réseaux sociaux ! Malheureusement, comme toute grande invention, le Web a aussi ses côtés négatifs, et ces dernières années ont été marquées du signe de la défiance, surtout depuis les révélations d’Edward Snowden sur les pratiques d’espionnage massif de la NSA et de détournements de données personnelles des internautes…

Sir Berners-Lee a d’ailleurs appelé ces jours-ci à un sursaut de civisme et d’éthique sur les réseaux par l’institution du d’une « Magna Carta » du Web.
En effet, le web était au départ porteur de valeurs de partage, d’échange et d’égalité, venues essentiellement des pionniers de la contre-culture américaine, comme le montre bien l’article d’Hubert Guillaud dans InternetActu, qui visaient une gestion collective et non commerciale de la circulation des informations et du savoir …
Aujourd’hui, l’essentiel du web est aux mains de multinationales de l’information, les « Géants du Web », les fameux GAFA (Google Apple Facebook Amazon et autre Microsoft …) et les internautes (enfin, ceux qui en sont conscients …) se méfient de plus en plus de moteurs qui pillent sans états d’âme les données personnelles pour les vendre aux publicitaires ou les donner (??) aux services secrets … La vie privée, est en effet devenue une « anomalie » aujourd’hui, comme l’a déclaré Vint Cerf, Chef évangéliste chez Google, ou tout au plus une illusion pour Mark Zuckerberg, le patron de Facebook … !

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computing
Dans une étude récente le Pew Internet Project présente « 15 thèses sur l’avenir du numérique ». Malgré l’enthousiasme des chercheurs sur les progrès techniques, notamment en matière de santé, d’enseignement, d’évolution des relations internationales (« printemps arabe ») et de sécurité, 5 de ces thèses se présentent de façon beaucoup moins optimistes, « Less hopeful theses ».
Elles soulignent, d’abord l’élargissement du fossé numérique entre nantis et démunis (have & have not) qui reflète l’inégalité croissante des sociétés actuelles, amplifiée par l’écho des réseaux sociaux … !! De nombreux conflits risquent de se développer à l’instar des révolutions arabes.
Les abus et la criminalité se multiplient sur la toile, et évidemment le cyber-terrorisme. Outre la disparition de la vie privée et de la confidentialité, les « maladies numériques » (physiques, mentales et sociales) affectent de plus en plus les individus, familles et communautés.
Mais un des impacts majeurs se trouve au niveau géopolitique : Internet représente en effet un phénomène de mondialisation achevé qui ne reconnait plus la souveraineté des États ; les lois des différents pays ont du mal à s’appliquer à cet acteur transnational.
D’autre part, les gouvernements vont de plus en plus utiliser internet comme un instrument de contrôle politique et social : en répondant par la censure et la fermeture aux velléités d’ouverture et de liberté d’expression de leurs concitoyens …
De plus, en raison de la montée de la cyber-criminalité, la e-sécurité est en train de devenir le principal soucis des consommateurs et des internautes en général … bigdata_image2

Olivier Ertzscheid a une vision encore plus noire de l'avenir du Net. Pour ce spécialiste de l'information, l'internet va se diviser en deux entités : OuterWeb et InfraNet. Le web va se dissoudre et se diffuser dans une multiplicité d'objets connectés (l '»internet des objets ») tout autour de nous : écrans, murs, voiture, lunettes, montres, etc. Il deviendra le « World Wide Wear », un accessoire que l'on 'porte sur nous' … En devenant invisible, il sera d'autant plus dangereux !!

Les acteurs du web seront d'ailleurs de moins en moins humains. Les robots représentent déjà la majorité du trafic sur la Toile : certains pour nous rendre service (moteurs de recherche), d'autres pour des pratiques beaucoup moins avouables (cookies, surveillance, indexation des métadonnées des internautes à des fin commerciales, policières ou malveillantes). Ces informations vont servir à développer l'industrie du « Big data » qui devrait pouvoir prédire le comportement d'un grand nombre de consommateurs-citoyens par le traitement de masse de milliards de données et de métadonnées glanées sur les moteurs de recherche, les messageries et les réseaux sociaux.
Dans ces nouveaux réseaux, « l'essentiel des interactions s'effectuera en deçà de notre seuil de perception » !
Le premier web s'était construit autour du document et de l'écrit (clavier, souris), les nouveaux internets, mobiles désormais, s'élaborent autour des gestes et de la voix. L'image prend aussi une part prépondérante avec la multiplication des écrans : téléphone, tablettes, ordinateur portable viennent compléter l'usage de la télévision (connectée ou pas). Voir l'étude de Médiamétrie sur la consommation de vidéo.
On assiste aussi à une certaine privatisation des réseaux à travers les applications mobiles qui remettent en cause la gratuité et la neutralité du Net. Demain, il faudra peut-être payer pour avoir accès à un internet « nettoyé » des pilleurs de données personnelles, grâce un « opt-out » !

Aurélie Barbaux, dans l’Usine digitale s’inquiète d’une probable « mort d’internet ». Son article part aussi des révélations de Snowden qui risquent de donner le coup fatal. Les géants du Net vont passer « une année d’enfer » pour regagner la confiance des internautes et des gouvernements. Ces derniers ont d’ailleurs des tentations protectionnistes qui peuvent s’avérer « interneticides » … !
Aussi bien Jean-Marc Ayrault pour la France, qu’Angela Merkel pour l’Europe proposent des infrastructures « sûres » pour de nouveaux internets … ! Ces internets « privés », entourés de frontières, vont à l’encontre de l’idée du Réseau des réseaux et surtout sont en contradiction avec l’espace mondial où il se situe !
A. Barbaux cite l’ouvrage de Boris Beaude, chercheur à l’EPFL (Polytechnique de Lausanne), « Les fins d’Internet ». Celui-ci reprend « les mises à mal quasi définitives des valeurs qui ont porté la création du réseau mondial : liberté d’expression, résilience, abolition de l’espace, intelligence collective et partagée, gratuité et décentralisation. » Pour sauver l’internet, le chercheur appelle à forger une nouvelle valeur, « porter l’émergence du monde comme horizon politique pertinent pour l’humanité, comme espace d’identification et de projection autour d’intérêts communs »
On retrouve ici les enjeux éthiques, politiques et géopolitiques exprimés aussi bien par les thèses du Pew Internet Center que par Tim Berners Lee.

EFF_version_of_NSA_logo

Crochet-Damais, Antoine. – Le World Wide Web fête ses 25 ans. – Journal du Net, 10/003/14

Kiss, Jemima. – An online Magna Carta: Berners-Lee calls for bill of rights for web. – The Guardian, 12/03/14

Berners-Lee, Tim. – Statement from Sir Tim Berners-Lee on the 25th Anniversary of the Web. – PewResearch Internet Project, 11/03/14

Anderson, Janna ; Rainie, Lee. – 15 Theses About the Digital Future. – PewResearch Internet Project, 11/03/14

Ertzscheid, Olivier. – Outerweb et infranet : rendez-vous en 2063. – Affordance.Info, 02/02/14

Barbaux, Aurélie. – Internet peut-il mourir ?. – L’Usine digitale, 27/02/14

Guillaud, Hubert. – Ce que l’internet n’a pas réussi (1/4) : des rêves de pionniers à un monde post-Snowden. – InternetActu, 04/02/14

Anizon, Emmanuelle ; Tesquet, Olivier. – Que reste-t-il de notre vie privée sur Internet ?. – Télérama, 15/02/14

Things the NSA doesn’t want you to know. And why you should know about it :). – La Quadrature du Net, 2014

Vers une modification du droit d’auteur en Europe ?

La Commission européenne vient de lancer une consultation auprès des citoyens sur la « modernisation » du droit d’auteur et du copyright. Ceux-ci, auteurs, créateurs, consommateurs ou gestionnaires, ont jusqu’au 5 mars pour exprimer leur opinion. Les résultats seront publiés dans un Livre Blanc qui servira de base au projet de directive sur la modernisation du droit d’auteur qui sera soumis au Parlement européen après les élections européennes de mai 2014.
Comme on pouvait le prévoir, deux camps s’affrontent sur ce sujet :
- d’un côté les syndicats d’auteurs et de créateurs qui défendent une conception « classique » de la créativité et du droit d’auteur, tout en dénonçant l’amalgame réalisé par la Commission européenne entre droit d’auteur et copyright (qui relève plus des éditeurs ou d’une marque commerciale alors que le droit d’auteur offre une protection financière et morale aux créateurs).
- de l’autre les défenseurs du partage sur internet qui favorisent les pratiques non marchandes et une économie culturelle équitable plutôt que les industries culturelles traditionnelles.

Cette consultation européenne arrive à un moment où les grands éditeurs intensifient leurs contrôles sur les œuvres en circulation sur la toile, allant même jusqu’à utiliser des robots pour traquer les « pirates » comme le relate SILex à propos de la mésaventure d’Alain Hurtig. Celui-ci avait récupéré un exemplaire du Droit à la paresse de Paul Lafargue sur le site de l’ABU, donc relevant complètement du domaine public. Or Editis et les Éditions de la Découverte lui ont intimé l’ordre (par mail) de le retirer à travers leur intermédiaire « Attributor » (qui utilise des robots). En fait, il y avait eu confusion avec une autre édition, augmentée, de l’ouvrage, publiée par La Découverte. Évidemment, après quelques jour de « buzz » sur twitter, Editis et La Découverte sont revenus sur leur décision … !

Outre la multiplications de DRM qui entravent les usages des consommateurs, comme partager, revendre, prêter une œuvre numérique, les grands éditeurs veulent imposer leurs propres lois. C’est le cas d’Elsevier qui en simplifiant le « data mining » sur ses bases de données obligent les établissements, comme les BU françaises à travers l’accord avec le consortium Couperin, de passer par une API connectée à la plateforme ScienceDirect … Cela limite les possibilités d’analyse et retarde considérablement l’accès aux données. De plus, les citations ne doivent pas dépasser 200 caractères du texte original, ce qui contredit ouvertement l’exception de « courte citation » du droit d’auteur et des droits voisins …!

« Last but not least », Facebook vient de s’arroger le droit de contrôler les contenus publiés sur le réseau social grâce à un brevet digne de « Minority Report » ! Ce dispositif permet d’utiliser les informations de profils d’utilisateurs et des « signes sociaux » pour déterminer si des contenus partagés sont piratés ou non. Et Facebook prétend même « prédire » quels internautes seraient susceptibles de faire circuler des contenus piratés, comme dans la nouvelle de Philip K. Dick (et dans le film éponyme) !
Toutes ces péripéties justifieraient bien un « dépoussiérage » du droit d’auteur, au moins au niveau européen …

Consultation publique sur la révision des règles de l’Union européenne en matière de droit d’auteur
Commission européenne – Le Marché unique de l’UE, 2013

Mobilisation pour défendre ou moderniser le droit d’auteur en Europe. – par Antoine Oury – Actualitté, 31/01/14

Réponse de la Quadrature du Net à la consultation publique de la Commission européenne sur la réforme du droit d’auteur en Europe. – La Quadrature du Net, janvier 2014

L’Europe consulte sur le droit d’auteur encore et toujours. – Par Guillaume Champeau – Numérama, 05/12/13

Les Syndicats d’auteurs mobilisés pour défendre le droit d’auteur. – par Antoine Oury – Actualitté, 055/02/14

Participez à la consultation de la Commission européenne sur le droit d’auteur et signez la pétition des créateurs. – Creators for Europe, janvier-mars 2014

DRM et copyright : la liberté du consommateur en jeu. – Par Clément Solym – Actualitté, 10/002/14

Message à Editis : laissez « Le droit à la paresse » dans le domaine public !. – S.I.Lex, 05/02/14

Data Mining : quand Elsevier écrit sa propre loi – par Pierre-Carl Langlais. – Sciences communes, 08/02/14

Et Facebook inventa le Robocopyright social. – S.I.Lex, 05/12/13

MOOCs français : lancement officiel et premières impressions

Tout d’abord, je voudrais présenter mes meilleurs voeux pour 2014 à l’ensemble des lecteurs.

Attaqués par le « Collectif anti-Mooc » fin 2013 et par quelques autres auparavant (voir les références en bas de post), les cours en ligne français commencent en fanfare en ce début d’année, avec la Conférence de presse de la Ministre de l’Enseignement supérieur et de la recherche du 14 janvier 2014.
En annonçant un budget de 8 Millions d’€ d’investissement aux établissements (3 M pour des studios de tournage et 5M pour le développement des MOOCs de la formation professionnelle), la Ministre coupe court à toutes les critiques d’économie que les MOOCs occasionneraient aux infrastructures universitaires. Il ne s’agit pas de fermer des amphis, mais d’amorcer une « pédagogie de la réussite » en promouvant l’innovation..

Deux jours avant le lancement officiel des premiers cours sur la plate-forme FUN, les différents acteurs sont venus présenter leurs projets. Ceux-ci vont des cours existants des cursus universitaires (Espace mondial de Bertrand Badie) à des projets innovants s’adressant à des enfants du primaire ou à des « décrocheurs » (cours d’informatique pour apprendre à coder pour réaliser des jeux vidéos ; programme pour aider des jeunes décrocheurs à créer leurs propres cours).
88 000 personnes se sont inscrites pour la première session de ces cours se répartissant entre 15 000 (« Du manager au leader » du CNAM) à 50 pour certains cours : le « massif » n’est pas recherché à tout prix … France Université Numérique invite tous les acteurs (universitaires, parents, bénévoles) à créer des contenus pour changer la donne à l’université (et ailleurs) ! Geneviève Fioraso s’est déclarée ouverte à toute proposition. Les MOOCs ne sont pas réservés aux seules grandes écoles et universités prestigieuses, de petits établissements comme Albi pourront aussi en avoir. De même, la cible n’est pas représentée par les seuls étudiants, mais aussi des personnes en activité (cadres surtout), des chômeurs et des séniors. Geneviève Fioraso à insisté sur l’aspect « formation continue » des cours en ligne, qui pourraient représenter un moyen de plus contre le chômage … Quand à la gratuité, la Ministre a rappelé que l’enseignement est gratuit en France, le débat sur les cours payants se comprend aux États-Unis où l’accès à l’université est très onéreux. De toute façon, un modèle économique est encore à trouver et le MES est en contact avec un conseiller d’Obama du MIT pour échanger sur les ‘bonnes pratiques’ …
Le FUN a aussi organisé une rencontre, le « MOOC Camp » le 11 janvier à partir du motdièse #IdéedeMOOC sur Twitter. Ce projet, organisé avec le Centre de recherche Interdisciplinaire (CRI) à l’initiative d’un certain nombre de chercheurs en pédagogie comme François Taddei, avait pour objectif de trouver de nouvelles idées de cours en ligne et de les scénariser. François Taddei a confirmé que toute la méthodologie de ce projet est disponible en open source.

Dominique Boullier (Medialab, Sciences Po) a aussi souligné l’importance de l’open source dans le phénomène MOOC, ce qui représente une garantie d’évolution. Il a aussi précisé que Sciences Po mise sur la diversification en proposant deux cours bien différents, l’un en français, l’autre en anglais, le premier plutôt classique dans sa conception (B. Badie), le second plus innovant (B. Latour). L’objectif étant de permettre aux étudiants de s’approprier les connaissances grâce au « blended learning » (apprentissage hybride) et d’arriver à une collaboration avec eux à travers un collectif qui crée des échanges …

Pour tester ce nouveau type d’apprentissage, je me suis inscrite au MOOC Espace Mondial de Bertrand Badie.
Des le premier jour (16/01), un certain flottement s’est installé sur le début effectif du cours. Un mail annonçait que le MOOC était ouvert, mais que le cours commencerait le 20/01. Je suis allée sur la plate-forme, j’ai bien trouvé le plan du cours et les « outils transverses » (Biblio), mais point de vidéo … Tant pis, je reviendrai lundi … Le lundi 20, après avoir attendu en vain un mail m’annonçant que le cours avait débuté, je me suis connectée pour m’apercevoir que la première session avait bien commencé le 16 et que la deuxième allait être mise en ligne …;-(
En allant sur le forum, je me suis rendue compte que je n’étais pas la seule, et de loin à avoir manqué cette session, certains n’arrivaient même pas à trouver le 1er cours le 20/01… Mais l’équipe pédagogique était bien présente pour répondre à chacun en les rassurant.
Le cours, bien que XMOOC (cours magistral de 2e année ayant eu lieu fin 2013 et découpé en tranches de 10 à 15 mn) est passionnant et facilement assimilable grâce à la clarté et à l’enthousiasme communicatif de Bertand Badie ! Il est complété par un glossaire bien complet et un wiki encore balbutiant.
Sur le forum (« discussion »), les fils des différentes interventions des étudiants ne sont pas encore bien délimités (commentaires généraux et commentaires autour de la première ou de la deuxième session se mélangent). De plus, il reflète la grande hétérogénéité des participants : la plupart (moi comprise) retrouvent les réflexes des posts sur les réseaux sociaux avec quelques mots, souvent pour demander une précision, d’autres rédigent de très longs commentaires sur tel ou tel aspect du cours (PIB ou philosophie des relations internationales). D’autres ajoutent des liens vers des sites ou des documents en ligne. Une personne s’est demandé comment se procurer les ouvrages de la bibliographie en n’étant ni étudiant ni inscrit à Sciences Po …
Contrairement aux allégations de Pascal Engel dans son post Les MOOCS : Cours massifs ou armes de destruction massive ? , qui prédisait dans son article « Il est difficile d’imaginer qu’un enseignant de MOOC puisse répondre aux questions de 10 000 étudiants » et aussi « le droit pour tout étudiant à avoir accès au professeur », Bertrand Badie est très présent sur le forum et répond, non pas aux 8000 personnes qui suivent le cours, mais à plusieurs questions de fond posées par différents participants, laissant les questions techniques et les questions plus ‘légères’ à ses assistants.
Pour le moment nous ne sommes pas évalués, le premier Quizz n’interviendra qu’après la quatrième session (début février). Il n’y aura pas de certification, mais certains aimeraient au moins avoir un justificatif de suivi.
Le contenu du cours étant très enrichissant et les participants bien réactifs, je sens que je ne vais pas m’ennuyer pendant ces quatre mois … Et que j’aurai beaucoup appris !

Liens
De qui se MOOCS t’on ?Affordance.info, 16/055/13

Engel, Pascal. – Les MOOCS : Cours massifs ou armes de destruction massive ? Qualité de la science française, 24/05/13

Jouneau-Sion, Caroline (ENS-Lyon) ; Manceau, Chloé (ENS-Lyon). – Les Mooc, la ruine de l’Université ?Économie du Web, 22/10/13

Mooc, une étape vers la privatisation des cours/ Collectif anti-mooc, Solidaires étudiants, et al. – Libération, 26/12/13

Bedel, Cyril. – Quelques vérités à rétablir sur les MOOCs. – Libération, 06/01/14

Soulé, Véronique. – Cours gratuits et interactifs en ligne, la France ne se moque plus des MOOC. – Libération, 14/01/14

Rollot, Olivier. – 2014, la grande année des MOOCs. – Il y a une vie après le Bac. – Blog le Monde, 18/01/14

France Université Numérique : de nouvelles mesures pour développer les MOOCs en France . – Ministère de l’Enseignement Supérieur et de la Recherche,

14/01/14 MOOCCAMP : 11 janvier 2014 : les ateliers de la scénarisation. – France Université Numérique

Le retour des sciences sociales : «Humanités ou humanisme numérique(s) » ?

Après avoir régné sans partage sur l’intelligentsia occidentale, notamment en France, dans les années 1960-70, les sciences humaines et sociales (SHS) ont subi un repli dans les années 1980-90 – les « années fric » du capitalisme financier et surtout de la disparition des idéologies … Elles reviennent aujourd’hui sur le devant de la scène, mais elles se sont entre temps mondialisées et hyper-spécialisées. Mais surtout elles disposent désormais d’outils plus performants : les « Humanités numériques ».
C’est ce qu’explique le sociologue Michel Wieviorka dans un entretien à Libération la veille du colloque international « Penser global »

Mais que sont donc ces « Humanités numériques » ? D’après Wikipédia, c’est « un domaine de recherche au croisement de l’informatique, des arts, lettres, sciences humaines et sciences sociales ». Elles permettent, par l’utilisation des outils numériques, la modélisation et la représentation graphique d’oeuvres et de pratiques sociales, mais aussi « la prise en compte des contenus numériques comme objets d’étude ».

C’est aussi cette dimension scientifique que Bruno Latour veut utiliser dans son concept d’ »Humanités scientifiques » qui sera l’objet de son CLOM (Cours en Ligne Ouvert et Massif) « Scientific Humanities » sur la plate-forme de France Université Numérique (FUN). Il s’agit de prendre en compte les conditions de production de ces disciplines et de les évaluer à l’aune d’un processus cognitif. C’est dans cette optique que les différentes opinions qui se reflètent dans les pratiques sociales que sont la politique, la morale ou la philosophie, sans oublier les oeuvres littéraires et artistiques, pourront être analysées et représentées grâce aux outils numériques. Car seuls ces outils informatiques seront en mesure de traiter la quantité industrielle de données, le « Big data » dont on dispose désormais..

Deux grandes manifestations ont remis cet automne, les sciences humaines et sociales au centre des préoccupations numériques :
Horizon 2020 – Perspectives européennes pour les sciences. Vilnius, 23-24 septembre 2013
Forum Mondial des sciences sociales. Montréal, octobre 2013

Mais en se soumettant à la logique du numérique, la société et les SHS ne risquent-elles pas de perdre l’humanisme qui les caractérisaient les Lumières ou la Renaissance ?
« Pour un humanisme numérique », c’est le défi que lance le philosophe canadien Milad Doueihi, dans un essai récent. Le numérique, à travers « le code informatique fondé sur le calcul, romprait avec notre rapport historique à l’écriture et aux pratiques lettrées ». Tout y passe : le droit, les modèles économiques et politiques. « L’informatique a cette propriété d’encourager le passage et l’expression de toute activité à ces propres termes ». Le numérique opère une rupture historique avec l’humanisme classique… D’où la nécessité de penser un « humanisme numérique » pour nous préserver d’une « robotisation » de l’humain.

Mais n’est-ce pas aussi ce que défendent les partisans des Humanités numériques comme Wieviorka ? Car il ne s’agit pas de réduire la recherche en SHS aux seules mesures (souvent quantitatives) permises par ces nouveaux outils. Même si la figure de l’intellectuel, dominant la scène culturelle, est en train de s’estomper au profit d’une plus grande collaboration des chercheurs entre eux, mais aussi avec le grand public, grâce à internet et aux réseaux sociaux, les « digital humanities » ne se réduisent pas à une boite à outils. Elles permettent aussi de prendre en compte les contenus numériques comme objets d’étude. En devenant objet de la recherche, les différents usages et pratiques numériques ne vont pas de prendre le dessus. Les chercheurs restent les sujets de leurs travaux, et ne risquent pas de se transformer en « cyborgs », hybrides bio-électroniques que les « Transhumanistes » attendent comme le Messie.
C’est, en effet, contre cette nouvelle croyance, le Transhumanisme, la « Singularité » de Ray Kurzweil, que Milad Doueihi veut lutter en prônant le retour à un nouvel humanisme, à une nouvelle éthique face à la « conversion numérique ».

Wieviorka, Michel. – Mettre le numérique au service des humanités. – Libération, 10/05/13

Humanités numériques. – Wikipedia

Latour, Bruno. – Scientific Humanities : MOOC. – FUN, 2014/01-03

Douihei, Milad. – Pour un Humanisme numérique. – Paris : Seuil, 2011. – (La librairie du 21e siècle)

Féraud, Jean-Christophe. – Pour un humanisme numérique. – Libération, 20/10/13

Vilnius Declaration. – Horizons for Social Sciences and Humanities. Vinius (Lithuania), 24 september 2013

Wieviorka, Michel. – Horizons for Social Sciences and Humanities : what follows Vilnius ? Michel Wieviorka Sociologue – Hypothèse.org, 23/09/13

Transformations sociales et ère numérique. – Forum mondial des sciences sociales 2013. Montréal

World Social Science Forum: Building a global platform for social sciences in the digital age. – Impact of Social Sciences – Blog LSE, 09/10/13

Transhumanisme. – Wikipedia

Humanity+ : Elevating the Human Condition

Kurzweil, Ray. – The singularity is near : when huamans transcend biology. – New York, Toronto, London : Penguin Books, 2005

Vion-Dury, Philippe. – Le transhumanisme français : que des surhommes, pas des sous-hommes. – Le Nouvel Observateur, 03/11/13

Staypressed theme by Themocracy