Category: Recherche

Quelle pédagogie à l’heure du numérique ?

300x200xRTEmagicC_PEDAGOGIE_SAINTHILAIRE_01.jpg.pagespeed.ic.BzeethoVGeL’innovation pédagogique est au centre du débat qui agite la société française autour de la réforme du collège. Comme le rappelle Dominique Roux dans un article des Échos, les élèves sont à présent des « digital natives » et l’usage d’outils numériques leur paraît naturel. Et ce, de la maternelle à l’université. Quels changements le numérique pourrait-il apporter à l’enseignement et comment ?

Comme le dit Michel Guillou dans son dernier billet : « J’ai l’impression qu’on n’a pas compris, après l’avoir écrit, ce que signifiait vraiment « L’école change avec le numérique » et qu’on n’a pas pris mesure, avec cette réforme du collège, des mutations en cours. » Et le bloggeur d’exposer les 31 défis amenés par le numérique, dont un des premiers est que ce phénomène n’est « ni un outil ni une fin en soi » …

En ce qui concerne l’enseignement supérieur, Educpros fait l’inventaire du Top 10 des pédagogies innovantes à l’Université. Classes inversées, fablabs, réalité virtuelle, etc. De nombreuses innovations accompagnent l’entrée du numérique dans l’enseignement, mais s’ils bouleversent les habitudes des enseignants et des étudiants, ces nouveaux outils ne suffisent pas à transformer la pédagogie. Comme le souligne Marcel Lebrun dans une interview « Le numérique peut avoir un impact sur la pédagogie, à condition que celle-ci change ».

Dans le monde anglo-saxon, on se rend compte que les enseignants ont une pratique très limitée des technologies de l’information et des compétences acquises en ligne. Katrina Schwartz explique dans son post, citant le rapport du ‘Project Tomorrow’ Learning in the 21st century, que les enseignants en formation, les ‘professeurs de demain’, apprennent des techniques d’hier, alors qu’ils maîtrisent déjà des compétences numériques plus évoluées comme l’usage des médias sociaux et des appareils mobiles … De même, Michelle Wise, souligne dans The real Revolution in Online Education isn’t MOOCs (Harvard Business Review), que ce qui va vraiment révolutionner le système éducatif ce ne sont pas les MOOCs qui offrent des cours en ligne gratuits et massifs, qui ne sont que la version technologique des cours magistraux traditionnels, mais la nouvelle architecture de transmission et d’échange de savoirs et de pratiques sur internet. Évidemment, l’auteur envisage plutôt l’aspect pragmatique de ces connaissances qui concernent plus les besoins réels des entreprises : « But there is a new wave of online competency-based learning providers […] but creating a whole new architecture of learning that has serious implications for businesses and organizations around the world. “ Là aussi l’utilisation et la pratique des médias sociaux permettent d’acquérir et de développer de nouvelles compétences, très utiles dans des secteurs comme le marketing ou la communication d’entreprise.

Classe-inversée-300x173C’est aussi l’avis d’Emmanuel Davidenkoff dans l’article de Regards d’étudiants en ce qui concerne les MOOCs : « Parfois on appelle MOOCS un cours filmé, ce qui n’est pas plus élaboré que ce que l’on fait quand on met une caméra devant quelqu’un qui parle, et ça, on sait le faire depuis que la télévision existe » mais aussi : « Je pense effectivement qu’au vu du redécoupage des séquences que cela impose, avec la nécessité et toutes les possibilités de collecter des données sur la façon dont les gens réagissent, on devrait pouvoir de plus en plus faire des propositions assez engageantes pour que des personnes qui, aujourd’hui, seraient réticentes ou décrocheraient assez vite rentrent dans les apprentissages, et réussissent à apprendre ». Grâce au recueil de données personnelles le numérique permettrait « d’industrialiser ce qui relève aujourd’hui de l’artisanat, le suivi individuel ». E. Davidenkoff rassure aussi sur le caractère hybride de l’enseignement : les Moocs n’ont pas vocation à remplacer tous les cours en présentiel …

L’importance de la présence des enseignants est d’ailleurs rappelée par le philosophe Michel Serres dans son interview à Vousnousils : ‘On n’a jamais eu autant besoin d’enseignants’. Si les enseignants et les médecins n’ont plus le monopole du savoir, c’est une chance : « Si on s’intéresse au cancer par exemple, il est possible d’effectuer des recherches sur Internet, mais on ne va rien y comprendre. Il sera toujours indispensable de contacter un spécialiste qui pourra nous transmettre son savoir. » Il en est de même dans les amphis où les étudiants ont déjà consulté sur Wikipedia le sujet du cours, mais ont besoin des compétences de l’enseignant pour mieux assimiler ces connaissances. « Le travail des enseignants s’en trouve allégé car l’information est déjà passée, mais leur rôle de passeur de connaissances reste inchangé. »

Michael Godsey va encore plus loin dans son post The deconstruction of K12 teacher (The Atlantic). Le professeur va passer du statut d’’expert en contenu’ à celui de ‘facilitateur technologique’, les contenus étant dispensés soit par des ‘super-profs’ dans les Moocs, soit sur des sites comme TED.melting pot d'enfants du monde

C’est bien ce que souligne Marcel Lebrun dans son interview : « doter les établissements d’outils numériques ne suffit pas. Il faut des formations plus méthodologiques, qui laissent moins de place aux savoirs eux-mêmes mais sont davantage tournées vers la manière d’apprendre. » . En effet, « en allant chercher des informations autour de lui, dans la société, l’étudiant acquiert un savoir que l’enseignant n’a pas forcément, ce qui place celui-ci dans une position d’apprenant. »

On assiste ainsi à de nouvelles formes d’apprentissage comme la pollinisation comme l’explique Marc Dennery dans C-Campus. « Reprenant l’image du monde végétal, on peut dire que les grains de savoir circulent d’agents de savoir à agents de savoir, comme des grains de pollen vont de plante en plante. » Les agents du savoir pouvant être aussi bien les apprenants eux-mêmes, mais également des bases de ressources pédagogiques (wiki, réseau social d’entreprise).

Les Français sont bien conscients de l’impact de ces nouveaux types d’apprentissage, comme le souligne Dominique Roux dans l’entretien aux Echos : « 72 % des sondés considèrent que l’enseignement numérique accroît l’autonomie d’apprentissage des élèves ». C’est ce que Christine Vaufray indique dans son post  MOOC : cours du prof ou cours des gens ?  « Le MOOC des gens, c’est celui dans lequel les informations transmises et les activités proposées stimulent l’apparition d’une multitude de commentaires, productions, débats, actions… qui constituent en finale la véritable matière du cours, bien plus que l’information initiale. ».belleimage
Learning in the 21st century : Digital experiences and expectations of tomorrow teachers. – SpeakUp – Project Tomorrow Report, 2013.

Schwartz, Katrina. - Are teachers of tomorrow prepared to use innovative tech ?KQED News, 13/02/13

De la transmission à la pollinisation des savoirs. – C-Campus- Le blog, 30/12/13

Weise, Michelle. – The real revolution in online education isn’t MOOCs. – Harvard Business Review, 17/10/14

« Le numérique aura toute sa place dans l’enseignement ». E. Davidenkoff. – Regards d’étudiants, 16/11/14

Blitman, Sophie. – Marcel Lebrun : « L’écart entre collaboration et aliénation numérique est étroit ». – L’Etudiant, 26/11/14

Godsey, Michael. – The deconstruction of the K12 teacher. – The Atlantic, 25/03/15

Michel Serres : “On n’a jamais eu autant besoin des enseignants !”. – Vousnousils, 03/04/15

MOOC : cours du prof ou cours des gens ?Jamais sans mon laptop, 10/05/15

Les 31 défis pour le collège mais aussi pour l’Ecole et l’Université. – Culture numérique, 23/05/15

Roux, Dominique. – Le numérique pour enseigner autrement. – Les Echos, 27/05/15

 

Lire, écrire … Voir ! Les technologies au service des déficients visuels

deficient-visuelSMS, mails, objets connectés, notre monde numérique multiplie les écrans où lecture et écriture sont un passage obligé à la communication. Seul le téléphone et la radio font encore exception …

Ces usages semblent exclure un grand nombre de non-voyants et de malvoyants de l’accès à la société de l’information et de la connaissance. Or, ce sont précisément ces nouvelles technologies qui vont apporter, en partie, des réponses adéquates à ce handicap.

Le Congrès « Vision innovation » qui s’est tenu à l’UNESCO le 10 février 2015 en partenariat avec l’Institut de la vision, avait pour objectif de répondre à ces défis. Comme l’affirme le Pr Sahel, Directeur de l’Institut de la vision « Nous sommes aujourd’hui dans un moment particulier où l’innovation pourrait venir au-devant des patients que ce soit pour limiter l’aggravation de la maladie ou pour vivre mieux avec un handicap visuel.

Ces innovations sont très importantes et beaucoup de technologies proviennent d’autres domaines que la médecine. Si la dimension « accessibilité » est intégrée dans la réflexion, le design et l’ergonomie d’un produit ou d’un service, il n’en sera que plus riche et universel. ».

L’accessibilité en bibliothèque et en ligne

L’accessibilité a été un des principaux objectifs des bibliothèques pour compenser le handicap. A la Bibliothèque de Sciences Po, comme dans d’autres établissements, des aménagements ont été réalisés pour les déficients visuels : salle insonorisée et équipements adaptés, clavier et imprimante braille, synthèse vocale, zoom texte, etc. La bibliothèque de l’IEP de Toulouse s’est dotée d’un téléagrandisseur  « Clearview Speech Couleur ». Équipé d’un logiciel de synthèse vocale et d’un logiciel d’agrandissement d’écran, il facilite la lecture, la création de fichiers informatiques, la numérisation des documents ainsi que la consultation sur internet. Toujours à Toulouse, mais à la médiathèque José Cabanis, une application spécifique permet l’identification par synthèse vocale de tous les documents via leur étiquette RFID. Positionné sur un document le petit lecteur DAISY (Digital Accessible Information System) énonce les principales informations : auteur, titre, résumé … En équipant ainsi tous les documents et pas seulement les collections adaptées, la Médiathèque permet une mixité entre voyants et malvoyants, lorsque ces derniers s’y rendent en famille … b_touch

Et évidemment, la bibliothèque de l’Association Valentin Haüy a créé une bibliothèque numérique de livres audio, Eole et met gratuitement à disposition de personnes handicapées plus de 6000 ouvrages sur un site internet dédié. Les ouvrages en braille numérique ou audio sont au format DAISY qui permet une navigation plus aisée. La bibliothèque bénéficie dans ce cas de l’exception « handicap » du droit d’auteur et des droits voisins qui permet la reproduction et la représentation des œuvres au profit des personnes en situation de handicap. Sur ce thème, l’ARALD (Agence Rhône-Alpes pour le livre et la documentation) organise avec la Médiathèque Valentin Haüy une Journée d’information « Bibliothèque, accessibilité et numérique » le 5 mars 2015 à Lyon.

Le copyright et l’accessibilité dans l’édition : le Traité de Marrakech (juin 2013)

Si en France et en Europe, le droit d’auteur comporte une exception de « handicap », ce n’était pas le cas dans le reste du monde et particulièrement aux Etats-Unis, où les lois sur le copyright ne permettaient pas de transformer les ouvrages numériques par la synthèse vocale ou le braille. Les associations de malvoyants ont dû mener une bataille au niveau international pour obtenir ces facilités pour les déficients visuels avec l’institution par l’Organisation mondiale de la propriété intellectuelle (OMPI) du Traité de Marrakech (27 juin 2013). Le traité reconnaît l’importance pour les personnes handicapées de disposer d’un « exemplaire en format accessible » afin « d’accéder à l’œuvre et d’y avoir accès aussi aisément et librement qu’une personne sans déficience visuelle ou autre difficulté de lecture des textes imprimés. ».

Les NBIC au service des aveugles et des déficients visuels

La journée « Vision – Innovation » a présenté toutes les solutions que les technologies actuelles permettent pour rendre la vue ou améliorer la vie aux personnes en situation de handicap.

Avec les NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives), chercheurs, ophtalmologistes, orthoptistes, laboratoires médicaux, opticiens, starts up et associations de patients tentent de répondre aux besoins des 4, 3 milliards de personnes qui ont une mauvaise vision dans le monde dont 2,5 milliards ne sont pas corrigés … Quant à la cécité, elle touche environ 5% de la population mondiale, à peu près le nombre d’habitants de l’Espagne …

Pour les plus touchés, les non-voyants, victimes de rétinopathies ou de DMLA (dégénérescence maculaire liée à l’âge), des avancées formidables sont perceptibles et font espérer une solution assez proche, comme le système de restauration de la vision IRIS, développé par la ‘jeune pousse’ Pixium Vision. Cet implant rétinien remplace les fonctions physiologiques des cellules photo-réceptricesA de l’œil en stimulant électriquement les cellules nerveuses de la rétine interne qui transmettent ensuite l’information au cerveau via le nerf optique. Ce système fonctionne avec une caméra asynchrone et un petit ordinateur de poche : il devrait permettre au patient de se déplacer de façon autonome.prothese-optique

D’autres solutions ont été présentées comme les lunettes « intelligentes » à réalité augmentée de Light Vision pour les personnes atteintes de DMLA. En détectant les parties encore fonctionnelles de la rétine, le système affiche les bonnes images au bon endroit ! La société pense distribuer une centaine lunettes en 2016. GenSight Biologics préconise, en revanche une thérapie génique pour des rétinites, la DMLA et la dégénérescence des cellules du nerf optique. L’objectif est de développer des vecteurs issus des « Adeno-Associated Virus » (AAV) pour le traitement génique de certaines dystrophies rétiniennes.

Mais il n’y a pas que ces grandes pathologies, dans les pays développés, la presbytie atteint un grand nombre de personnes. L’application « Back in Focus » permet de lire sur écran sans ses lunettes. Ce support numérique permet de tirer parti des appareils mobiles pour avoir l’image corrigée pour la vision de chacun. C’est l’écran qui s’adapte aux yeux des personnes (âgées souvent) plutôt que les lunettes correctrices … ! Ca simplifie beaucoup la vie pour lire un SMS ou regarder un plan sur son smartphone !

Dassault Systemes a développé une simulation de réalité virtuelle en 3D pour la recherche médicale pour faire ressentir aux utilisateurs et aux soignants ce que vit une personne malvoyante ou en fauteuil roulant … Des simulations semblables sont aussi disponibles sur la vision des animaux : chat, chien ou oiseau. On peut voir ce que perçoivent nos compagnons à poil ou à plumes, au ras du sol ou dans les airs… !

Mais ce qu’ont surtout développé les services ophtalmologistes, les laboratoires et les opticiens, ce sont des parcours de soins et d’accompagnement des malades ; l’aspect humain et organisationnel primant ainsi sur les aspects thérapeutiques et technologiques.

L’autre grande innovation, c’est l’émergence des réseaux sociaux spécialisés à partir d’association de patients comme Retina ou Carenity. Les patients ne sentent plus seuls avec leur handicap et peuvent compter sur des communautés comprenant des médecins, bénévoles, soignants et personnes connaissant les mêmes affections.

 

Sciences Po accessible

Vision innovation 2015
UNESCO, 10 février 2015

Taillandier, Florent. - A quand des ebooks vraiment adaptés aux déficients visuels ? – CNET France, 28/05/13

European Commission. – Marrakech Treaty : Equal Access to Books for Visually Impaired and Print Disabled. – Disabled World, 28/06/13

Organisation mondiale de la propriété intellectuelle (OMPI). – Traité de Marrakech visant à faciliter l’accès des aveugles, des déficients visuels et des personnes ayant d’autres difficultés de lecture des textes imprimés aux oeuvres publiées. – OMPI, 27/06/13

Kudzia, Kudzia. - Table ronde « Lire autrement : vers de nouveaux usages et de nouveaux services en bibliothèque. – Accessible ABF, 11/05/14

 

Big Data, petite synthèse : quelle évolution ?

Big-DataLe « Big Data » est en train d’envahir tous les secteurs d’activité et du savoir. Les entreprises, l’administration publique, l’université et la recherche ne jurent plus que par le recueil, l’analyse, le traitement et la représentation  de ces « grandes données ». L’internet, et particulièrement le Web 2.0, occupe évidemment une place privilégiée dans ce dispositif, notamment grâce aux réseaux sociaux qui drainent à eux seuls des téraoctets, voire des pétaoctets d’informations … Il existe aussi d’autres lieux, les silos d’informations que représentent les bases de données ‘factuelles’, engrangées par les grandes entreprises ou les institutions publiques, locales, nationales, européennes et internationales  (INSEE, Eurostat, OCDE, etc.).

Mais alors, qu’est-ce qui différencie le ‘big data’ de ces bases de données ‘historiques’ que les statisticiens produisent et traitent depuis des décennies ?

Définition de Wikipedia : Les big data, littéralement les grosses données2,3, parfois appelées données massives4, est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information. L’on parle aussi de datamasse5 en français par similitude avec la biomasse.

 

Les sept caractéristiques

Rob Kitchin, dans une interview du blog de la LSE « Impact of Social Sciences » les définit par sept traits caractéristiques : d’abord les 3 V : volume, vélocité et variété. La volumétrie est énorme sans commune mesure avec les bases de données ; la vitesse est proche du temps réel, quant à la variété, elle concerne toutes sortes de données, structurées ou non structurées, avec des références temporelles ou spatiales. Ensuite l’exhaustivité de l’objectif (saisir une population ou un système en entier), la granularité dans la résolution, avec des informations aussi détaillées que possible et indexées. Enfin, l’aspect relationnel, avec des champs communs (catégories) permettant de générer des ensembles de données différents, la flexibilité et l’évolutivité : on peut à tout moment ajouter ou modifier des champs.

big-data-will-drive-the-next-phase-of-innovation-in-mobile-computingOn comprend ainsi en quoi les big data sont différentes des grandes bases de données traditionnelles. Si on prend l’exemple du recensement, la base est aussi très importante en volume (la population d’un pays), exhaustive, relationnelle et indexée, mais elle a une vitesse très basse (une fois tous les dix ans), une très faible variété d’informations (30-40 questions au maximum), et ne présente aucune flexibilité ou évolutivité.

 

Protéiforme, incertain et partiel …

Les big data sont cependant loin d’être parfaites ! Elles présentent un certain nombre de caractéristiques qui tiennent à la complexité de leur production. Malgré leur désir d’exhaustivité, elles sont toujours partielles, incomplètes, pleines de biais et d’incertitudes … Mais surtout, ces données ne viennent pas de nulle part, elles ont été produites, construites par des systèmes, conçus et testés dans un environnement scientifique, entourées par des contextes et des intérêts divers. Dans ces conditions, contrairement à l’allégation de Chris Anderson dans Wired, les données ne vont pas « parler par elles-même », on ne va pas « laisser les algorithmes trouver des modèles là où la science est impuissante », et faire que « la corrélation remplace la causalité », notre compréhension du monde émergerait alors des données et non d’une théorie, « de l’induction, plutôt que de la déduction » …

Si les données sont liées à une pratique scientifique, les sciences sont aussi basées sur les données (data driven science), notamment grâce à la ‘fouille de données’ (data mining). D’où l’importance de l’analyse exploratoire avec une approche contextuelle qui permettra de déterminer si les modèles qui en ressortent ont un sens ou sont aléatoires … C’est là que devrait s’instituer une philosophie, une épistémologie des datasciences.

big-data-318x211

L’importance du contexte : la « fabrication des données »

C’est cette ‘culture des données’ que souligne aussi Evelyne Ruppert, maître de conférence en sociologie au Goldsmith College de Londres et spécialiste des données, dans un  article de MyScienceWork. Les données sont construites et le processus de fabrication est aussi important que la donnée elle-même. Il est donc indispensable de disposer d’informations sur la construction des données, sur les pratiques et les décisions sur la façon dont elles sont consignées par l’administration (pour les données publiques). C’est le rôle des métadonnées. Les données brutes ne sont pas utilisables en tant que telles. Il existe des diversités de saisie et de pratiques qui ne peuvent pas être homogénéisées. Il faut distinguer entre les corrélations inédites qui peuvent ressortir des jeux de données et interprétations qui en sont déduites.

Dans le contexte de la réutilisation des données, il ne faudrait pas réduire la complexité qui les caractérise en simplifiant aussi bien les données que les outils. Il existe très peu de personnes qui peuvent télécharger tel quel un jeu de données. D’où l’importance de la médiation avec la présence d’infomédiaires, des experts bénévoles (ou pas ?) qui présentent les données à travers de représentations graphiques, d’interfaces de visualisation. On trouve aussi des applications gratuites produites par des associations. Mais cela implique de choisir ce qui doit être mis en lumière, ainsi que des valeurs et des jugements. L’open data ne représente qu’une petite partie de ce qui est disponible. Cette sélection  nécessite une prise de conscience de ce qui doit être diffusé et de l’esprit critique …

Jean-Pierre Malle souligne aussi l’importance de l’incertitude et de l’aspect ‘constructiviste’ des big data dans le MOOC sur « la Datascience et l’analyse situationnelle » (IonisX). En datascience, il n’y a pas de ‘vérité scientifique’, chacun doit la construire en fonction de ses besoins ou de ses intérêts … Pour une discipline qui est censée engendrer l’industrie du 21e siècle et restructurer toute l’économie, on pourrait s’inquiéter à moins ! Apparemment, c’est grâce à son caractère polymorphe et protéiforme que la ‘datamasse’ pourrait changer la donne dans un univers dominé par l’incertitude et l’individualisme … !

La disparition de la moyenne marque aussi la différence essentielle entre les big data et les statistiques. Comme le souligne Lev Manovich, dans son interview sur Place de la Toile, cité par Xavier de la Porte dans InternetActu, la statistique vise la moyenne, par exemple la taille des soldats en 1830, alors que l’objectif des big data est l’exception. Elles débusquent les ‘signaux faibles’ que l’on perçoit moins dans les grandes masses, la ‘longue traîne’ des usages particuliers ! C’est aussi le propos de Tyler Cowen dans son ouvrage « Average is over » (la fin de la moyenne), cité par Jean-Laurent Cassely dans Slate. Cette évolution ouvre le règne du « sur mesure » (customised) : les services devront s’adapter à la diversité de la clientèle. Les clients noteront bientôt les services (médecins, avocats, professeurs, commerçants), comme ils seront eux-mêmes notés en tant que consommateurs ou usagers de ces services. Le score de l’e-réputation de chacun le suivra partout, grâce à la vente de fichiers ! Et si l’on refuse d’être noté, on risque de disparaître des radars et ainsi de devenir suspect, donc mal-noté !

Cette « physique sociale » comme la nomme Sandy Pentland, chercheur au Media Lab du MIT, cité par Hubert Guillaud dans InternetActu, résulterait de la rencontre entre les big data et les sciences sociales. L’ »extraction de la réalité » rendrait possible la modélisation mathématique de la société ! Avec les big data, nous allons pouvoir recueillir suffisamment de données comportementales pour permettre aux scientifiques de développer « une théorie causale de la structure sociale » et d’établir une « explication mathématique » de la société … Les scientifiques vont pouvoir ainsi recueillir des milliards d’informations en temps réel sur des millions de personnes et pouvoir appréhender en même temps le niveau global et singulier. Cette physique sociale permettra aussi une meilleure circulation des idées qui devrait renouveler les relations sociales, par exemple, dans une ville.

 

Valoriser les données données de la recherche

Mais les données de la recherche, surtout en sciences sociales, sont loin d’avoir les moyens de valoriser leurs résultats. C’est ce qu’expliquent Dave Carr et Natalie Banner du Wellcome Trust, dans un article d’Impact of social sciences. Ils préconisent le partage des données entre chercheurs pour optimiser les effets du big data. Actuellement, il existe peu de stimuli pour le partage des données. Une enquête auprès des chercheurs montre les barrières qui ralentissent ce processus : manque de financement, detemps,  de compétences, de dépôts institutionnels ou de ressources informatiques. Mais c’est surtout le manque de reconnaissance et de valorisation, le peu de protection de la vie privée, les données utilisées de façon inappropriée, la perte de crédit intellectuel qui inquiètent les chercheurs ! Seul un changement de paradigme dans la culture scientifique permettrait d’apporter un meilleur soutien aux chercheurs. C’est ce que propose un organisme britannique transdisciplinaire, l’EAGDA Calls (Expert Advisadory Group on Data Access). Ses recommandations portent sur trois grands points : le financement de la gestion des données pendant tout le cycle de vie de la recherche ; la reconnaissance du partage des données comme valorisation des résultats de la recherche ; le soutien aux compétences clés et aux ressources, notamment à travers des partenariats avec de nouveaux métiers (data manager).

 

Les Plans pour une économie du Big Data en France et en Europe

Face à ce nouveau secteur de l’économie de la connaissance, l’Union européenne et la France ont prévu des programmes pour développer des infrastructures et encadrer la réglementation de cette activité.

La Commission européenne compte sur le partenariat public-privé pour le développement du Big data en Europe. Elle veut s’appuyer sur les secteurs innovants de l’informatique et de la robotique pour mettre en place de grandes infrastructures : des réseaux d’outils de traitement de données destinés aux PME, à la recherche-développement et au  secteur public ; un grand réseau pour la recherche et l’éducation ; une fondation technologique pour le big data dans l’industrie des communications mobiles.

Des mesures juridiques sont aussi prévues pour des licences standards, les jeux de données et la réutilisation, surtout en ce qui concerne les données ouvertes (Open Data). En matière de confiance et sécurité, la Commission a prévu un Guide des bonnes pratiques pour un archivage sécurisé, une réflexion sur la propriété des données et le contrôle des usagers sur la technologie infonuagique (Trusted Cloud Europe).

En France, le Plan Big data vise un marché de 9 milliards d’euros et 130 000 emplois (dont 80 000 créations) à l’horizon 2020. Il a comme objectifs le soutien à l’écosystème des start-up et l’assouplissement de la loi informatique et liberté. Il veut faire de la France le leader mondial des Big Data, grâce à la formation de ‘data scientists’ et à la ‘French Tech’. La création, en partenariat avec la FING (expérience MesInfos), d’un « Espace personnel de confiance Big Data »

Le plan s’appuie aussi sur un partenariat public-privé impliquant les écoles et les organismes de recherche, les acteurs publics et les industries et acteurs privés : Orange, La Poste, Axa, GDF, etc.

data-672x372

 

Ruppert, Evelyne ; Kadri, Pierre-Sofiane. – L’open data est-il un leurre politique ? Entretien. - MyScienceWork, 08/07/14

La Porte, Xavier de. – Une société de données n’est pas une société statistique. – InternetActu, 07/07/14

Biseul, Xavier. – Le plan big data vise à créer 80 000 emplois d’ici 2020. – 01Net, 03/07/14

Faucheux, Olivia. – Public : la révolution du Big Data. – Acteurs Publics, 02/07/14 (vidéo)

Making the most of Data-driven Economy. – Commission européenne – Memo 14/455, 02/07/14

Carr, Dave ; Banner, Natalie. – Maximising the value of research data: developing incentives and changing cultures. – Impact of Social Sciences, 01/07/14

Kichin, Rob ; Carrigan, Mark. – The philosophy of Data Science (Series) – Rob Kichin « Big data should complement small data not replace it ». – Impact of Social Sciences, 27/06/14

Cassely, Jean-Laurent. – Pourquoi on notera bientôt nos comportements d’usagers, de consommateurs et d’être humain. – Slate, 17/06/14

Guillaud, Hubert. – Big Data : vers l’ingénierie sociale. – InternetActu, 20/05/14

Datascience et analyse situationnelle : dans les coulisses du Big Data (MOOC). – IONISx, 04/06/14-26/07/14

Le retour des sciences sociales : «Humanités ou humanisme numérique(s) » ?

Après avoir régné sans partage sur l’intelligentsia occidentale, notamment en France, dans les années 1960-70, les sciences humaines et sociales (SHS) ont subi un repli dans les années 1980-90 – les « années fric » du capitalisme financier et surtout de la disparition des idéologies … Elles reviennent aujourd’hui sur le devant de la scène, mais elles se sont entre temps mondialisées et hyper-spécialisées. Mais surtout elles disposent désormais d’outils plus performants : les « Humanités numériques ».
C’est ce qu’explique le sociologue Michel Wieviorka dans un entretien à Libération la veille du colloque international « Penser global »

Mais que sont donc ces « Humanités numériques » ? D’après Wikipédia, c’est « un domaine de recherche au croisement de l’informatique, des arts, lettres, sciences humaines et sciences sociales ». Elles permettent, par l’utilisation des outils numériques, la modélisation et la représentation graphique d’oeuvres et de pratiques sociales, mais aussi « la prise en compte des contenus numériques comme objets d’étude ».

C’est aussi cette dimension scientifique que Bruno Latour veut utiliser dans son concept d’ »Humanités scientifiques » qui sera l’objet de son CLOM (Cours en Ligne Ouvert et Massif) « Scientific Humanities » sur la plate-forme de France Université Numérique (FUN). Il s’agit de prendre en compte les conditions de production de ces disciplines et de les évaluer à l’aune d’un processus cognitif. C’est dans cette optique que les différentes opinions qui se reflètent dans les pratiques sociales que sont la politique, la morale ou la philosophie, sans oublier les oeuvres littéraires et artistiques, pourront être analysées et représentées grâce aux outils numériques. Car seuls ces outils informatiques seront en mesure de traiter la quantité industrielle de données, le « Big data » dont on dispose désormais..

Deux grandes manifestations ont remis cet automne, les sciences humaines et sociales au centre des préoccupations numériques :
Horizon 2020 – Perspectives européennes pour les sciences. Vilnius, 23-24 septembre 2013
Forum Mondial des sciences sociales. Montréal, octobre 2013

Mais en se soumettant à la logique du numérique, la société et les SHS ne risquent-elles pas de perdre l’humanisme qui les caractérisaient les Lumières ou la Renaissance ?
« Pour un humanisme numérique », c’est le défi que lance le philosophe canadien Milad Doueihi, dans un essai récent. Le numérique, à travers « le code informatique fondé sur le calcul, romprait avec notre rapport historique à l’écriture et aux pratiques lettrées ». Tout y passe : le droit, les modèles économiques et politiques. « L’informatique a cette propriété d’encourager le passage et l’expression de toute activité à ces propres termes ». Le numérique opère une rupture historique avec l’humanisme classique… D’où la nécessité de penser un « humanisme numérique » pour nous préserver d’une « robotisation » de l’humain.

Mais n’est-ce pas aussi ce que défendent les partisans des Humanités numériques comme Wieviorka ? Car il ne s’agit pas de réduire la recherche en SHS aux seules mesures (souvent quantitatives) permises par ces nouveaux outils. Même si la figure de l’intellectuel, dominant la scène culturelle, est en train de s’estomper au profit d’une plus grande collaboration des chercheurs entre eux, mais aussi avec le grand public, grâce à internet et aux réseaux sociaux, les « digital humanities » ne se réduisent pas à une boite à outils. Elles permettent aussi de prendre en compte les contenus numériques comme objets d’étude. En devenant objet de la recherche, les différents usages et pratiques numériques ne vont pas de prendre le dessus. Les chercheurs restent les sujets de leurs travaux, et ne risquent pas de se transformer en « cyborgs », hybrides bio-électroniques que les « Transhumanistes » attendent comme le Messie.
C’est, en effet, contre cette nouvelle croyance, le Transhumanisme, la « Singularité » de Ray Kurzweil, que Milad Doueihi veut lutter en prônant le retour à un nouvel humanisme, à une nouvelle éthique face à la « conversion numérique ».

Wieviorka, Michel. – Mettre le numérique au service des humanités. – Libération, 10/05/13

Humanités numériques. – Wikipedia

Latour, Bruno. – Scientific Humanities : MOOC. – FUN, 2014/01-03

Douihei, Milad. – Pour un Humanisme numérique. – Paris : Seuil, 2011. – (La librairie du 21e siècle)

Féraud, Jean-Christophe. – Pour un humanisme numérique. – Libération, 20/10/13

Vilnius Declaration. – Horizons for Social Sciences and Humanities. Vinius (Lithuania), 24 september 2013

Wieviorka, Michel. – Horizons for Social Sciences and Humanities : what follows Vilnius ? Michel Wieviorka Sociologue – Hypothèse.org, 23/09/13

Transformations sociales et ère numérique. – Forum mondial des sciences sociales 2013. Montréal

World Social Science Forum: Building a global platform for social sciences in the digital age. – Impact of Social Sciences – Blog LSE, 09/10/13

Transhumanisme. – Wikipedia

Humanity+ : Elevating the Human Condition

Kurzweil, Ray. – The singularity is near : when huamans transcend biology. – New York, Toronto, London : Penguin Books, 2005

Vion-Dury, Philippe. – Le transhumanisme français : que des surhommes, pas des sous-hommes. – Le Nouvel Observateur, 03/11/13

Big data et web sémantique : une opportunité pour les profeessionnels de l’information

A propos du système Prism, François Géré de l’Institut d’Analyse Stratégique l’a reconnu dans Libération : « En France nous faisons la même chose que les Américains […] Toutefois, nous réduisons le périmètre aussi bien géographique (essentiellement en Europe et en Afrique) que sémantique (le nombre de mots-clés) ».
Mots-clés, métadonnées, web sémantique, les documentalistes se trouvent ici en terrain connu !

Avec les « Big data » et leurs réservoirs énormes de données, un champ immense s’ouvre aux professionnels de l’information, la sélection et la qualification des métadonnées qui leur sont attachées, autrement dit l’indexation.
Bien sûr, d’importants progrès ont été réalisés en indexation automatique et en traitement automatique du langage (TAL), et avec les masses de données textuelles que l’on peu traiter, des rapprochements de termes peuvent s’effectuer et produire des modèles de description, comme l’explique Nathalie Aussenac-Gilles dans Graphéméride. « Pour faciliter la recherche d’informations précises, de points de vue, d’opinions [… ] il est nécessaire de caractériser la nature des informations et des connaissances véhiculées par les contenus […] ne pas rester au niveau des mots, donc de passer au niveau des concepts ».

Avec le web sémantique (ou web de données ou ‘linked data’), « les données de toutes formes produites par tous les acteurs se trouvent interconnectées, identifiées sans ambiguïté et reliées les unes aux autres » Hervé Verdier, Directeur d’Etalab. En ‘typant’ ces données dans des ontologies, le web sémantique « met en place une indexation des pages web, mais aussi potentiellement des concepts absents du web dont une description sur le web est possible (personne, lieu, date, élément abstrait, objet physique » Pierre Couchet, « A quoi sert le Web sémantique en histoire et philosophie des sciences et des techniques » Semantic HPST

Ces nouveaux thesaurus linguistiques s’appuient sur des ‘triplets’ : sujet, prédicat et objet.
« Concrètement, un thésaurus relie des concepts entre eux selon des relations précises : synonyme, homonyme, hiérarchie, terme associé. L’ontologie ajoute des règles et des outils de comparaison sur et entre les termes, groupes de termes et relations : équivalence, symétrie, contraire, cardinalité, transitivité… Ainsi, l’ontologie est une étape supérieure au thésaurus selon l’ontology spectrum. » – Définir une ontologie avec OWL. – Les Petites Cases 11/11/05
En taggant par exemple un fichier contenant une photo, on pourra non seulement caractériser la photo, mais si ces mots-clés sont partagés, on pourra regrouper des photos similaires. Grâce à cette organisation des connaissances, on pourra classer une photo du Château de Versailles, rejetée comme « monument de Paris », si l’on a l’information que « Versailles est ‘Acôtéde’ Paris ou que Versailles et Paris sont deux villes ‘SituéeDans’ l’Ile de France » Nathalie Assenac-Gilles.

Bien sûr, ces langages OWL (Ontology Web Langage) demandent une bonne familiarité avec l’informatique (XML) et la logique, sans parler de connaissances linguistiques, mais les bibliothécaires/documentalistes ont tout à fait leur rôle à jouer dans la construction de ces bases de connaissances. L’exemple de l’ontologie du vin réalisée à Stanford, cité par le WC3, le montre : on retrouve des mots-clés, des caatégories, des propriétés et des noms de lieux.

Les professionnels de l’information qu’ils (elles) sont pourraient aussi bien construire ces bases de connaissances (en collaboration avec des informaticiens) que servir d’appui aux chercheurs pour qualifier les résultats de la recherche. La BNF l’a d’ailleurs bien compris avec la réalisation avec le projet « data.bnf.fr« web sémantique

Géré, François ; Hofnung, Thomas. – « En France, nous faisons la même chose ». Libération, 1er juillet 2013

Couchet, Pierre. – À quoi sert le web sémantique, en Histoire et Philosophie des Sciences et des Techniques ?. – Semantic HPST, 13/06/13

Fabien Gandon – Le web sémantique. – Graphemeride, 15/04/13

Le Web de données à la BnF : data.bnf.fr

Berners-Lee, Tim et al. – A Framework for Web Science. – Foundations and trends in web science, vol.1:n°1, 2006

Définir une ontologie avec OWL. – Les petites cases, 11/11/05

OWL Web Ontology Language Guide. – W3C, 10/02/04

Ontology of wines

Bachimont, Bruno. – Engagement sémantique et engagement ontologique : conception et réalisation d’ontologies en Ingénierie des connaissances.- INA, 2000 (pdf)

Aaron Swartz : la guerre de l’ »Open Access » fait sa première victime

Aaron SwartzLe récent suicide ( 11/01/13) de l’informaticien militant Aaron Swartz a bouleversé le monde du numérique et surtout les partisans du libre accès.

Ce jeune activiste de 26 ans, co-inventeur à 14 ans des flux RSS, risquait en effet 35 ans de prison et 1 million de dollars pour avoir « hacké » la base de données de revues en ligne JSTOR en téléchargeant illégalement sur un ordinateur portable des millions d’articles à partir d’un serveur du MIT.
Ce n’était pas la première action de ce jeune prodige qui s’était déjà attaqué en 2008 à la base de données PACER (Public Access to Court Electronic Records), le service de publication des décisions de justice américaines. Malgré son nom (public access), l’accès à cette base est payant, de même que JSTOR qui publie des articles de recherche.
Mais si l’hébergeur JSTOR a rapidement retiré sa plainte, et le MIT a été moins clair, c’est surtout la justice américaine, et particulièrement la procureure Carmen Ortiz, qui s’est acharnée sur son cas, accusant le jeune hacker de « voler des biens valant des millions de dollars » …
Il est évident qu’Aaron Swartz n’a pas fait cela pour de l’argent comme le fait remarquer son ami le juriste Lawrence Lessig, le créateur du « Creative Common » dans son post du 12 janvier « Prosecutor as bully »

La communauté de l’internet libre lui a rendu hommage en mettant en ligne des œuvres ‘libérées’, notamment grâce au hashtag #pdfTribute sur Twitter (voir le site http://pdftribute.net/), comme par exemple le document ‘Open Government‘ de Tim O’Reilly.
Mais aussi d’autres hackers continuent son action en ‘libérant’ d’autres bibliothèques numériques comme le site de « Gale Digital collections » téléchargé sur un faux site http://galecengage-publicdomain.com/ vantant le domaine public … !
La « guerilla open access » que menait Aaron Swartz n’était pas portée par le profit ou une ambition commerciale comme celle du hacker Kim Dotcom avec Mega (suite de Megaupload).
Il voulait, avec tout le mouvement du libre accès sur internet, rendre aux chercheurs les fruits de leurs recherches que les éditeurs et les distributeurs en ligne exploitent comme une rente sans fin.
Mais sa mort aura permis au moins de relancer le débat sur les mesures anti-piratage disproportionnées aux États-Unis.

Guerilla Open Access Manifesto. – Open Access News. [attribué à Aaron Swartz], July 2008

PdfTribute sur Twitter

Prosecutor as bullyLessig Blog V2, 12/001/13
Aaron Swartz, le suicidé de l’édition scientifique commerciale/ par Antonio Caselli. – Huffington Post, 13/01/13
Aaron Swartz, martyr de la libre circulation des connaissances ?/ par Olivier Laffargue. – BFMTV.com, 14/01/13
En marge du décès d’Aaron Swartz, le site de Gale Cengage hacké à son tour pour libérer le domaine public ! S.I.Lex, 14/01/13
Open Access et suicide d’Aaron Swartz : des larmes de trop/par Célya Gruson-Daniel. – My Science Work, 16/01/13
L’histoire d’Aaron Swartz. – Le Geektionnerd, 16/01/13
Suicide d’Aaron Swartz : vers un amendement de la loi anti-hacking aux USA ? - ZDNet, 16/01/13
Après la mort d’Aaron Swartz, des débats sur la législation. – Le Monde, 16/01/13
Avec le suicide d’Aaron Swartz, le MIT a-t-il perdu son âme ?/ par Emmanuel Tellier – Télérama, 17/01/13
Aaron Swartz, le feu RSS/Fabrice Rousselot. – Écrans – Libération, 18/01/13
Kim Dotcom: the internet cult hero spoiling for a fight with US authorities/by Toby Manhire. – The Guardian, 18/01/13
Aaron Swartz: a bittersweet memorial/ by Paul HarrisThe Guardian, 19/01/13
Économie de la publication scientifique et libre accès: un débat relancé par la mort d’Aaron Swartz. – Slate, 21/01/13
Cinq bonnes raisons de ne pas utiliser Mega. – par Olivier Tesquet. – Télérama, 21/01/13

Service(s) aux usagers : une innovation en bibliothèque qui remonte à un siècle !

Le ou les « service(s) aux usagers » (SAU : département auquel j’appartiens à Bibliothèque de Sciences Po) fait partie des dernières préconisations en matière d’activités des bibliothèques. Ils se retrouvent, par exemple au cœur des interventions de la Journée d’étude de l’ADBS, lors de l’i-Expo 2012.

Or, on retrouve cette préoccupation dans l’ouvrage d’Eugène Morel (1869-1934), « La Librairie publique », datant de 1908 et cité dans l’article de Lydie Ducolomb « Eugène Morel et la section des bibliothèques moderne : une réflexion sur la formation professionnelle des bibliothécaires au début du XXe siècle », publié dans le BBF de février 2012.
Pour ce bibliothécaire visionnaire « Il faut exciter sans cesse le public, le fournir de renseignement de toute sorte, chercher pour lui […], suivre l’actualité, dresser à chaque moment l’état des ressources de la librairie sur les sujets les plus diveers : une guerre, des tarifs douaniers, une loi sociale, une invention nouvelle … »

On retrouve là les services « push » que les bibliothèques et centres de documentation peuvent mettre au service de touts les catégories de lecteurs : jeunes lecteurs ou étudiants grâce aux réseaux sociaux ou blogs, dossiers documentaires ; services au chercheurs aussi, comme il en ressort dans l’article d’Archimag de Juin 2012 « Chercheurs, technologies et bibliothèques universitaires : questions d’usages ». Guillaume Nuttin y interroge trois responsables sur les besoins des chercheurs en information scientifique et technique (IST). Jean-Michel Barbiche, conservateur à la Bibliothèque de l’Ecole Centrale de Paris souligne « La qualité d’une bibliothèque ne se mesure pas à la quantité de documents qu’elle propose, mais à l’aune des services proposés autour des ressources ».
Odile Hologne, directrice déléguée à l’Information scientifique et technique à l’INRA explicite cette révolution copernicienne de l’activité documentaire « Nous avons repositionné complètement l’offre de services en IST pour les scientifiques : veille, bibliométrie, gestion des connaissances. Au lieu de nous positionner sur la gestion du stoock de documents, nous nous orientons sur l’analyse de l’information ».
Mais, comme le fait remarquer Ghislaine Charton, professeure à L’INTD « les chercheurs, dans leur grande majorrité, ne veulent pas être formés, faute de temps ou à cause d’autres priorités liées à leurs recherches. […] Il faut lever les barrières techniques et mmultiplier les services d’accompagnement de l’usager, en présentiel ou à distance ».

La formation des utilisateurs devient ainsi une des principales activités des professionnels de l’information qui retrouvent là leur mission de médiation.

Ce sont ces nouvelles compétences des « bib/docs » qu’explore Claudine Masse, Directrice de l’EBD, dans sa contribution « Nouveaux territoires pour les professionnels de l’information : l’évolution des compétences » Journée d’étude de l’ADBS, i-Expo 2012.
Elle insiste sur les compétences à acquérir ou approfondir dans le cadre de son école. Outre le management et la gestion de projet, l’architecture de l’information, la gestion et la production de contenus, les futures bibliothécaires et documentalistes devront acquérir des compétences dans la veille et des compétences transverses : langue (anglais), informatique, travail en équipe, communication écrite et orale.
L’exploitation de ces compétences permettra une maîtrise des bases de l’information-documentation (gestion et recherche documentaire, traitement, produits et services doc.) mais aussi le développement d’une expertise : architecture de l’information, veille, conduite de projet, archive et record management, communication/marketing, etc.

Ces expertises se retrouvent dans l’analyse de Loïc Lebigre à cette même journée d’étude à i-Expo « Vers un observatoire ADBS des fonctions « information » : opportunités et enjeux ».
De nouvelles fonctions émergen t pour les professionnels de l’information à partir du contexte des évolutions technologiques et sociétales :
– la fonction de « Coordination » pour les pratiques collaboratives
– Celle d' »éditorialisation » (curation) et d' »Analyse expertise métier » devant la surabondance des données accessibles et raccourcissement des cycles (R&D, production, valorisation)
– La « Maîtrise d’usage et gouvernance du SI » face à l’innovation technologique permanente et la diversité des solutions mobilisables.

Dans sa communication « Valeurs ajoutée des médiateurs » à cette même journée d’étude, Ghislaine Chartron identifie quatre pôles de compétences pour les professionnels de l’information : Gestion-Qualité ; Informatique ; Performance de l’activité principale et Communication-formation.

Dans la conclusion de son article, Lydie Ducolomb souligne que « l’héritage d’Eugène Morel [consiste] en une conception globale du rôle du bibliothécaire dans la société : informer, communiquer, rendre service, permettre l’accès de tous à la culture »

Table ronde « Nouveaux territoires pour les professionnels de l’information » animée par Elisabeth Gayon, présidente de l’ADBS, sur le salon i-expo 2012 – Journée d’étude, 14 juin 2012

Ducolomb, Lydie. – Eugène Morel et la section des bibliothèques modernes : une réflexion sur la formation professionnelle des bibliothécaires au début du XXe siècle ». – Bulletin des bibliothèques de France. – (20012/02)t.57:n°1, p.35-38

Nuttin, Guillaume. – Chercheurs, technologies et bibliothèques universitaires : questions d’usages. – Archimag. – (2012-06)n°255, p. 21-22.

La face concrète de l’innovation numérique : les « Fab Labs »

Depuis quelques semaines, les « Fab Labs » sont à l’honneur : le 20 mars 2012, la Fing y a consacré un de ses « Carrefour du possible » ; le projet « Fab Lab Squared » a été retenu dans le cadre de l’appel à projets « Prototypes Technologiques », lancé par la région Ile de France et Cap Digital et le Centre Pompidou a prévu une conférence à l’RI (Institut de Recherche et d’innovation) le 20 juin dans la cadre de « Futur en Seine » (14-24 juin 2012), mais les Fab Labs se retrouvent aussi dans l’exposition « Multiversités créatives » qui aborde le côté créatif de l’innovation (du 3 mai au 6 août 2012).

Mais, qu’est-ce donc qu’un Fab Lab ? Le « Fab Lab » – abréviation de « Fabrication Laboratory » – est une plate-forme ouverte de création et de prototypage d’objets physiques, « intelligents » ou non. Il s’adresse aux entrepreneurs (ou aux bricoleurs) qui veulent passer plus vite du concept au prototype… (FING)
Initié en 2004 par le MIT, le réseau des Fab labs ne cesse de se développer. Dans ces ateliers postmodernes, différentes machines (découpes laser, fraiseuses, imprimantes 3D) sont contrôlées par des logiciels de conception et de fabrication assistés par ordinateurs et permettent de fabriquer rapidement des prototypes …

On trouve des Fab labs, aussi bien dans les centres de recherche du Nord que dans les pays du Sud où l’innovation comble le retard industriel. C’est le cas, notamment du « LED Project » de « Fairtrade Electronic », une ONG qui a coordonne la fabrication de diodes électroluminescentes (LED) « open source » dans une processus de commerce équitable, qui s’appuie sur des pratiques et des philosophies de production émergentes dites “industrie de proximité” dans des pays comme la Mauritanie.

Des Fab Labs, ouverts à tous, se sont aussi créés dans des centres de recherches ou des universités, comme le « Fac Lab » de Gennevilliers au sein de l’Université de Cergy-Pontoise. « Le FacLab est une communauté de personnes d’horizons très divers : designers, artistes, ingénieurs, artisans, étudiants, chercheurs, enseignants, citoyens, enfants, … réunis par l’envie de matérialiser une idée. »
C’est aussi un lieu d’innovation pédagogique, qui décloisonne les filières traditionnelles et propose des formations axées sur la fabrication numérique.

A l’autre bout de la « société de la connaissance », « La Paillasse« , laboratoire de passionnés en biologie (étudiants, chercheurs et amateurs), est un espace « DIY Bio-Hackerspace », qui s’essaie à de nouvelles approches, ouvertes et contradictoires de la biologie, comme le « DNA barcoding », dont « le but sera d’utiliser les techniques de base de Biologie Moléculaire pour identifier les micro-organismes, les espèces végétales et les animaux qui nous entourent. On tentera même de la detection d’OGM !  »

Ces pratiques de « science citoyenne » comme la fabrication numérique, redessinent les frontières de la propriété intellectuelle, de l’économie participative, de la relocalisation des savoir-faire et des outils de production.

De nouveaux modèles économiques s’esquissent à la croisée des compétences, du savoir, de la matière et de l’immatériel.

Projet Istex : Une plateforme de ressources documentaires en ligne via des licences nationales

Porté par l’Université de Lorraine pour l’ensemble des universités, le projet ISTEX (Initiative en Information Scientifique et Technique) a été retenu dans le cadre du programme des « investissements d’avenir ».
Associant la CPU, le consortium COUPERIN, L’INIST et l’ABES, ce projet financé à hauteur de 67 millions d’euro vise à

· donner accès à un corpus de ressources documentaires acquises dans le cadre d’un programme volontariste d’achat de licences nationales,

· agréger ces ressources au sein d’une plateforme nationale accessible à tous les établissements, permettre la personnalisation en fonction des thématiques de formation et de recherche de chacun : chaque Idex (Initiative d’excellence) pourra ainsi se confectionner un portail spécifique, à partir du portail national accessible à tous,

· héberger sur le territoire des contenus scientifiques numériques dans le but d’offrir à la communauté d’enseignement supérieur et de recherche des services à forte valeur ajoutée

L’accès à la plateforme ne sera pas limitée aux établissements membres d’un projet d’Idex, mais à toutes les universités. Comme le souligne la « Lettre de la CPU » du 27 octobre 2011, ce « portail d’exploitation sophistiqué [..] constitue la vraie valeur ajoutée et rend le projet très compétitif au plan international ».

Michel Vajou, dans la « Dépêche du GFII » du 7 novembre se demande si ce programme d’investissement d’avenir va permettre l’émergence d’une « Agence nationale de l’Information scientifique et technique » qui jouerait en France le rôle du JISC (Joint Information System Comitee) au Royume Uni. Outre l’accès au réseau Janet (équivalent de Renater), cet organisme met à la disposition des établissements d’enseignement supérieur et de recherche des ressources documentaires numériques et une expertise à travers des services de spécialistes.
Dans l’analyse de la Dépêche, Michel Vajou essaie aussi de prévoir comment vont s’articuler les missions des différents acteurs fédérés dans ce projet : CPU, ABES, Couperin et INIST-CNRS.


Le projet ISTEX : mutualiser l’accès à la connaissance
CPU Infos, Lettre du 27/10/11

ISTEX : des licences nationales pour les ressources numériques par Christelle di Pietro, ENSSIBrèves, 07/11/11

ISTEX : Vers une plate-forme nationale d’accès à l’information scientifique et technique ? par Michel Vajou, La Dépêche du GFII, 07/11/11

La valeur ajoutée des Bibliothèques pour la recherche

L’ABDU (Association des Directeurs et personnels de direction des Bibliothèques Universitaires et de la Documentation) vient de faire traduire un rapport « The value of libraries for research and researchers » publié en mars 2011 par le Research Information Network (RIN) et Research Libraries United Kingdom (RLUK) du Royaume-Uni. « Valeur des bibliothèques pour la recherche et les chercheurs » présente les conclusions d’une étude, reposant sur l’analyse des données statistiques de 67 établissements d’enseignement supérieur du Royaume Uni ainsi que sur une analyse qualitative menée auprès de bibliothécaires et de chercheurs de neuf institutions d’enseignement supérieur britanniques, basée sur des entretiens et des « focus groups ». Il s’agissait de déterminer s’il existe une corrélation entre l’activité de la bibliothèque et les performances en matière de recherche de l’établissement.

Avec la numérisation des ressources, les chercheurs ne se déplacent plus pour fréquenter la Bibliothèque et ne considèrent celle-ci que comme comme un intermédiaire pour accéder aux documents. Comment re-fidéliser ces usagers spéciaux que sont les chercheurs et quels services leur proposer ?

L’étude recense 11 attitudes et bonnes pratiques recommandées pour adapter les services des bibliothèques aux besoins des chercheurs. Outre les compétences en information et organisation et une bonne maîtrise des sujets, il faut : des professionnels de l’information « proactifs », une forte culture de service, une bibliothèque ouverte sur son environnement, des ressources documentaires solides, un catalogue accessible au public, des espaces flexibles, un dépôt institutionnel, une position neutre dans l’institution et enfin arriver à faire percevoir la bibliothèque comme le « lieu » du savoir.

Ces attitudes conduiraient à une bonne connaissance de l’environnement extérieur en resserrant les liens entre chercheurs et bibliothécaires. Avec des services axés sur la recherche, la bibliothèque jouerait un rôle plus important dans l’institution. Cela améliorerait les pratiques documentaires des chercheurs dans un meilleur environnement de recherche.

En augmentant la visibilité et la réputation de la bibliothèque, ces aspects rejailliraient sur l’établissement universitaire. Ces bonnes conditions favoriseraient les financements et les bourses de recherche tout en accroissant le potentiel et la qualité de la recherche. Qui permettront, à leur tour, un meilleur recrutement et maintien de chercheurs qualifiés.

Staypressed theme by Themocracy