Demandes de stages

Page mise à jour en mars 2021

Puis-je faire des demandes de stages?

Oui, s’il s’agit d’une demande individuelle, vous pouvez tout à fait nous transmettre vos attentes.

Les questionnaires de satisfaction remplis par les stagiaires à chaque fin de formation permettent aussi de transmettre des demandes de stages.

Vous pouvez également faire une demande de stage sur mesure s’il s’agit d’une demande collective.

Matériel, accès à la salle

Page mise à jour en mars 2021

Est-il possible d’emprunter la salle de formation de l’Urfist?

La salle de formation peut être réservée par les services de l’université ou des EPST pour des actions de formations.

En raison des travaux en cours sur le campus de Pessac,  la salle ne sera plus accessible à la location jusqu’en 2022.

Pour faire une demande de réservation.

La salle doit être rendue dans l’état de propreté dans lequel elle a été trouvée.

La salle peut aussi être louée à des extérieurs à l’université. Coût de la journée : 300 euros TTC. Pour des informations complémentaires.

Publié dans FAQ

Un environnement numérique de recherche portable et stable : pour une recherche répétable et reproductible

Objectifs

La manifestation est organisée en partenariat avec la délégation Aquitaine du CNRS.

  • Sensibiliser les participants aux enjeux de reproductibilité et de répétabilité de la recherche
  • Améliorer la portabilité et sécuriser la réutilisation de ses outils numériques pour obtenir des résultats fidèles
  • Donner à voir des cas d’utilisation de containers et autres solutions logicielles en recherche, fournir des exemples de workflows dans une perspective utilisateur final et non pas administrateur réseaux

Cette initiation est ouverte à tous publics intéressés par les questions de : répétabilité, reproductibilité de la recherche, travail collaboratif, préservation des environnements numériques scientifiques.

Inscription en ligne obligatoire et gratuite pour toutes catégories de publics.

Programme

« Une seule mise à jour/montée de version effectuée et tout est dépeuplé »

(ancien proverbe informatique librement inspiré de Lamartine)

Vous n’obtenez plus les mêmes résultats alors que vous suivez le même protocole. Vos collègues parviennent encore moins à reproduire votre démarche alors qu’en apparence, leur environnement informatique est similaire au vôtre. Comment s’assurer d’être en mesure de réitérer des démonstrations X semaines, X mois, X années plus tard? Cette introduction aux containers (Docker et Singularity) et au gestionnaire de paquets GNU Guix se veut un panorama critique des solutions techniques, accessible à toute personne intéressée par la question de la portabilité et de la fiabilité de ses outils de recherche. Ces questions sont ici traitées sous l’angle des enjeux pour les chercheurs et chercheuses, et non pas sous l’angle de l’administration de réseaux. La formation prend la forme d’un court workshop.

Introduction, par François Pellegrini, professeur à l’Université de Bordeaux, chercheur Inria-Labri

« Fiabiliser son environnement de recherche : introduction aux containers Docker et Singularity« , Adalbert Arsen

Pourquoi déployer un container plutôt qu’une machine virtuelle? Quels sont les avantages et limites de ce type d’outils? Et surtout, à quels besoins de recherche les containers répondent-ils? Certaines revues intègrent désormais le déploiement de containers à leur workflow. Quelles étapes prévoir? Quelles compétences mobiliser? Quels sont les cas d’usages possibles dans un workflow de recherche?

« Portabilité de R : dockeriser une appli Shiny » : Vincent Guyader

« Lorsque l’on cherche à développer puis à déployer une application R (typiquement une application shiny), plusieurs aspects sont à prendre en compte (Note : Ce qui suit s’adapterait à n’importe quel « produit » basé sur R) : que va devenir cette application? Qui va être en charge de la déployer? À combien d’utilisateurs s’adresse-t-elle? Doit-elle être installée en local sur les postes des utilisateurs, ou accessible en ligne? Sera elle publique ou privée? Les réponses à ces questions vont orienter directement des choix techniques, qu’il faudra parfois mettre en place très tôt dans la phase de développement de l’appli. En effet, il y a un gap énorme entre avoir un app.R qui tourne bien en local sur son poste, et avoir une application shiny en production accessible au plus grand nombre. », V. Guyader (cf. 6èmes Rencontres R, Anglet, 2017)

« Au-delà des conteneurs. Environnements logiciels reproductibles avec GNU Guix » : Ludovic Courtès

« Docker et Singularity peuvent reproduire un environnement logiciel à l’identique mais permettent difficilement d’aller au-delà d’expérimenter. Peut on concilier reproductibilité et expérimentation pour les environnements logiciels? GNU Guix est comparable à apt-get, yum ou CONDA, mais il fournit des binaires reproductibles bit à bit avec un suivi de leur provenance. Il peut aider à la gestion d’environnements à la « module » ou VirtualEnv, ou encore provisionner des conteneurs. J’évoquerai notre expérience avec Guix en calcul intensif (HPC) », L. Courtès

En savoir + sur GNU Guix

Intervenants

Docteur en hydrologie spatiale, Adalbert Arsen a exercé des activités de recherche au seln du laboratoire LEGOS (UMR 5566) à Toulouse. Il se consacre désormais à la formation au traitement des données de recherche (programmation, analyse et traitement des données, notamment données géographiques) et possède également une expertise dans le domaine de la communication scientifique (poster scientifique, rédaction d’article, vulgarisation scientifique).

Ingénieur de recherche au centre Inria Bordeaux Sud-Ouest (Service d’Expérimentation et de Développement), Ludovic Courtès s’est spécialisé dans le calcul intensif.  Il est initiateur et co-mainteneur du projet GNU Guix et une des personnes à l’origine du projet Guix-HPC.  Il est aussi co-mainteneur de GNU Guile qui met en œuvre le langage de programmation fonctionnelle Scheme.

Data scientist, Vincent Guyader est gérant de la société ThinkR,  société spécialisée dans les applications et la formation au logiciel R. ThinkR accompagne les entreprises de tous secteurs (pharma, finance, agronomie…) dans leur problématiques de datascience nécessitant l’usage de R : création et déploiement d’application, migration SAS vers R, installation et maintenance de serveur de calcul, formation et coaching d’équipe.

Ressources

Communiquer : supports de présentation

La diffusion des supports de présentation sur le site de l’Urfist est soumise aux autorisations accordées par les intervenants. Tous les supports ne sont donc pas disponibles.

Le peer review à l’ère de l’open science : enjeux et évolutions

Argumentaire

Les formes traditionnelles du peer review font régulièrement l’objet de critiques de la part des chercheurs eux-mêmes : le processus est jugé lent, coûteux et opaque. L’abondante littérature sur le sujet souligne également d’autres écueils du peer review  (Souder 2011) : les biais en faveur d’auteurs issus de prestigieuses institutions ; un traitement inéquitable selon le niveau de maîtrise d’anglais des auteurs ; le risque de privilégier les résultats au détriment de la méthode, l’application de procédures inadaptées à l’évaluation de manuscrits à fort caractère interdisciplinaire ; et plus généralement, un tropisme pour ce que L. Souder nomme « scientific conservatism » (Souder 2011:55).

Par ailleurs, alors que le nombre d’articles augmente de manière exponentielle, les revues sont confrontées à la difficulté de trouver des rapporteurs. M. Kovanis et ses co-auteurs (Kovanis et al. 2016) alertent sur les atteintes à la qualité du processus engendrées par la sur-sollicitation d’un nombre restreint de rapporteurs. De plus, la pénurie de rapporteurs est aggravée par le fait que l’évaluation ne porte plus seulement sur des manuscrits mais s’étend désormais également à des jeux de données, du code informatique par exemple. Ainsi que le soulignent B. Lawrence et ses co-auteurs (Lawrence et al. 2011:11), le peer review de données sources nécessite de recourir non seulement aux compétences de spécialistes de la discipline, mais aussi de s’appuyer sur des experts techniques.

Autre paradoxe du peer review : alors que la publication d’articles dans des revues considérées comme prestigieuses reste déterminante dans l’attribution de financements et de promotions, l’activité de reviewing s’avère peu ou mal valorisée.

Selon J.P. Tennant et ses co-auteurs (Tennant et al. 2017), grâce aux possibilités offertes par l’édition numérique, nous assistons à une période d’expérimentation et d’innovation dans le domaine du peer review. Or si des outils répondent aux besoins de traçabilité et d’interopérabilité, il s’agit moins d’une évolution technique que culturelle.

Dans quelle mesure le paradigme de l’open science peut-il apporter des réponses à la crise du peer review ? Par ailleurs, de quoi l’open peer review est-il le nom ?

Quels sont les impacts sur le peer review de la logique de décloisonnement inhérente à l’open science?

De quelle manière les institutions de recherche peuvent-elles jouer un rôle plus actif dans un écosystème de la publication dominé par les éditeurs ? La publicisation des évaluations renforce-t-elle ou fragilise-t-elle les reviewers?

La journée d’étude n’est pas filmée.

Programme

8h45-9h : accueil des participants

9h-9h15 : allocution de bienvenue, Nicolas Roussel, directeur du Centre Inria Bordeaux-Sud-Ouest

« Peer Community in : un système de recommandation public et gratuit de preprints » ; Thomas Guillemaud (Inra)

9h15-10h

« Pour offrir une alternative au système actuel de publication – qui est notamment coûteux et peu transparent – nous avons initié le projet Peer Community in (PCI). PCI repose sur la publication d’évaluations critiques et de recommandations d’articles non encore publiés, mais déposés – et gratuitement accessibles – sous forme électronique dans des archives ouvertes disponibles sur internet. Ces évaluations et recommandations sont réalisées bénévolement par les chercheurs sans aucun lien avec des éditeurs privés.

Les frais de publication disparaissent : PCI offre la possibilité de valider, diffuser et consulter gratuitement les articles qui lui sont soumis. Les délais d’accès à l’information sont nuls : les articles scientifiques évalués sont déposés dans les archives ouvertes dès la fin de leur écriture. Le système devient transparent : les critiques, les décisions éditoriales, les réponses des auteurs et les recommandations sont publiées sur le site de la communauté scientifique concernée. » D. Bourguet, T. Guillemaud

10h-10h15 : échanges avec le public

10h15-10h35 : pause café

Valoriser le travail des reviewers : retours d’expérience autour du dépôt en accès libre des avis (Publons, etc.) ; chercheurs invités : Florence Débarre (Centre Interdisciplinaire de Recherche en Biologie, Collège de France) ; Fabien Lotte (équipe Potioc, Inria) ; Nicolas Rougier (équipe Mnemosyne, Inria) ; Olivier Sandre (Laboratoire de Chimie des Polymères Organiques, CNRS). Animateur de la table-ronde : Hervé Maisonneuve (médecin et consultant, rédacteur du blog « Rédaction médicale et scientifique »).

10h35-11h15

Publons a pour ambition de valoriser l’activité des reviewers, encore peu reconnue dans l’évaluation des chercheurs. Chaque rapporteur peut ainsi rendre publique son activité. La plateforme est interfacée avec Orcid pour que l’ensemble de l’activité de recherche soit documentée de manière centralisée. D’autres solutions seront également évoquées.

11h15-11h30 : échanges avec le public

« Le futur du peer review en sciences du vivant et de la santé » ; Hervé Maisonneuve (médecin et consultant, rédacteur du blog « Rédaction médicale et scientifique »)

11h30-12h

« Le peer review est accusé de tous les maux (lent, inefficace, biaisé), mais il n’y a pas mieux ! Le peer review ouvert semble satisfaire certaines communautés, mais il est refusé par d’autres. Valoriser le travail de relecture pourrait améliorer la qualité du peer review, mais cela doit être démontré. Des revues utilisent un modèle appelé ‘Registered Reports’ : les chercheurs soumettent l’introduction et les méthodes et le comité de rédaction donne une acceptation sous réserve. Le chercheur conduit ses expériences, et que les résultats soient positifs ou négatifs, ils seront publiés, après une relecture pour s’assurer de la cohérence de l’article avec les objectifs initiaux. Ce modèle a des variantes. A long terme, l’intelligence artificielle pourrait remplacer des relecteurs, et faire aussi bien voire mieux. » H. Maisonneuve

12h-12h15 : échanges avec le public

12h15-14h : buffet sur place offert

« Emergent Scientist : une initiation par la pratique à la publication scientifique » ; Arnaud Raoux (Ecole Normale Supérieure, Ulm)

14h-14h30

« La publication scientifique est très largement absente des formations universitaires, et les étudiants qui achèvent leurs études avant le doctorat n’ont presque aucune occasion de se familiariser avec la lecture, l’écriture ou l’évaluation d’articles de recherche. Pourtant, il est indispensable de connaitre le fonctionnement de la publication scientifique pour comprendre le fonctionnement des sciences sur lesquelles reposent nos sociétés.

Emergent Scientist (EmSci) est un journal open access créé par la Société Française de Physique et EDP Sciences pour répondre à ce besoin. Lancé en Septembre 2017, EmSci reprend la structure classique d’un journal à comité de lecture, en adaptant ses procédures et critères d’évaluation pour permettre à des étudiants de publier leurs travaux et de s’impliquer à toutes les étapes du journal, de la lecture à l’édition.

Dans cet exposé, je présenterai ce journal, depuis sa conception jusqu’à son lancement, en soulignant les préoccupations pédagogiques de ce projet. » D. Suchet, A. Raoux

14h30-14h45 : échanges avec le public

« Open peer review in DIGITAL.CSIC : analyzing potential roles of institutional repositories in the future of scholarly communication » ; Isabel Bernal (Unit of Information Resources for Research, Spanish National Research Council)

14h45-15h05

« DIGITAL.CSIC, the Open Access repository of the Spanish National Research Council, launched an Open Peer Review Module in April 2016. The module falls within the range of the repository’s activities to advance Open Science and has contributed to open a debate as to opportunities for institutional repositories in a new scholarly evaluation and communication system. The talk will give an overview of how the module has been used thus far and perceptions by scientific community about current peer review crisis. » I. Bernal  

15h05-15h15 : échanges avec le public

15h15-15h30 : pause

« Voir, cacher, se cacher, être vu… Politiques de l’anonymat dans le journal peer review » ; David Pontille (CNRS, CSI-I3) et Didier Torny (CNRS, CSI-I3)

15h30-16h

« Faut-il rendre les auteurs et les évaluateurs d’articles anonymes afin de garantir l’objectivité des jugements ? Faut-il au contraire lever toute forme d’anonymat au nom de la transparence du processus d’évaluation ? Ou bien encore, faut-il que les évaluateurs sachent l’origine des articles afin d’en apprécier la pertinence et la qualité ? Dans cette communication, nous questionnerons l’évaluation par les pairs dans les revues à partir d’une approche diachronique des pratiques en vigueur dans différentes disciplines. Nous verrons que les politiques d’anonymat n’arbitrent pas uniquement les relations de visibilité entre auteurs et évaluateurs, mais revendiquent des valeurs morales contrastées du jugement scientifique.  » D. Pontille et D. Torny

16h-16h15 : échanges avec le public

Synthèse et conclusion de la journée par Nicolas Rougier (Inria)

16h15-16h30

Sources

  • Kovanis, Michail, Raphaël Porcher, Philippe Ravaud, and Ludovic Trinquart.  2016     The Global Burden of Journal Peer Review in the Biomedical Literature: Strong Imbalance in the Collective Enterprise. Lutz Bornmann, ed. PLOS ONE 11(11): e0166387.
  • Lawrence, Bryan, Catherine Jones, Brian Matthews, Sam Pepler, and Sarah Callaghan.  2011     Citation and Peer Review of Data: Moving Towards Formal Data Publication. International Journal of Digital Curation 6(2): 4–37.
  • Souder, Lawrence.  2011     The Ethics of Scholarly Peer Review: A Review of the Literature. Learned Publishing 24(1): 55–72.
  • Tennant, Jonathan P., Jonathan M. Dugan, Daniel Graziotin, et al.  2017     A Multi-Disciplinary Perspective on Emergent and Future Innovations in Peer Review. F1000Research 6: 1151.

Informations pratiques

Gérer ses informations, ses données : supports de présentation, guides

La diffusion des supports de présentation sur le site de l’Urfist est soumise aux autorisations accordées par les intervenants. Tous les supports ne sont donc pas disponibles.

Du montage de projet de recherche à la publication : enjeux et pratiques autour des données primaires

Argumentaire

La gestion de ses données présente un enjeu majeur en termes de visibilité et de rayonnement de ses recherches. Il s’agit de pouvoir exploiter les données produites, les préserver mais aussi les réutiliser et faciliter de nouvelles recherches. Ainsi, bien documenter ses données est devenu une étape incontournable du montage de projet et ces données peuvent par la suite être valorisées par leurs auteurs ou d’autres chercheurs via des data papers, le dépôt des données dans des entrepôts dédiés.

À l’heure de la remise en question des processus de validation des travaux, la gestion des données de recherche intervient aussi comme un outil de contrôle de qualité au service des chercheurs. Si la tâche peut sembler chronophage, elle constitue néanmoins un retour sur investissement considérable pour une équipe. Elle s’inscrit également dans une démarche de « science ouverte » qui contribue à renforcer la place de la science dans la société.

De quoi parle-t-on lorsqu’on parle de « données » ? Quels sont les enjeux de la gestion des données pour la recherche ? Quelles sont les conséquences de cette gestion pour les publiants? Quels sont les impacts sur les processus de l’édition scientifique (data papers, nécessité de rendre les données citables ; normes pour citer les données? Quels sont les enjeux transverses? (technique, juridique, éthique, etc.) ? Quelles sont les étapes et les bonnes pratiques à suivre pour le montage d’un projet, puis en cours de projet et à son issue ? Quels sont les enjeux juridiques liés ?

Programme

Consulter les vidéos de la journée

9h00-9h30 : Accueil participants

9h30-9h45Présentation du réseau Renatis par Ariane Rolland et Romain Vanel

9h45-10h15 :  « Les données primaires dans la recherche : introduction et enjeux », Frédérique Flamerie, conservateur des bibliothèques à l’Université de Bordeaux

Télécharger la bibliographie au format .bib pour un import facilité dans votre outil de gestion de références biblios

Qu’elles soient big, small, dark ou open, les data prennent une place centrale dans les processus de financement et de publication de la recherche, avec des impacts tant individuels que collectifs, tant techniques que scientifiques et éthiques.

Nous tenterons ainsi de caractériser cet objet divers et protéiforme qu’est la donnée de recherche, pour appréhender les multiples enjeux auxquels elle confronte la communauté scientifique au sens large. Enfin, nous dégagerons quelques perspectives à la fois concrètes et politiques à partir d’exemples français et internationaux.

10h15-10h30 Questions avec le public

10h30-11h : « Les données au cœur des projets de recherche », Christine Mahodaux, responsable du Service Partenariat et Valorisation de la délégation Aquitaine du CNRS

Quelles bonnes pratiques pour le montage de dossier? Quelles étapes? Situation France/international (projets ANR/H2020…) ». Gérer des données de recherche fait partie intégrante du projet de recherche. La gestion des données de recherche requiert une organisation, une planification, et un suivi rigoureux tout au long de la vie de projet et au-delà pour assurer la pérennité, l’accessibilité et la réutilisation de ces données.

Thèmes abordés : La prise en compte de la gestion des données dans le cadre du montage de projet ; La propriété et la protection des données ; Les bonnes pratiques ( cahier de laboratoire, conservation et archivage, diffusion etc..) ; Les préconisations en fonction des financeurs

11h-11h15 : Questions avec le public

11h15-11h35 : Pause

11h35-12h : « L’ouverture des données de la recherche : quelles conséquences juridiques pour le chercheur? », Hélène Skrzypniak, maître de conférences en droit privé à l’URFIST, membre de l’IRDAP

Ces dernières années, les textes destinés à promouvoir l’ouverture des données de la recherche se sont multipliés, tant au niveau international que national. Le mouvement est aujourd’hui désigné sous les termes d’open access. Il vise, notamment, à encourager la publication en libre accès des publications scientifiques.  La France n’a pas été épargnée par ce mouvement comme en atteste l’adoption récente de la loi pour une République numérique du 7 octobre 2016 dont plusieurs dispositions visent à favoriser l’ouverture des données de la recherche.

Ces différents textes créent ainsi des nouvelles obligations pour le chercheur  mais aussi de nouveaux droits. Dans ce contexte, nous proposons de revenir sur le cadre juridique de l’ouverture des données de la recherche : quelles sont les données concernées ? Quelles conditions doivent être respectées ? L’ouverture des données est-elle une obligation pour le chercheur ? Quelle protection pour le chercheur qui ouvre ses données ?

12h-14h : Buffet sur place

14h-14h30 : « Retour d’expérience : Mise en place de plans de gestion au centre de calcul de l’in2p3 et applications », Pascal Calvat, Informaticien à IN2P3

Le centre de calcul de l’in2p3 souhaite mettre en place un plan de gestion de données pour l’ensemble de ses 2500 utilisateurs sur une période de deux ans. Une fois collectées, les politiques des plans de gestion devraient être mises en œuvre au travers d’une application informatique en cours de prototypage.

14h30-15h « Retour d’expérience : Projet d’archivage à long terme pour les données 3D archéologiques », Sarah Tournon-Valiente, UMS Archéovision à Bordeaux

Les projets de recherche en SHS et plus particulièrement en archéologie n’hésitent plus à intégrer des données 3D. Que faire de ces données 3D de plus en plus volumineuses ? Comment les stocker , les pérenniser ?

Le laboratoire Archeovision avec sa cellule de transfert Archeotransfert, grand producteur de données 3D pour les SHS s’est rapidement préoccupé de ces questions, créant le premier conservatoire 3D en SHS. Aujourd’hui, le projet d’archivage mené par Archéovision au sein du consortium 3D d’Huma-Num vient compléter ce premier dispositif.

15h-15h15 : Pause

15h15-16h : Table ronde avec les intervenants de la journée, animée par Julien Baudry, conservateur de bibliothèque à l’Université Bordeaux Montaigne

Informations sur la salle de l’Urfist à destination des formateurs.rices

Les numéros d’urgence en cas de problème informatique sont indiqués sur le bureau du formateur. Il n’y a pas de téléphone dans la salle de formation, merci de prévoir votre portable.

La salle doit être verrouillée lors des pauses déjeuners et en fin de formation.

Les stagiaires ne sont autorisés ni à déjeuner dans la salle, ni à laisser leurs affaires en fin de journée lors d’un stage sur plusieurs jours, pour des raisons de sécurité et d’hygiène.

Matériel mis à disposition

  • 1 poste formateur
  • 16 postes stagiaires
  • Tous les postes se lancent sans mot de passe ; en cas de problème, redémarrer l’ordinateur
  • OS : Windows 7
  • Suite bureautique : Office 2010
  • Pour connaître la version du logiciel sur lequel vous allez intervenir, contacter l’Urfist
  • Wifi : accès au réseau local Réaumur et au réseau sécurisé Eduroam
  • Dossier partagé poste formateur et postes stagiaires : raccourci sur le bureau intitulé « Partage » : seul le formateur peut déposer et supprimer les documents dans cet espace ; les stagiaires ont un droit de lecture.
  • Les fichiers sont supprimés automatiquement tous les soirs. Seuls les documents déposés par le formateur dans l’espace partagé sont conservés.
  • 1 vidéoprojecteur
  • 1 paperboard, 1 tableau blanc
  • Le mobilier ne peut pas être déplacé
  • L’Urfist ne fournit pas d’adaptateur Mac

Vous utilisez R

Le package souhaité n’est pas installé? passez par RStudio pour importer le.s package.s souhaité.s. (En passant directement par la console R, vous ne disposez pas des droits nécessaires.)

Informations sur le navigateur Firefox

Les postes de la salle sont équipés de la version ESR de Firefox . Cette version est dédiée aux collectivités. Le rythme des MAJ de cette version est différent de celui pour les particuliers. Ainsi, la version ESR 31.8 correspond en réalité à la version 39 pour les utilisateurs particuliers.
Pour s’assurer de la compatibilité des plugins ou extensions auxquels vous aurez recours pendant la formation, nous vous demandons d’en fournir la liste complète au plus tard 1 mois avant la formation pour test sur les postes.

Données de recherche : pratiques de chercheurs. Retours d’expérience et ateliers

Argumentaire

Les organismes de recherche mettent un accent de plus en plus fort sur le partage des données scientifiques. Dès lors se pose la question des prérequis à identifier pour mettre à disposition des données exploitables. En effet, l’explosion des volumes de données produites dans le cadre d’activités scientifiques et l’hétérogénéité des formats impliqués contraignent les unités de recherche à faire profondément évoluer leurs pratiques de gestion en vue de préserver leur patrimoine sur le long terme et de garantir un accès à des données utilisables.
Mais la notion de « donnée de recherche » s’avère difficile à définir tant elle revêt des acceptions très différentes en fonction des disciplines. Dans certaines disciplines, de par les méthodes de collecte ou en raison de très forts enjeux économiques, le circuit des données est très restreint, alors que dans d’autres spécialités, les données peuvent être mises à disposition d’une communauté scientifique dès la soumission d’un article. Le Digital Curation Centre considère que toute donnée utile dans le cadre de la recherche est une donnée de recherche. Dans son rapport dédié aux enjeux éthiques du partage de données, le centre d’éthique du CNRS  précise que peuvent être considérées comme données de recherche : les données primaires ou données collectées (observations, mesures, etc.) ; les données secondaires ou version enrichie des données primaires car une dimension interprétative est ajoutée ; les métadonnées qui permettent quant à elles de gérer et de faciliter l’accès aux données primaires et secondaires.
Outre des évolutions en termes de pratiques de gestion, la problématique des données de recherche engendre une mutation des pratiques scientifiques : éditeurs et bailleurs de fonds accordent une place de plus en plus importante à l’accès aux données, à des fins de transparence notamment. Si l’ouverture des données de recherche ne constitue pas la seule réponse pour s’assurer de la rigueur d’une démarche scientifique, il n’en demeure pas moins que cette question tend à devenir centrale pour toutes les disciplines. La question de l’obsolescence des données est également incontournable. L’ouverture et le partage de données soulèvent également de nombreuses interrogations juridiques.

L’objectif de la journée est de mettre en lumière à la fois la diversité des pratiques et des problématiques inhérentes aux disciplines concernées ainsi que les enjeux transverses pour les chercheurs.

La journée est co-organisée par l’Université de Pau et des Pays de l’Adour et par l’Urfist de Bordeaux ; elle s’inscrit dans le cadre d’un cycle de manifestations co-organisées avec le Laboratoire d’informatique de l’UPPA (Liuppa).

Télécharger le programme, les infos sur l’accès à la salle

Programme

Consulter les vidéos de la journée

9h-9h15 : accueil des participants
9h15-9h30 : allocution d’ouverture, par Isabelle Baraille, VP Recherche UPPA
9h30- 9h45 : Enjeux des données de recherche : l’expérience du Liuppa (Laboratoire d’informatique de l’UPPA)
9h45-11h15 : Table ronde animée par Frédéric Tesson (Professeur des universités et Vice Président de la CFVU UPPA) et Gaëlle Chancerel (service commun de la documentation UPPA) : retours d’expérience d’unités de recherche et de services de l’UPPA
Iker, Item, Liuppa, Passages, UMS 3360 Centre d’imagerie, Direction du numérique – pôle « Applications Scientifiques »
11h15-11h30 : pause
11h30-12h00 : « L’ouverture des données de la recherche : quelle protection? quelles obligations pour le chercheur? », par Hélène Skrzypniak, enseignante-chercheuse en droit de la propriété intellectuelle (Irdap, université de Bordeaux)
12h-12h15 : échanges avec le public
12h15-14h : pause déjeuner libre pour les participants
14h-14h15 : présentation des ateliers
14h15-15h30 : ateliers en session parallèle ; les participants sont libres de changer d’ateliers en cours de session, mais la session ne reprend pas au début

Atelier 1 : Le plan de gestion des données, pour quoi faire? Jean-Philippe Talec

Le support de l’atelier est accessible uniquement aux personnes ayant participé à la journée d’étude depuis leur compte personnel Urfist

Atelier 2 : Publier et protéger ses données : aspects juridiques, Hélène Skrzypniak
L’objectif de cet atelier sera de revenir, à travers des exercices pratiques, sur les questions juridiques suivantes :
– Identification des données dont la publication est obligatoire/ interdite/ soumise à autorisation
– Conséquences de la publication des données pour le chercheur : peut-il s’opposer à la réutilisation de données publiées? Peut-il continuer à les exploiter? A quelles conditions?
– Intérêts et fonctionnement des licences libres
– Apport de la loi pour une République numérique (dite  » loi Lemaire »)
15h30-16h    plénière : restitution des ateliers
16h-16h15 : conclusion de la journée par Isabelle Baraille, VP Recherche UPPA

Open science, transparence et évaluation. Perspectives et enjeux pour les chercheurs

Argumentaire

S’il n’existe pas de définition canonique de l’open science, elle peut toutefois être définie comme un mouvement d’ouverture appliqué à l’ensemble des facettes du processus de recherche. L’open data, l’open peer review ou encore l’open access constituent ainsi autant de modalités de production et de diffusion de la recherche au service de l’open science. Dan Gezelter, chercheur en chimie et en biochimie, considère quant à lui qu’il faut avant tout concevoir l’open science à travers le prisme de 4 enjeux fondamentaux pour les scientifiques :

Transparency in experimental methodology, observation, and collection of data.
Public availability and reusability of scientific data.
Public accessibility and transparency of scientific communication.
Using web-based tools to facilitate scientific collaboration

(Gezelter 2016)

Selon Danny Kingsley, l’open science devient un enjeu particulièrement sensible dans un contexte de crise de la transparence de l’activité scientifique : « The veracity of the academic record is increasingly being brought into question (Kingsley 2016) ». La pression exercée sur les chercheurs pour publier à un rythme soutenu des résultats novateurs dans des revues à haut facteur d’impact a en effet fortement porté atteinte au processus scientifique (Kingsley 2016; Smaldino et McElreath 2016; Sarewitz 2016). Les modalités d’évaluation des chercheurs continuent de mettre l’accent sur l’activité de publication dans les revues.
Toutefois, les initiatives en faveur d’une recherche plus ouverte et plus transparente se multiplient. Comment ces pratiques peuvent-elles s’inscrire dans l’écosystème de la publication ? Quels sont les enjeux et les prérequis pour une recherche plus transparente ? Quelles réponses les chercheurs des disciplines à forts enjeux économiques peuvent-ils notamment apporter ?
Autrement dit, l’open science et son objectif de transparence relèvent-ils de l’utopie ? Dans le contexte hyper compétitif de la recherche, quel équilibre trouver entre collaboration et partage d’une part, protection des connaissances et respect de la propriété intellectuelle d’autre part ?

Sources

Gezelter, Dan. 2016. « What, exactly, is Open Science? | The OpenScience Project ». Consulté le novembre 25. http://www.openscience.org/blog/?p=269.

Kingsley, Danny. 2016. « RewarReward, reproducibility and recognition in research – the case for going Open ». Munin, novembre 21. http://dx.doi.org/10.7557/5.4036.

Sarewitz, Daniel. 2016. « The pressure to publish pushes down quality ». Nature News 533 (7602): 147. doi:10.1038/533147a.Smaldino, Paul E., et Richard McElreath. 2016. « The Natural Selection of Bad Science ». arXiv:1605.09511 [physics, stat], mai. http://arxiv.org/abs/1605.09511.

Programme

8h45-9h : Accueil des participants
9h-9h15 : Allocution de bienvenue, Andreas Enge, délégué scientifique du centre Inria Bordeaux Sud-Ouest
9h15-10h : Is « Open Science » a solution or a threat?
Danny Kingsley, responsable du département « Scholarly Communication », Université de Cambridge
The way research is disseminated has changed immeasurably since the advent of the internet, yet we still reward researchers in the same way – for publication of novel results in high impact journals.
This talk will start with a brief discussion of some of the big challenges the research sector is facing as a result and describe how Open Science can address these. The talk will then focus on the difficulty of introducing and implementing Open Science solutions.
Open Science questions the status quo, and potentially threatens the established reputation of both institutions and individuals.

It is not an easy concept to implement. While the discipline of Scholarly Communication takes a ‘meta’ view of the whole research ecosystem, most players in that system are working within a narrow view. It is very rare for individuals to be able to see beyond their own experience.
Challenges for people trying to implement Open Science initiatives range from practical issues in implementing change, through to the people skills and negotiations required to convince individuals and institutions that this change is necessary.
10h-10h15 : échanges avec le public
10h15-10h35 : pause café

10h35-11h20 : ReScience. Mieux qu’une recherche reproductible? une recherche répliquée (Reproducible Science is good. Replicated Science is better)
Nicolas Rougier, chercheur à l’Inria et membre de l’équipe projet Mnemosyne
Les chercheurs en informatique disposent d’une grande variété d’outils de conception de prototypes, de rédaction, de tests, de validation, mais aussi de partage et de réplication des résultats. Toutefois, les sciences computationnelles (analyse de données ou modélisation) accusent un retard. Dans le meilleur des cas, les auteurs fournissent les sources de leurs travaux sous forme d’une archive compressée et sont convaincus que leur recherche est ainsi reproductible. Mais ce n’est pas tout à fait vrai. Les paramètres à prendre en compte pour une réplication en bonne et due forme sont si nombreux que la probabilité de travailler avec la même configuration que celle de votre collègue est quasi nulle. Dès lors, comment garantir une recherche vraiment reproductible? ReScience est une revue à comité de lecture dédiée aux sciences computationnelles qui encourage la réplication de travaux déjà publiés. ReScience promeut également de nouvelles implémentations en open source afin de s’assurer que les travaux originaux soient reproductibles. De fait, toute la chaîne éditoriale s’en trouve modifiée, comparativement à une revue classique : ReScience est hébergée sur GitHub où chaque nouvelle réplication d’une étude est mise à disposition, accompagnée de commentaires, d’explications et de tests. Chaque soumission est analysée publiquement et testée pour que tout chercheur puisse s’en servir de nouveau. Des réplications dans les domaines des neurosciences, de la biologie, de la physique et de l’écologie sont déjà disponibles.
11h20-11h35 : échanges avec le public

11h35-12h20 : Open access en sciences de la vie : prédateurs, grand public, nouveaux enjeux
Hervé Maisonneuve, médecin et consultant, rédacteur du blog « Rédaction médicale et scientifique »
En science de la vie, l’open access et l’ouverture des données ont apporté des bénéfices et des risques. Les bénéfices : je veux tout, tout de suite, n’importe où et gratuitement… c’est presque obtenu. Il semble que plus de 50 % de la littérature biomédicale soit en open access. En pratique, pour les étudiants, c’est presque 100 % par les réseaux sociaux et des sites hébergeant tous les articles.
Mais 100 % d’open access suppose des utilisations hors du système pour éviter de payer en ligne les accès aux articles. Les chercheurs ne comprennent pas les nouveaux modèles économiques avec les APCs (article processing charge). Ils ne voient pas encore l’intérêt des archives ouvertes comme HAL, ou des registres d’universités.
L’open access n’a pas diminué la course aux revues à facteur d’impact élevé. La fausse innovation est publiée au détriment des réplications. Les Altmetrics pourraient se substituer au facteur d’impact, sans changer la très mauvaise qualité de le littérature. Les embellissements de données laissent à penser qu’environ 50 % des articles ne représentent pas la réalité des expérimentations. Des fraudes en médecine ont eu pour conséquences des morts suite à des soins, ou à l’absence de soins. Les risques existent avec le développement des revues dites prédatrices. Le volume annuel d’articles dits « prédateurs » est proche de 50 % du volume des articles indexés chaque année dans Medline.
La transparence et le partage des données ont d’autres conséquences : la consultation des articles en open access en médecine semble être le fait du grand public (75 % des internautes) plutôt que des chercheurs (25 %). L’émergence de chercheurs dits parasites, qui analysent de manière tendancieuse les données accessibles, anime aussi des débats contre l’ouverture des données.
12h20-12h35 : échanges avec le public

12h35-14h : buffet sur place offert

14h-14h30 : Valuation des connaissances et politiques d’open access en chimie
Marianne Noël, docteur en chimie et doctorante en sociologie au Lisis (Laboratoire Interdisciplinaire Sciences Innovations Sociétés)
La chimie demeure une discipline moins ouverte à la diffusion en open access que la physique ou la biologie. Le modèle le plus répandu actuellement est celui de l’APC (article processing charge) ou modèle « auteur-payeur », qui consiste à faire financer le coût de la diffusion en open access par l’institution du chercheur. La présentation de M. Noël va décrire la mise en place d’une initiative pilote en faveur de l’open access (à base de « vouchers »), lancée par une société savante majeure. Il s’agira d’analyser les pratiques de valuation comme un ensemble de pratiques sociales sur des sites distribués. La perspective historique permettra de mettre en lumière les évolutions du statut de la revue. Le rôle des professionnels sera également évoqué.

14h30-14h45 : échanges avec le public
14h45-15h15 : La propriété intellectuelle : alliée ou obstacle à l’open science ?
Hélène Skrzypniak, enseignante-chercheuse en droit de la propriété intellectuelle à l’Irdap (Institut de Recherche en Droit des Affaires et du Patrimoine)
La propriété intellectuelle est souvent perçue par le chercheur comme un obstacle à l’open science : elle impose des règles, pose des interdits, crée des exclusivités qui sont autant de freins à la libre diffusion et au partage des connaissances. Ainsi envisagée, propriété intellectuelle et open science apparaissent profondément antagonistes. Une telle conception est toutefois, si ce n’est erronée, au moins excessive. Elle fait fi des soubassements du droit de la propriété intellectuelle : assurer la diffusion de l’information et du savoir afin de faire progresser la connaissance et l’innovation. Loin d’être antagonistes, propriété intellectuelle et open science partagent donc des objectifs communs. De nombreuses règles du droit de la propriété intellectuelle garantissent ainsi la libre diffusion de la connaissance. D’autres protègent les droits du chercheur souhaitant partager ses données. Enfin, il faut souligner l’évolution récente du droit de la propriété intellectuelle qui a su s’adapter aux nouvelles pratiques des chercheurs comme en témoignent les nouvelles dispositions de la loi Lemaire. Aussi, s’il existe encore certains freins à la libre diffusion des données de la recherche, ces derniers s’amenuisent.

15h15-15h30 : échanges avec le public
15h30-15h50 : pause
15h50-16h30 : table ronde animée par Hervé Maisonneuve et conclusion de la journée

Contacts

Conception du programme de la journée, pilotage : Sabrina Granger (Urfist)

Comité d’organisation de la journée : Martine Courbin-Coulaud (Inria), Isabelle Scarpat-Bouvet (Urfist)