Ceci est le dixième numéro du bulletin d’information visant à mieux informer la communauté
mathématique (et d’autres) sur les questions liées à l’édition scientifique. N’hésitez pas à le
faire circuler autour de vous et notamment dans votre laboratoire et/ou établissement.
Bonne lecture !
Bulletin d’information sur l’Edition Scientifique n°10 décembre 2022 
1. RÉFORME DE L’ÉVALUATION AU NIVEAU EUROPÉEN : LE CNRS PARMI LES
PREMIERS SIGNATAIRES
2. MDPI, FRONTIERS,… : LES ÉDITEURS DE LA ZONE GRISE
3. ACCÈS OUVERT : LE CNRS ANALYSE LES PRATIQUES DE SES CHERCHEURS
4. CARNET ROSE : OPUS, LA NOUVELLE PLATEFORME ÉDITORIALE D’UNIVERSITÉ
PARIS CITÉ
Lire la suite
Comités de lecture ou d’évaluation, classements nationaux et internationaux, outils bibliométriques, réseaux sociaux académiques, « e-réputation »… : sous de multiples formes, des plus institutionnalisées aux moins formalisées, l’évaluation est plus que jamais un élément central de régulation du champ de la recherche.
Quatre axes de réflexions structureront les deux journées :
1 – L’évaluation ouverte avant et après publication.
2 – L’évaluation institutionnelle et l’Open Access.
3 – E-réputation et Open-Access.
4 – Retours d’expérience : l’évaluation institutionnelle en question.
En 1961, E. Garfield inventait l’Impact Factor, un indicateur comparant la notoriété des revues et pas celle des articles, contrairement à une idée communément répandue. Cette métrique, incontournable dans les domaines de l’évaluation et du pilotage de la recherche, suscite des controverses : biais, interprétations erronées voire pernicieuses, schéma inadapté à certains champs disciplinaires, etc.
Par ailleurs, la diversification des modes de diffusion scientifique a conduit à s’intéresser à d’autres types d’indicateurs. C’est en 2010 qu’apparaissent les premières occurrences du terme « Altmetrics » et que le champ d’étude des mesures alternatives apparaît véritablement. Ce phénomène protéiforme qui connait une rapide expansion fait encore l’objet d’un flou sémantique : Altmetrics (Article Level Metric) ou Almetrics (Alternative Metric). En effet, ces métriques alternatives recouvrent des indicateurs variés : le nombre de téléchargements et de consultations d’un article, le nombre de citations dans des revues scientifiques, les commentaires sur les réseaux sociaux, les partages et archivages ou encore les citations dans les médias généralistes. Elles servent donc tout aussi bien à mesurer la notoriété et l’audience d’un article que la grande diversité des activités autour de lui. L’instantanéité, l’impact sociétal de la recherche, la mesure des usages des données scientifiques constituent les points forts de ces mesures et offrent des bases nouvelles à la réflexion sur la bibliométrie.
Ces métriques constituent donc une alternative aux traditionnelles citations pour valoriser la recherche.
Dès lors, on peut se demander quel peut être l’apport des métriques alternatives aux systèmes d’évaluation très codifiés déjà déployés.
Quelle légitimité ces métriques peuvent-elles revendiquer ? Quelles réponses ces indicateurs peuvent-ils apporter? Dans quelle mesure l’émergence de métriques alternatives comme les altmetrics peut-elle ou non constituer une opportunité pour les chercheurs en SHS notamment ?
Plus généralement, le recours aux indicateurs induit-il une forme de normalisation de la production scientifique ?