24 mars 2025 | Université de Rouen
Jean-Claude Guédon
Recherche et libre accès : une relation contestée
L’initiative de Budapest :
- quelle tradtion ?
- quelles technologie ?
La tradition est celle des périodiques scientifiques. En réalité ce sont des instruments qui se sont adaptées à des contextes socio-politiques, mais ces périodiques sont loin d’être stables.
La technologie est tout aussi problématique : la communication scientifique a toujours été porté par ce qui était disponible comme moyen de communication.
En réalité les règles de communication suivent deux règles simples :
- le lecteur veut connaitre les travaux qui lui importent
- l’auteur entend faire connaitre ses travaux
Ces deux règles hantent le libre accès, mais internet n’a rien à voir là dedans, cependant il va aider.
Après la seconde guerre mondiale, silencieusement, il y a une mutation dans les revues scientifiques :
- brutale accélération de la recherche scientifique après 1945 (mené en partie par les états, beaucoup de fonds, etc.)
- arrivée aussi de nouvelles formes de savoir, souvent pluri-disciplinaires, qui débouchent sur de nouveaux domaine…
- …et les sociétés savantes ne savaient pas comment répondre à cette nouvelle forme de savoir
- tout cela ouvre de ouvrent de nouvelle perspective pour les maisons d’édition
- en même temps la concurrence soviétique inquiète les USA
- les domaines interdisciplinaire sont difficiles à indexer, Garfield invente le Science Citation Index
- Vers 70 Garfield change un peu de position, il veut vendre son système, et il se concentre alors sur un indicateur le facteur d’impact : valeur qu’on l’on attribue à une revue au regard du nombre de citations sur 2 ans. Le problème c’est qu’il arrive à vendre son système, même à l’Union soviétique, toutes les bibliothèques achètent les même revues
- la concurrence entre les revue est gérée par le facteur d’impact.
- le succès de ce marché se marque par une montée fulgurante des prix des revues savantes (Srial crisis). C’est ce qui va pourrir le libre accès.
Dans les année 1990, la numérisation commence à apparaitre dans les revues savantes et ce problème va se superposer à au problème du facteur d’impact.
- Du côté des chercheur, quête du Sky writing (on peu accéder à tout)
- du côté des maison d’édition ce qui les inquiète c’est la propriété intellecteulle (DOI, et CrossRef)
- du côté des bibliothèques, intensification de la Serial Crisis et perte de contrôle.
Comment numériser les nouveau marché ? La structure du marché fondée sur le facteur d’impact soulève un problème commercial : comment vendre les revues mal ou pas côtées ? La réponse ? Vendre la collection entière à un prix qui augmente les revenus de la maison d’édition, mais qui donne aussi l’illusion d’une baisse du prix/titre et d’une abondance inégalée de la documentation accessible : le ”Big Deal“.
La classement fondé sur le FI s’étend graduellement aux individus, et aux institutions en passant par les unités de recherche pour atteindre des pays entiers.
La classement par le facteur d’impact transforme la recherche en sport de compétition : à la qualité et ses variétés se substitue une course généralisée et homogénéisée à l’excellence, semblable à la course aux médailles des jeux olympiques.
Le facteur d’impact (FI), repose sur une sélection peu transparente des périodiques. C’est une sorte de club, ce qui en fait un puissant moyen d’exclusion. Une alliance tacite de grandes multinationales de l’édition et de grands labo présents dans les comités éditoriaux donne naissance à une forme de pouvoir dictant implicitement “la” politiques scientifique globale (choix des sujets) à suivre pour être jugé excellent.
L’émergence du libre accès
Avec la numérisation le libre accès devient réalisable. Le National Institutes of Health sous l’impulsion de H. E. Varmus, reprend les idées de libre accès des années 60. Mais il y a une opposition vigoureuse des maisons d’édition, et Vitek Tracz, himme d’affaire and l’édition lance Biomed Central et invente les article processing charges (APC) pour faire payer les auteurs.
Accusé de socialisme et destructeur des maisons d’édition Varmus cherche une solution capitaliste au libre accès : les APC Tracz. Tout part de travers, on veut aller du libre accès, mais le résultat c’est les APC. EN parallèle les chercheurs veulent calmer la Serial crisis avec une pétition, mais c’est un échèc, malgré plus de 30 000 signatures.
C’est dans ce contexte qu’arice l’initiative de Budapest, qui était en quelque sorte un moyen de relancer cete initiative des chercheurs, mais ça n’a pas été comprise comme tel et surtout les solutions proposées n’étaient pas à la hauteur de la tâche. L’initiative de Budapest rèvele 2 failles
- la voie de l’auto-archivage, sous estimais l’importance du capital symbolique ;
- la voie des nouvelles revues reposait sur la présence d’un plan d’affaire compatible avec le capitalisme :la seule voie possible était alors celui des APC…
Du côté de la recherche et des chercheurs, l’auto archivage (Green) vite soutenu par les bibliothèques, souffre de l’indifférence, voire la résistance des chercheurs (manque de capital symbolique)
- Controverses autour des ”mandates” : nombre de chercheurs s’opposent à cette obligation de déposer
- l’exemple de Liège (B. Rentier) est peu suivi ;
- faux problème de la liberté académique et de la surveillance des chercheurs
Les avantaged du libre accès sont ambigus :
- il augmente peut être le nombre de citations
- mais il appuie l’usage du FI et des classements
Le modèle APC joue sur les inégalités économiques antre auteurs (symétrique de la discrimination économique des lecteurs dans les abonnements)
les revues Diamants - gratuites pour les auteurs et pour les lecteurs - renvoient souvent à des revues soutenues par le volontariat.
Du côté des maisons d’édition commerciales
- A part Biomed Central et PLOS, les maisons déditions son initialement opposées au libre accès jusqu’à ce que ce soit vu comme une nouveau moyen de financement avec les revue hybride (Open Choice) pour rendre une article en libre accès il faut que l’auteur paye, mais la revue reste payante pour les bibliothèques
Graduelement les maisons d’édition testent la formule des APC, soit en revue hybride soit en revue ouverte. CF. le rapport FInch de Grande bretagne.
La périodique en libre accès ne menace pas les FI et le classement et les périodique APC Gold voient leurs profits augmenter avec le nobmre d’article publiéles publishers ont intéret à multiplier les titres de périodiques
A partir de 2010 les maisons d’édition ont pris le contrôle du libre accès, tout en maintenant le système. VOlonté cependant de revenir aux abonnements, qui sont plus rentables que les APC.
La Serial Crisis se poursuit toujours. les bibliothèques malheureusement se laissent souvent prendre au modèle read and publish. Certaines bibliothèques tentent de l’allier aux presses universitaires et à diverses plateformes universitaires pour participer à la publication savante. bilan total des biliothèques : un certain désarroi. Avec la numérisation ce que la bibliothèque achète un droit d’accès à une ressource, et les bibliothèques se vident. Elles avaient un problème d’espace mais ce problème s’inverse.
Les obstacles sont les suivants :
- les institutions sont disciplinées à un régime de concurrence intense, organisée autour de classements ;
- les classements reposent en partie sur un mode d’évaluation vicié de la recherche : le FI ;
- la périodique savant, enjeu de pouvoir divers, discipline et hiérarchise également les chercheurs ;
- la recherche en générale est prise dans l’étau des publishers, les véritables maîtres de l’évaluation.
Or la rechere et la chercheurs ont besoin des fonctions de la publication et non de publishers.
Quelle sont les principales fonctions de publication
l’attribution : elle fonctionne mieux près de la source, les bibliothèques peuvent gérer cette fonction en relation possible avec DOI, ORCID et ROR ;
la préservation revient tout aussi naturellement aux bibliothèques (voir LOCKSS Lots of copies keeps stuffs safe)
la certification offre une garantie de provenance : une institution légitime témoigne de la légitimité de ses chercheurs et de leurs travaux ;
l’évaluation est différentes de la certification et se situe après la publication proprement dite (principe du preprint) où ne subsite d’un filtrage technique plus léger (modèle de PLOS ONE). On la traite donc en dehors de toute publication.
La document est alors publié en libre accès, c’est un preprint, et s’ouvre donc à un discussion plus large.
Un peu comme dans Wikipédia, l’intérêt d’un texte publié augmente avec la discussion qui l’entour.
un texte publié peut évoluer en versions multiples.
la plateforme de publication maintient un registre des versions soumises (modèle F1000, lui même copié sur les programmes informatiques).
Attribution, préservation, certification, et mise à disposition, ces étapes correspondent au concept de inside out library de Lorcan Dempsey.
Mais tout cela ne règle pas le problème du capital symbolique.
- Pour obtenir ce capital, il faut l’intervention d’instances qui s’engagent dans l’évaluation de la recherche. Les universités et labos de recherche ne peuvent pas s’auto-évaluer, de plus disciplinée par la compétition et le FI, elles acceptent la notion de capital symbolique des publishers
- mais les organisme de financement, en revanche, ne sont pas directement disciplinée de cette façons, ils peuvent définir leurs propres règles d’évaluation (préférables en relation avec les chercheurs).
Il faut donc une alliance suivie entre ces financeurs et institutions de recherche.
Il faut créer de nouveaux indicateurs et un réseau de plateformes propres à accueillir et valoriser les travaux émanant des institutions du réseau; voir aussi les Capacity hubs.
Toutes les institutions de recherche impliquées devront s’engager sur deux points :
- abandonner toute forme d’évaluation de la recherche fondée sur le classement des périodiques ;
- élaborer avec les chercheur diverses formes d’évaluation correspondant à des objectifs variés.