Un bref historique de l’édition scientifique en libre accès

[en cours de rédaction]

La diffusion en libre accès (Open Access, OA) des articles, revues, livres et données de la recherche doit son succès à une suite d’avancées techniques, juridiques et politiques initiées dans les années 60, mais qui ont gagné en importance à partir de 2010 environ. Plusieurs acteurs ont joué un rôle dans l’émergence d’un phénomène encore en cours d’évolution. Se trouvent en premier lieu les auteurs d’articles de différentes disciplines, les éditeurs commerciaux et académiques, les universités qui négocient les abonnements auprès des éditeurs, les organismes de financement de la recherche. Quelques prédateurs et pirates jouent également un rôle.

Les premières tentatives de mutualisation des prépublications peuvent être datées du milieu des années 60 dans les domaines de la biologie et de la physique. Les années 70 et 80 et 90 sont marquées par l’augmentation du volume des publications, l’émergence des microfilms et microformes. L’informatique personnelle et le web deviennent successivement mis au point et se trouvent largement adoptés. L’édition imprimée adopte à marche forcée le format électronique. Les termes de “voie verte”, “voie dorée”, “voie diamant”, “voie grise” de diffusion ouverte correspondent à des appellations récentes dont quelques origines sont ici évoqués. Alors que des publications basées partiellement ou entièrement sur les données de la recherche (code informatique, images, enregistrements de bases de données, documents audios et vidéos) deviennent mis à disposition du public, des acteurs anciens et nouveaux s’engagent dans la mise en ligne de documents d’intérêt patrimonial.

Un bref historique de l’édition scientifique en OA est ici proposé dans lequel les faits principaux sont complétés de quelques anecdotes. Une observation sur le temps long de 1960 à 2020 est choisie dans le but d’obtenir une chronologie aussi fiable que possible d’événements qui ont influencé l’édition scientifique. Les pratiques de diverses disciplines en différentes époques sont explorées avec une attention particulière portée aux sciences humaines.

  1. La voie verte
    • 1.1 Préhistoire des prépublications
    • 1.2 Émergence d’Internet
    • 1.3 L’informatique personnelle
    • 1.4 Le web
    • 1.5 Traitement de texte et PAO
    • 1.5 De SPIRES à ArXiv
    • 1.6 Développement des archives ouvertes
  2. Les voies dorées
    • 2.1 OpenEdition
    • 2.2 Autres plateformes
    • 2.3 Les éditeurs et les bibliothèques
    • 2.4 Facteur d’Impact et autres métriques
  3. La voie diamant
  4. Des voies grises et noires
  5. Les revues anciennes
  6. Données de la recherche
  7. La revue par les pairs
  8. Les éditeurs, négociation des abonnements
  9. Aspects éthiques, juridiques et politiques

1. La voie verte

C’est essentiellement après la seconde guerre mondiale que la pratique de revue par les pairs des articles scientifiques s’étend progressivement. Cette tâche autrefois dévolue au rédacteur en chef devient confiée à un comité de lecture et considérée comme garante de la qualité des publications. Cependant et depuis les années 60, le nombre des experts disponibles dans chaque domaine se montre réduit et le temps qu’ils peuvent consacrer à la relecture limité. Des erreurs d’analyse ou des biais, voire des fraudes et des plagiats passent parfois la relecture et peuvent conduire à des rétractations. Si l’article n’est pas directement rejeté par la revue, le processus de validation nécessite du temps, des efforts longs et répétitifs. Cela peut retarder considérablement la publication. De premières expériences tentent d’apporter des remèdes à ces difficultés.

  • Retraction Watch : Lien

1.1 Préhistoire des prépublications

Matthew Cobb rappelle dans un article de 2017 les débuts du partage des prépublications dans les domaines de la biologie, de la médecine et de la physique aux États-Unis. Au début des années 60, Errett C. Albritton (1890-1984) alors âgé de 70 ans et en poste au National Institutes of Health (NIH) entreprend en compagnie de David E. Green (1910-1983) et Philip Handler (1917-1981) la création de plusieurs Groupes d’Échange d’Information, Information Exchange Groups (IEGs). Ces IEGs s’inspirent quelque peu du RNA tie club, un groupe actif lors de la découverte de l’ADN dans les années 50. Albritton souhaite organiser des échanges de notes informelles et de prépublications entre chercheurs de différentes disciplines et nationalités. De 1961 à 1967, les documents échangés par la poste via un bureau central localisé au NIH peuvent être une phrase, un paragraphe ou un article prêt à être soumis à un journal ou bien déjà soumis.

Supervisés par un président dont le rôle est la sélection des membres, 7 IEGs thématiques fonctionnent en 1965 sous la tutelle du NIH. Ces groupes échangent dans les domaines des acides nucléiques et de la génétique, de la simulation par ordinateur de systèmes biologiques, de l’hémostase, de l’interféron, etc. Le nombre des membres de chaque groupe de même que celui des mémos augmente. Globalement, plus de 400 scientifiques de 28 nationalités reçoivent 300 mémos par an. La question de protection de la priorité de diffusion est largement débattue, de même que celle d’une résistance possible des revues. 80 % des mémos sont des articles en prépublication.

Croissance de 1961 à 1965 du groupe IEG1, par Albritton, Cobb 2017 : Lien

Cette idée d’accélérer les échanges scientifiques se montre également présent en physique. Alors en poste à l’US Atomic Energy Commission, Charles Gottschalk (1928-2021) propose en 1965 la création d’un groupe d’échange nommé Physics Information Exchange (PIE). Les mémos seraient échangés entre bibliothèques universitaires plutôt qu’entre chercheurs. Les publications en physique peuvent rassembler jusqu’à plusieurs centaines d’auteurs. Les délais d’attente pour la revue par les pairs et la publication se montrent à cette époque importants, freinant les recherches.

L’initiative d’Albritton rencontre en 1966 la franche opposition de l’American Association of Immunologists. Les membres de la société savante éditent en effet The Journal of Immunology et une interdiction de publication des articles ayant préalablement circulé sous forme de mémo IEG est votée. D’autres journaux majeurs en biochimie et biologie moléculaire émettent la même préconisation. Les revues Science et Nature concernées par la longueur du processus de publication s’en prennent également aux deux initiatives dans une série d’articles parus en 1966. Le NIH annonce la cessation des IEGs en mars 1967. L’initiative PIE des physiciens rencontre des résistances similaires en provenance des chercheurs et maisons d’édition. Cependant, si la biologie s’avère longuement marquée par cette expérience avortée, des activités de diffusion des prébublications perdurent dans les bibliothèques des grands équipements de physique.

  • The prehistory of biology preprints: A forgotten experiment from the 1960s, Matthew Cobb, 2017 : Lien

Le signalement d’articles en attente de publication est en effet organisé au Stanford Linear Accelerator Center (SLAC, Californie) dès la création du centre et de la bibliothèque en 1962. Les détails de chaque prépublication et de chaque auteur sont entrés sous forme de fiche dans un catalogue. Le nombre des prépublications référencées croit de 300 par an en moyenne. L’informatisation de la bibliothèque du SLAC débute en 1967-1968. Une base de données tournant sur IBM 360 Model 91 est mise au point et nommée SPIRES (Stanford Physics Information REtrieval System).

Trois bibliothécaires du SLAC Louise Addis, Bob Gex et Rita Taylor reçoivent mandat en 1969 de l’US Atomic Energy Commission et de l’American Physical Society de diffuser toutes les semaines des listes d’articles en prépublication. Une liste de diffusion nommée Preprints in Particles and Fields (PPF) est créée et adressée par la poste à une centaine d’auteurs localisés dans de nombreux pays. L’idée est que ceux-ci adressent en retour leurs prépublications. La date d’entrée dans la base peut aussi servir de certificat d’antériorité. De plus Stanford est l’un des trois premier campus connecté à ARPANET avec l’UCLA et l’Université de l’Utah. L’envoi de messages électroniques entre terminaux d’ordinateurs centraux devient possible à partir de 1972.

La console de l’IBM 360 Model 91 à la NASA (et au SLAC en 1968) : Lien

La bibliothèque du Deutsches Elektronen-Synchrotron (DESY) localisée à Hambourg commence des activités similaires de référencement des prépublications en 1962. Un fichier carton nommé High Energy Physics – An Index (HEPI) est créé. Il contient toutes les publications, publiées et non publiées indexées à l’aide de 23 mot-clés choisis dans une liste contrôlée. La base croit au rythme de 900 articles par an environ. Les deux organismes décident de publier un fichier commun et en 1969, les spécifications de conversion de HEPI vers SPIRES sont finalisées. Des données sont périodiquement transférées d’Hambourg à Stanford et l’inverse. La base va se développer progressivement et la liste de diffusion va évoluer remarquablement avec l’arrivée en Allemagne d’ARPANET à partir de 1980.

D’autres travaux intéressant les bibliothèques en général débutent en 1965 à la bibliothèque du Congrès à Washington. Pilotée par l’informaticienne Henriette Avram et son équipe, l’informatisation (la mécanisation) du catalogue des livres, journaux et revues commencent. Les travaux aboutissent à la définition du format MARC II (MAchine-Readable Cataloging 2) en 1968. Les programmes sont écrits en COBOL, le langage de programmation créé en 1959 et dédié à l’informatique de gestion. Comme le souligne l’International Federation of Library Associations (IFLA), d’autres projets similaires démarrent à cette même époque dans d’autres pays (Canada, Allemagne, Suède, Royaume-Uni, États-Unis, URSS).

  • Physicists Thriving with Paperless Publishing, Heath B. O’Connell, 2000 : Lien
  • Louise Addis, First Monday, 2000 : Lien
  • The MARC II Format: A Communications Format for Bibliographic Data, 1968, Library of Congress, Avram, Henriette D.; And Others : Lien
  • 40 Years of Technology in Libraries: A Brief History of the IFLA Section on Information Technology, 1963/64 – 2003, Sally McCallum, 2003 : Lien

1.2 Émergence d’Internet

Les calculateurs au milieu des années 60 et 70 sont des ordinateurs centraux fonctionnant à l’aide de cartes perforées et localisés dans les ateliers de mécanographie des grandes entreprises et les centres de calcul des universités ou des armées. Les données sont traitées par lot, et le résultat d’un traitement prend en général une journée. De premiers systèmes d’exploitations, l’informatique en temps réel (interface en ligne de commande sur un moniteur dédié) et l’accès simultané de plusieurs utilisateurs à une même machine (le temps partagé ou time-sharing) sont successivement mis au point avec les efforts financiers de plusieurs entreprises, de plusieurs universités et du Département de la Défense. Des spécialistes de l’interface homme machine comme J.K.R Licklider, Robert W. Taylor ou Douglas C. Engelbart rêvent dès la fin des années 60 du bureau du futur alors que Kenneth Lane Thompson et quelques autres s’affairent aux Bell Laborataries non loin de New-York à l’écriture d’UNIX.

Une réunion de projet assistée par ordinateur, Licklider et Taylor, 1968, The Computer as a Communication Device

Des initiatives concernant les réseaux informatiques deviennent financées à partir de 1962 par l’Information Processing Techniques Office, une agence fondée et présidée pendant deux ans par Licklider. L’IPTO est une agence de moyens de l’Advanced Research Projects Agency (ARPA, renommé DARPA en 1972) localisée au Pentagone qui fait travailler conjointement des universitaires (MIT, UCLA) et plusieurs sociétés dont Bolt, Beranek and Newman (BBN). On s’affaire de part et d’autres des États-Unis à la mise au point du réseau ARPANET. L’UCLA, l’Institut de recherche de Stanford, puis l’Université de Californie à Santa Barbara et l’Université de l’Utah à Salt Lake City sont les premiers reliés à la fin de 1969. Des travaux fondamentaux concernent les protocoles de transfert des données, la mise au point des routeurs.

Un premier standard de transfert des données est mis en place sur lequel les membres de la BBN et l’UCLA se montrent particulièrement actifs. En 1972, Robert Kahn de BBN et du DARPA organise avec succès la première démonstration publique et à grande échelle d’ARPANET. Ray Tomlinson (BBN) programme la même année des fonctionnalités de courrier électronique. La première connexion trans-Atlantique est faite en 1973 entre le MIT et l’University College de Londres. En 1976, la messagerie électronique occupe 75% de l’activité du réseau et la reine Elisabeth médiatise l’envoi d’un message électronique transatlantique.

L’émergence du protocole Internet proprement dit peut être datée de 1974 avec la publication des travaux de Vinton Cerf (UCLA) et Robert Kahn “A Protocol for Packet Network Intercommunication”. Le déploiement de ce nouveau protocole de transmission des messages découpés en paquets uniformes ne se trouve mis en œuvre que dix ans plus tard. La DARPA décide en 1983 de séparer la partie de l’ARPANET appartenant aux Forces armées des États-Unis MILNET (Military Network), du reste du réseau pour mettre cette technologie dans le domaine public. En 1984, tous les sites d’ARPANET basculent sur le standard TCP-IP d’Internet.

  • The Computer as a Communication Device, 1968, J. C. R. Licklider, Robert W. Taylor
  • A Protocol for Packet Network Intercommunication, Vinton Cerf et Robert Kahn, 1974
  • Specification of Internet Transmission Control Program, RFC 675, 1974, Vinton Cerf : Lien
  • IP traffic measurements and analysis at CERN, Jouanigot, J M ; Martin, O H ; Yu, J,1993 : Lien
  • Robert E. Kahn, OH 192. Oral history interview by Judy E. O’Neill, 24 April 1990, Reston, Virginia. Charles Babbage Institute, University of Minnesota, Minneapolis. http://purl.umn.edu/107387
  • Oral History of Raymond (Ray) Tomlinson (2009) : Lien
  • Le réseau Arpanet, 50 ans déjà, 2019, une interview de Gérard Le Lann : Lien
  • D’Arpanet à Internet en France : quelques repères, 2021, Michel Elie : Lien
  • Histoire d’Internet : Lien

1.3 L’informatique personnelle

Plusieurs marques innovent au début des années 70 pour mettre au point les premiers ordinateurs personnels motorisés par une nouvelle génération de microprocesseurs connectés sur carte mère. Plusieurs marques lancent le mouvement. Les historiens citent le Vydec d’Exxon diffusé en 1973. De remarquables innovations en matière de matériel, de logiciel et d’interface homme machine sont mis au point au centre de recherche PARC de Xerox (Palo Alto Research Center). La programmation orientée objet (Smalltalk) permet la mise au point d’interfaces graphiques proches de celles actuellement connues. Le concept de WYSIWYG (What You See Is What You Get) est introduit. La souris à boule et trois boutons, de même que des interfaces graphiques trouvent de premières applications industrielles. Le Xerox Alto de 1973 propose la connexion Ethernet et la messagerie Internet. Cependant le succès commercial n’est pas au rendez-vous.

IBM se lance dans la course et élabore en 1973 dans son centre de Palo Alto non loin de chez Xerox un prototype nommé SCAMP (Special Computer APL Machine Portable) dont l’application commerciale est le PC 5100 d’IBM mis sur le marché en 1975. Les programmes et données sont enregistrés sur cassette à bande magnétique.

La recherche de supports de stockage externes peu onéreux et aisés à transporter aboutit à la mise au point en 1976 par Shugart Associates des disques souples de taille 5,25 pouces. L’effervescence reigne à cette époque et plusieurs constructeurs sont en lice pour lancer en 1977 le marché de l’informatique personnelle. L’Apple II, le PET 2001 de Commodore International, et le TRS-80 de Tandy RadioShack se vendent, équipés de lecteurs de cassettes et peu après de lecteurs de disques et d’imprimantes. Ces ordinateurs personnels suscitent l’apparition de forts nombreux logiciels. Parmi ceux-ci des jeux d’arcade et aussi des traitements de texte, des tableurs susceptible d’intéresser les entreprises.

Durant les années 80, de premières fournisseurs commerciaux comme CompuServe (IBM, format GIF), Prodigy, America Online, Worldcom proposent leurs services. Une première liaison Internet commerciale réunit l’Australie à Brooklin Massachusetts en 1989. Les services incluent des dialogues en ligne, la messagerie électronique, des services d’information en ligne, le téléchargement de jeux.

  • Oral History Panel on 5.25 and 3.5 inch Floppy Drives, Warren Dalziel, George Sollman, Don Massaro interviewed by Jim Porter, Recorded: January 3, 2005, Mountain View, California : Lien
  • Xerox PARC et la naissance de l’informatique contemporaine, 2012, Sacha Krakowiak, Interstices : Lien
  • History of personal computers : Lien

1.4 Traitement de texte et PAO

Les microordiateurs s’introduisent dans les secrétariats dès 1984 avec des modèles comme l’Apple Macintosh équipé de MacWrite (traitement de texte), VisiCalc (tableur) et MacPaint (traitement d’image).

1984 – The Apple Macintosh debuts.1984 – Hewlett-Packard introduces the LaserJet, the first desktop laser printer.1985 – Adobe introduces PostScript, the industry-standard Page Description Language (PDL) for professional typesetting.1985 – Aldus develops PageMaker for the Mac, the first “desktop publishing” application.1985 – Apple produces the LaserWriter, the first desktop laser printer to contain PostScript.1987 – PageMaker for the Windows platform is introduced.1990 – Microsoft ships Windows 3.0.

Les avantages du PC couplé à une imprimante et connecté à Ethernet et Internet s’avèrent importants dans un contexte professionnel. Des fichiers peuvent transiter entre auteurs, éditeurs commerciaux et imprimeurs de manière simplifiée et instantanée. Les dates des fichiers se trouvent enregistrées de manière automatique.

Les logiciels spécialisés ou logiciels de PAO permettent de réaliser des documents de qualité professionnelle combinant du texte et des images (photos, illustrations ou graphiques, notamment).
Les plus connus sont : Quark XPress, Adobe InDesign, Adobe PageMaker, Adobe Photoshop et Adobe Illustrator, ainsi que le logiciel libre Scribus.

1.5 Le web

L’abréviation Web désigne un ensemble de protocoles et de logiciels mis au point au CERN entre 1984 et 1988. Le protocole Internet de Cerf et Kahn notamment devient utilisé au CERN pour interconnecter les principaux systèmes informatiques internes, les stations de travail, les PC et un système de contrôle de l’accélérateur. Cependant, si les machines deviennent ainsi interconnectées et si les mails peuvent être échangés, ils n’existe pas alors de manière aisée de partager un document électronique comme une liste téléphonique par exemple.

En poste au CERN à partir de 1984, Timothy Berners-Lee élabore un certain nombre de théories. Les programmes écrits par les membres de son groupe doivent être disponibles en domaine public et pouvoir être échangés via Internet. Il propose le protocole HTTP (HyperText Transfer Protocol) en surcouche d’Internet pour transmettre des documents multimédias. Le code d’un serveur nommé CERN httpd est écrit et diffusé. Le langage HTML (HyperText Markup Language) est proposé pour éditer ces documents. Ce code balisé rend lisible les documents par un utilisateur averti ou bien par un navigateur, un logiciel dédié à la lecture de ce type de document.

Le protocole HTTP bâti au-dessus du protocole TCP/IP : Lien

Le navigateur développé est nommé WorldWideWeb. Il consiste en une interface graphique qui permet alternativement l’édition de texte en HTML ou la visualisation d’un document susceptible de contenir des liens vers des fichiers localisés sur d’autres serveurs. Des textes et des images peuvent ainsi être visionnés conjointement. Les développements résultent des travaux menés par une petite équipe de programmeurs rassemblés auteurs de Berners-Lee et de l’ingénieur belge Robert Cailliau.

Berners-Lee fonde le World Wide Web Consortium (W3C) en 1994, soutenu par le DARPA et la Commission Européenne. Il quitte le CERN en 1996 pour intégrer le MIT. Le protocole HTTP 1.0 devient diffusé dans la RFC 1945 en date de 1996, dans le respect du formalisme d’Internet. Plusieurs serveurs localisés en Europe et aux États-Unis se mettent à tourner.

  • Comment l’internet est arrivé au CERN, François Flückiger, 2013 : Lien
  • CERN httpd : Lien
  • WorldWideWeb (navigateur) : Lien
  • Brève histoire du Web, CERN : Lien
  • Nostalgique introspection du Next Cube, DadyRetro, 2012 : Lien
  • Hypertext Transfer Protocol — HTTP/1.0, RFC 1945X, T. Berners-Lee, 1996 : Lien
Le serveur sur NeXTcube au SLAC, Bebo White et Les Cottrell (chemise blanche), 2011 : Lien

1.6 Les bases bibliographiques : de SPIRES à ArXiv

Photographie de Paul Kunz 1998 avec NeXTcube au SLAC : Lien

Suite à une réunion européenne dans laquelle intervient TBL, Paul Kuntz installe en 1991 sur NeXTcube le premier serveur expérimental localisé aux États-Unis. Ce physicien travaille au SLAC en compagnie de Terry Hung et de Louise Addis. TBL en fait l’annonce au CERN. Louise Addis met en place un groupe de travail nommé “les WWWizards” dans le but de faciliter la diffusion des contenus de la base de prépublication SPIRES-HEP. Il est composé des informaticiens Mark Barnett, George Crane, Bebo White et Joan Winters, des physiciens Tony Johnson et Paul Kuntz. 5000 utilisateurs répartis dans 40 pays utilisent SPIRES-HEP au début des années 90.

  • Early Chronology and Documents (1991-1994) : Lien
  • SLAC WWW Wizards, 2000 : Lien

Les chercheurs en physique des hautes énergies font grand usage de TeX pour écrire leurs articles scientifiques. Précédemment organisés par envoi de photocopie et de fax les échanges de prépublications en texte intégral sont organisés par messagerie électroniques depuis 1985. Employé au Los Alamos National Laboratory, Paul Ginsparg crée l’entrepôt d’articles en pré-publication ArXiv en 1991 et promeut l’auto-archivage des publications.

  • The global-village pioneers, PhysicsWorld, 2008 : Lien

RENATER est créé en 1993. Les membres de RENATER sont le ministère de l’Éducation nationale de la jeunesse et des sports, le ministère  de l’Enseignement supérieur, de la Recherche et de l’Innovation, ainsi que des organismes de recherche, le CNRS, la CPU, le CEA, Inria, le CNES, Inrae, l’Inserm, l’Onera, le Cirad, l’IRD et le BRGM. L’INRIA devient en 1995 le premier hôte européen du W3C.

1.7 Développement des archives ouvertes

Les bibliothèques OCLC DC.

L’exemple de Ginsparg se trouve suivi par plusieurs organismes dans un contexte d’amélioration des matériels, logiciels et réseaux. Carl Lagoze, Herbert Van de Sompel, Michael Nelson et Simeon Warner organisent à Santa Fe en 1999 la conférence Open Archives Initiatives. Des mécanismes techniques sont discutés (Dublin Core, OAI-PMH) pour assurer l’interopérabilité des archives ouvertes nouvellement créées. Dans la foulée de Ginsparg, le physicien Frank Laloë crée en 2001 la plateforme HAL et met en place le Centre pour la communication scientifique directe pour maintenir les outils nécessaires à l’archivage, la diffusion et la valorisation des publications françaises.

Plusieurs logiciels web susceptibles de faciliter le déploiement d’une plateforme d’auto-archivage deviennent développés et sont mis à disposition sous licence libre. L’Université de Southampton publie en 2000 le logiciel EPrints. Le MIT développe DSpace en 2002. D’autres suivent parmi lesquels Fedora Commons (Cornell University, 2003), puis CDSware / Invenio (CERN, 2013). La médecine emboite le pas à la physique à partir de 2000. L’entrepôt centralisé en libre accès PubMedCentral est mis au point par la National Library of Medicine. Il rend possible à partir de 2007 l’accès au texte intégral à l’issue d’une barrière mobile de 12 mois pour tout article financé par le National Institute of Health (NIH).

De nombreuses universités, institutions et organismes bailleurs de fonds deviennent alors intéressés par ce genre d’entrepôt, non seulement pour archiver les prépublications mais encore les articles publiés, des rapports de colloques, thèses, mémoires, cours, jeux de données et autres types de documents. L’université du Minho en 2004 au Portugal, se montre la première à exiger le dépôt des travaux de ses enseignants, ce qui entraîna une croissance forte en terme de contenu du dépôt institutionnel local. Une première étape d’ouverture des publications scientifiques devient appelée la voie verte du libre accès.

L’université de Southampton publie à partir de 2003 le Registry of Open Access Repositories (ROAR). Le nombre d’entrepôts et d’articles déposés croit régulièrement dans les entrepôts. Lancé en 2005, le site OpenDOAR maintenu par l’Université de Nottingham référence les archives ouvertes. 159 archives ouvertes françaises sont référencées en 2021. Les statistiques portent sur le nombre d’entrepôt, les logiciels, les types de contenus, les disciplines scientifiques. Si la majorité des archives ouvertes stocke des articles de journaux, d’autres types de contenus et des thèmes scientifiques particuliers se montrent couverts.

Types de contenus des archives ouvertes, d’après OpenDOAR, 2021 : Lien

Les différentes versions d’un article (version soumise, version acceptée) deviennent visibles. Les revues diffusent essentiellement sur support papier, et pour les scientifiques, les motivations pour la mise en libre accès apparaissent diverses. D’une part, des travaux en cours de publication gagnent en visibilité et en rapidité de mise en ligne. De l’autre, les incitations et exigences des tutelles pour référencer les publications se font progressivement plus pressantes. Les instituts de recherches, les fondations ou les gouvernements mettent en place des politiques de mandat pour la diffusion en libre accès.

Les préoccupations s’avèrent multiples également du côté des éditeurs. De nombreux regroupements et rachats sont effectués à cette époque, dans le but de pouvoir soutenir financièrement le passage de l’édition papier à l’édition numérique. Mêlant contenus réservé et rendus libres à échéance, de couteux sites web synonymes de possibles profits sont à mettre en place dans un contexte de croissance du volume des publications et de moindre durée de l’accès réservé.

  • The Santa Fe Convention of the Open Archives Initiative, Herbert Van de Sompel, 2000, D-Lib Magazine : Lien
  • Registry of Open Access Repositories, Université de Southampton, 2003 : Lien
  • OpenDOAR, Université de Nottingham, 2005, statistiques : Lien
  • Les préprints : guide pratique, Kristina Hettne et Al, 2020 : Lien
Actualités de l’Open Access, 2013 : Lien

2. Les voies dorées

Définies par le fait que le lecteur n’a rien à payer pour accéder à une publication scientifique sur Internet, les voies dorées du libre accès se constituent à partir de 1995 environ. De premiers journaux exclusivement numériques sont mis au point par de nouveaux entrants de même que par les éditeurs traditionnels. L’éditeur à but lucratif et accès libre BioMed Central débute ses activités en 2000 dans les domaines de la médecine. Les frais de traitement des articles, encore appelés “Article Processing Charge (APC)” constituent la seule source de revenus. A noter que l’édition de livre en accès libre ou non s’accompagne également de “Book Processing Charge (BPC)”.

Trois catégories de revues en voie dorée peuvent être distinguées en fonction de ce que paient l’auteur et le lecteur. 1/ voie dorée avec APC. Que la revue soit en libre accès ou non et ceci depuis les années 1930, certains éditeurs font payer aux auteurs et à leurs institutions les frais de traitement des articles. L’auteur peut choisir de publier dans une revue diffusant exclusivement en libre accès. 2/ revues sur abonnement payant appliquant un embargo. Des éditeurs publient leur contenu en accès ouvert. Le contenu récent est placé en accès réservé. L’accès devient ouvert à expiration de barrières mobiles dont la durée va de 6 mois à 3 ans. La vente d’articles à la demande peut être présente pour répondre aux besoins des lecteurs qui ne souhaitent ou ne peuvent pas souscrire un abonnement. 3/ modèle hybride avec APC. Les revues de certains éditeurs admettent la publication d’articles soit avec embargo, soit en libre accès, en fonction du montant de l’APC fourni par l’auteur.

Le DOAJ, répertoire public des revues en libre accès (Directory of Open Access Journals, DOAJ), comptait 13 100 revues à comité de lecture en libre accès total (29 avril 2019), dont 73 % étaient sans frais de publication pour les auteurs (9 606 revues) et 26 % étaient avec des APC (3 436 revues). De petits éditeurs académiques, nombreux dans le domaine des sciences humaines, mais publiant chacun un faible nombre d’articles font confiance à de nouveaux intermédiaires financés en partie publiquement.

  • Open access : Lien
  • Hybrid open-access journal : Lien

2.1 OpenEdition

La plateforme “Revues.org” est créée en 1999 par Marin Dacos dans le but de publier électroniquement des revues dans le domaines des sciences humaines. Les revues à comité de lecture deviennent ainsi diffusées de manière imprimée et électronique. Des revues nouvellement créées peuvent choisir une simple diffusion en ligne. Le service repose sur le Centre pour l’édition électronique ouverte (Cléo), organisme soutenu par le CNRS, l’École des hautes études en sciences sociales, l’université de Provence et l’université d’Avignon. Un conseil scientifique est mis en place, des innovations en matière d’édition électronique sont apportées pour faire fonctionner un système d’édition innovant basé sur l’éditeur Word de Microsoft. Dans le workflow éditorial, des documents au format Word sont stylés, puis successivement soumis à deux sites centralisés : une plateforme transcode Word en XML (Servoo, SDX) et le logiciel Lodel permet de gérer les volumes, numéros et articles.

Puis le service d’édition de livre OpenEdition Books est mis au point à partir 2013 en reprenant en grande partie le workflow éditorial de “Revues.org”. Parmi les premiers éditeurs à ainsi publier des livres en accès ouvert ou réservé, on dénombre les Éditions de l’ENS, les Éditions de l’EHESS, les Presses universitaires de Rennes, Open Books Publishers, CEU Press. Plusieurs appellations sont changées en 2017 afin de donner un aspect unifié et d’augmenter la visibilité nationale et internationale de l’organisme et de ses services. Le Cléo devient renommé OpenEdition Center, Unité de service et de recherche (USR 2004). “Revues.org” devient OpenEdition Journals. Les services gratuits Calenda (événements) et Hypotheses.org (blog scientifique) complètent l’offre et conservent leur nom.

La stratégie commerciale adoptée par OpenEdition se montre à géométrie variable en quelque sorte. Le catalogue d’OpenEdition Journals indique en 2021 la présence de 569 revues dont 283 en libre accès, 179 en libre accès Freemium, 63 avec barrière mobile, et 44 avec barrière mobile et accès via la plateforme privée Cairn avec laquelle des relations éditoriales sont entretenues. OpenEdition Books indique un total de 11999 livres, dont 707 en libre accès complet, 9220 en libre accès Freemium, 2068 en accès exclusif. OpenEdition nomme “Freemium” des textes accessibles en libre accès au format HTML par tout internaute, et téléchargeables aux formats PDF et ePub uniquement pour les utilisateurs des institutions partenaires.

L’organisme entreprend des collaborations nationales et internationales et de nombreux partenariats sont signés. L’organisme et ses partenaires européens sont regroupés en un consortium destiné à concevoir une infrastructure de communication scientifique ouverte en sciences humaines et sociales : OPERAS. L’objectif est d’offrir un ensemble de services susceptible d’améliorer la diffusion et le référencement des contenus scientifiques en accès ouvert. OpenEdition et la fondation néerlandaise OAPEN créent la fondation DOAB (Directory of Open Access Books) dans le but de promouvoir la biblio-diversité dans la science ouverte.

Du côté des R&D, OpenEdition Lab développe quatre axes de recherche :

  1. Un laboratoire ouvert : un dispositif d’accueil et d’accompagnement des équipes de recherche et l’ouverture des données du laboratoire au bénéfice de la communauté scientifique.
  2. Science ouverte et société : des expérimentations pour renforcer les liens entre la science ouverte et la société.
  3. Comprendre les usages : des recherches sur les usages des utilisateurs et utilisatrices des plateformes d’OpenEdition par des analyses quantitatives et qualitatives.
  4. Fouille de textes et de données : le développement d’approches nouvelles et de nouvelles connaissances sur la recherche d’information et les recommandations de lecture. 

En ce qui concerne les aspects informatiques, OpenEdition diffuse sur GitHub un certain nombre d’intéressantes applications et de documentations. Le logiciel Lodel (LAMP) diffusé sous licence GPLv2 motorise les deux plateformes d’édition et constitue l’application cœur. Le passage en 2014 de la version 0.8 à la version 1.0 a été sans doute un moment intense pour les services informatiques, du fait de changements importants dans le workflow éditorial. Les schémas de métadonnées utilisés et adaptés pour le fonctionnement incluent TEI (pour encoder les textes à publier) et METS (pour référencer les collections, numéro de revue, volume, article et de livres).

  • Maison des revues et des livres, OpenEdition : Lien
  • Revues.org devient OpenEdition Journals, 2017 : Lien
  • Revues.org : une plateforme d’édition électronique au service des sciences humaines et sociales, Pierre Mounier, 2011 : Lien
  • Le programme OpenEdition Freemium, Les services d’OpenEdition > Institutions : Lien
  • Publication de Lodel 1.0 et OTX 1.0 !, Jean-François Rivière, 2014 : Lien
  • OpenEdition : GitHub

2.2 Autres logiciels et services de publication en libre accès

D’autres solutions informatiques remarquables sont mises au point au début des années 2000, contribuent au développement de la voie dorée et restent développés et maintenu. Le Public Knowledge Project, un organisme canadien à but non lucratif, se montre à l’origine en 2001 d’Open Journal System (OJS). Le logiciel ambitionne de faciliter l’édition des revues à comité de lecture en accès ouvert. Le flux éditorial et la mise en ligne des numéros et articles sont gérés par la même application web. Les articles sont mis en ligne au format PDF ou HTML.

D’autres plateformes de publication ouverte fonctionnent sur des principes équivalents et mettent à disposition du public des revues, des articles et des livres scientifiques. Il est possible de citer ainsi au Canada “erudit.org”, plus récemment NumeRev dans le domaine des SHS à Montpellier. Dans d’autres domaines EDP Sciences, centre Mersenne (Mathdoc) à Grenoble, à l’Université de Bordeaux la Plateforme de revues scientifiques en accès ouvert.

  • Plateforme de revues scientifiques en accès ouvert, Université de Bordeaux : Lien
  • EDUL – Éditions de l’Université de Lorraine : Lien

2.3 Les éditeurs et les bibliothèques

Du côté des éditeurs commerciaux (Elsevier, Springer Nature, Wiley, Taylor & Francis, the American Chemical Society), au moment où les technologies rendaient possible un accès large et instantané aux revues scientifiques, l’accès devenait limité pour des raisons du coût des abonnements aux bouquets des éditeurs. Des négociations annuelles menées au niveau national en France par le consortium Couperin ne parvenaient plus à juguler l’augmentation du prix des abonnements. En plus d’accaparer une partie des financements de la recherche publique, ce système favorisait l’accroissement des inégalités d’accès au savoir. Chaque institution doit en effet toujours négocier sous le sceau du secret le montant des abonnements auprès des éditeurs commerciaux.

Les bibliothèques entrent en jeu pour centraliser l’offre et monnayer les abonnements à des bouquets de revues (ScienceDirect, MUSE, JSTOR, etc) et à des bases bibliographiques spécialisées. Face à ce constat, les bibliothécaires ont joué un rôle en promouvant le libre accès et en alertant le corps enseignant et les administrations sur la crise provoquée par ces partenaires difficilement contournables. De nouveaux acteurs privés ou à but non lucratif se sont emparés de la voie dorée pour la décliner en possibilités commerciales économiquement viables. Plusieurs modèles furent successivement mis au point dans les années 2000.

Dans le modèle auteur-payeur, l’accès au document est libre pour le lecteur mais l’auteur ou son institution payent des frais appelés Article processing charges (APC) dont la forme prend celle d’un coût à l’article payé au moment de la publication. Le montant des APC varie selon les revues de quelques centaines à plusieurs milliers d’euros. Ainsi la revue multidisciplinaire de langue anglaise PLOS One éditée par la Public Library of Science débute ses activités en 2008. Le coût de publication d’un article sur PLOS One est actuellement de 1 595 dollars. La revue uniquement numérique accepte en 2011 69 % des articles soumis après une évaluation réalisée par en moyenne 2,9 experts. Elle inaugure un nouveau type de revue en libre accès nommé mégarevue et caractérisée par une diffusion exclusivement numérique, une couverture multidisciplinaire, un important nombre d’articles publiés.

De nouveaux intermédiaires trouvent leur place à côté des bibliothèques. Fondée en 1995, la société américaine à but non lucratif JSTOR est créée pour fournir aux bibliothèques un système d’archivage en ligne des publications universitaires et scientifiques auxquelles elles sont abonnées. Un service de numérisation est également proposé. JSTOR propose le libre accès en 2021 à 84 revues et plus de 7000 livres en provenance de 90 éditeurs. Des collections d’archives et avec Artstor à plus d’un million de documents images,audio et vidéo sont mis à disposition sur fonds publics. Des métadonnées et le texte intégral sous forme d’OCR de revues anciennes est fourni gratuitement pour des usages non commerciaux d’exploration de données.

La plateforme privée Cairn en accès ouvert propose gratuitement une part non négligeable de ses contenus en Open Access. Une part également significative est commercialisée : paiement à la revue, au livre ou au magazine.

  • La voie dorée ou gold open access concerne des revues ou ouvrages nativement en open access, dès leur publication, Couperin : Lien
  • Evolution of the scholarly mega-journal, 2006–2017, 2018, Bo-Christer Björk : Lien
  • Open and free content on JSTOR and Artstor : Lien
  • JSTOR and Artstor, Text-mining support : Lien

3. La voie diamant

La revue D-Lib Magazine (1995 – 2017) constitue un des premier titre significatif publié exclusivement en HTML sur le thème des bibliothèques numériques, gratuit pour l’auteur et immédiatement lisible par le lecteur. Dans le “modèle diamant”, les revues sont en libre accès complet et immédiat. Elles donnent l’accès gratuit à tous les articles qu’elles publient sans que les auteurs ou leur institution n’aient à payer d’APC. Les revues diamant tendent ainsi à rétablir le modèle de publication des sociétés scientifiques en faisant les frais de la mise en page au format physique des articles et en se passant des revenus publicitaires. La qualité scientifique reste apportée par le comité de lecture.

Les épi-revues suivent ce modèle dans lequel les coûts cachés se trouvent répartis entre auteurs, éditeurs et institutions. Elles peuvent être considérées comme une « sur-couche » aux archives ouvertes; elles apportent une valeur ajoutée en apposant la caution scientifique d’un comité éditorial. Lancé par le Centre pour la Communication Scientifique Directe en 2014, organisme également auteur de HAL, la plateforme Episciences constitue à la fois un site web et un logiciel libre. Le processus de soumission des articles commence par un dépôt dans une archive ouverte. Puis l’article est évalué par le comité de lecture de l’épi-revue aidé du logiciel Episciences et il peut être ainsi validé par les pairs ou bien rejeté, auquel cas il reste dans l’entrepôt. La première revue publiée est le Journal of Data Mining and Digital Humanities (projet CNRS, INRA et INRIA). 20 revues sont référencées en 2021. Certaines comme “Discrete Mathematics & Theoretical Computer Science” se distinguent en transférant sur Episcience l’historique des publications à partir de 1998. La revue EPIGA (Epijournal de Géométrie Algébrique) est soutenue par l’Université de Lorraine.

Créée en 2018 par un organisme à but non lucratif basé à Nice, la plateforme Peer Community In (PCI) base son flux éditorial sur la recommandation de préprints ou d’articles publiés par ailleurs. L’initiative PCI est soutenue par de nombreuses institutions valorisant dans leurs pratiques la science ouverte et la bibliodiversité, telles que le CNRS, l’INRAE ou l’INEE.

  • A 25 Year Retrospective on D-Lib Magazine, 2020, Michael L. Nelson, Herbert Van de Sompel : Lien
  • Diamond open access : Lien
  • EPIsciences, plateforme d’épirevues : Lien
  • Document de synthèse : descriptif d’Episciences, Jean-Luc Archimbaud, 2015 : Lien
  • Discrete Mathematics & Theoretical Computer Science (1998 -) : Lien
  • CCSDForge; Episciences, An overlay journal platform, dépôt Git : Lien
  • Peer Community In PCI (2018) : Lien

4. Des voies grises et noires

Lancés à partir de 2008 les réseaux sociaux académiques “Academia.edu”, ResearchGate MyScienceWork permettent aux chercheurs d’y déposer les PDF de leurs publications, mais n’offrent pas les garanties des archives ouvertes, en particulier en termes de pérennité. Le réseautage s’y montre incité et les mails envoyés par robot de recommandation – sur la base des contenus précédemment consultés – s’avèrent aussi pertinents que parfois intrusifs et non sollicités.

Enfin les sites Library Genesis (2008) et Sci-Hub (2011), très riches en contenus et largement utilisés sont des archives ouvertes pirates. Selon le point de vue, elles peuvent être perçues comme une atteinte au droit légitime de propriété intellectuelle ou comme une entreprise mondiale d’émancipation de la science. Depuis début mars 2019 en France, le tribunal de grande instance de Paris a ordonné aux fournisseurs d’accès à Internet de bloquer les accès.

L’affaire Aaron Schwartz, les revues prédatrices

5. Les revues anciennes

Les revues anciennes constituent en nombre la plupart des titres des grands éditeurs. Des titres de revues orphelins, ne dépendant d’aucun éditeur ou relevant du domaine public, existent également et plusieurs organismes se sont lancés dans la numérisation et la réédition de ces titres.

Google, Internet archive, Persée, BnF, http://documents.irevues.inist.fr/, artheque, NumDam, cirmath

6. Données de la recherche

thèses, cahiers de laboratoires, colloques, manuels, polycopiés, brevets, catalogues de produits, notes techniques, rapports, normes, règlements, demandes de subventions, voire scénarios de films

Science reproductible, biais de publication

Le wiki Cat OPIDoR référence 128 de ces entrepôts dont 33 concernent en 2021 le domaine des sciences humaines. Parmi ceux-ci le Conservatoire National des Données 3D, DOREL (Université de Lorraine), Nakala, Ortolang, pour n’en citer que quelques uns en relation avec les activités des AHP-PReST.

>>>Les données de la recherche servent de base à deux nouvelles sortes de publications : les articles comportant des liens vers des données entreposées de manière pérenne, versionnées et sécurisée, les datapapers pour lesquels des sources et données sont soumises à évaluation par les pairs.

  • Données de la recherche hier et aujourd’hui : pour une histoire politique du travail en sciences humaines et sociales, Christelle Rabier et Camille Noûs, 2019 : Lien
  • Données de la recherche – 3. Aspects techniques, Frédérique Bordignon, bibliothèque de l’École des Ponts ParisTech : Lien
  • Cat OPIDoR, Entrepôt de données : Lien
  • Publier un data paper : où et comment ? DATACC : Lien
  • Sciences ouvertes à l’Université de Lorraine, Accompagnement aux données : Lien

7. La revue par les pairs

8. Les éditeurs, négociation des abonnements

8.1 Les éditeurs

La plupart des éditeurs acceptent de nos jours la voie verte et proposent de revues en voie dorée ou hybride. Certains se sont spécialisés comme PLos par exemple et ne proposent que des revues en accès libre, voie dorée.

The state of OA: a large-scale analysis of the prevalence and impact of Open Access articles, 2018 : Lien

8.1.1 Elsevier

Nommée en hommage à l’illustre famille d’éditeurs Elzevier, la société d’édition Elsevier est fondée en 1880 par deux libraires néerlandais, George Lodewijk Funke (1836-1885) et Jacobus George Robbers (1838 – 1925). Le siège social est localisé à Amsterdam. Reed Elsevier est renommé groupe RELX en 2015 et le siège social est localisé à Amsterdam. Parmi les filiales du secteur de l’édition Elsevier BV, Academic Press, Elsevier Masson (EM). Les activités principales sont l’édition de livres de formations et la publication de revues de biologie, médicales et paramédicales.

  • Elsevier Open Access : Lien
  • Synthèse sur la stratégie d’Elsevier, EPRIST, 2018, Pierre-Carl Langlais : Lien

8.1.2 Springer Nature

Springer Nature was formed in 2015 by the merger of Nature Publishing Group, Palgrave Macmillan and Macmillan Education (held by Holtzbrinck Publishing Group) with Springer Science+Business Media (held by BC Partners). Plans for the merger were first announced on 15 January 2015. The transaction was concluded in May 2015 with Holtzbrinck having the majority 53% share.

In December 2020, John Wiley & Sons acquired Hindawi Limited for an enterprise value of $300 million.

Syndicat national de l’édition (SNE) et de la Fédération nationale de la presse d’information spécialisée (FNPS)

  • Communiqué du Syndicat national de l’Edition et de la Fédération nationale de la Presse d’Information Spécialisée
  • Proportion of Open Access Papers Published in Peer-Reviewed Journals at the European and World Levels—1996–2013, 2014, Science Metrix, Archambaul et Al : Lien
  • Open Data, The Researcher Perspective, Elsevier, 2017, Stephane Berghmans et Al. : Lien
  • Going for gold: exploring the reach and impact of Gold open access articles in hybrid journals, Springer Nature, 2021 : Lien

8.3 Facteur d’impact et autres métriques

Que les revues soient en accès ouvert ou non, le facteur d’impact (FI) des revues est un élément à prendre en considération. Eugene Garfield (1925 – 2017) se montre le créateur de cette métrique que Google s’est en quelque sorte réapproprié à l’aide de son algorithme PageRank de classification des résultats de recherche. Garfield fonde en 1956 l’Institute for Scientific Information (ISI), racheté en 1992 par Thomson Reuters, puis intégré à Clarivate Analytics en 2016. Le facteur d’impact reste un indicateur évoqué dans la plupart des disciplines. Le service en accès réservé Web of Science Master Journal List spécifie les revues en OA, et commercialise le FI.

Face à cette situation monopolistique, le groupe Elsevier ouvre en 2004 le site Scopus. La plateforme référence actuellement 39 237 journaux scientifiques, dont 5 598 titres en libre accès, 1628 livres et fournit le facteur CiteScore. Google Scholar débute ses activités en 2004 également. Le moteur de recherche inventorie des articles, des thèses, des livres scientifiques et les citations. Un facteur d’impact des revues nommé h5 et en accès libre est également calculé et proposé à la onsultation. Favorisant les acteurs anciens et anglophones, la pertinence de ces scores reste d’une part largement acceptée par la plupart des institutions, d’autre part toujours discuté, particulièrement dans le domaine des sciences humaines.

Il existe des controverses sur l’effet réel de la mise en OA sur le facteur d’impact des revues, sur le nombre des téléchargements et le supplément d’attention des lecteurs. Une étude canadienne datée de 2017 menée dans le domaine des sciences exactes conclut à l’absence d’effet et au fait que la voie verte se montre financièrement plus avantageuse que les voies dorées. L’éditeur Springer Nature propose en 2021 un rapport affirmant un fort effet sur les citations et le nombre de téléchargements.

Des métriques alternatives nommées Altmetrics (Alternative metrics) ont été mises au point récemment. Elles compilent un ensemble de données du web pour quantifier l’influence des chercheurs ou des publications. Elles complètent ainsi les mesures traditionnelles en évaluant les indicateurs comme les mentions dans les blogues ou Wikipédia, les téléchargements et partages dans les médias sociaux.

Les auteurs eux-mêmes, leur influence et la fréquence avec laquelle leurs articles sont cités, leur présence sur les réseaux, leur renommée en quelque sorte se trouve quantifiée avec le h-index, un indice accessible par exemple depuis Scopus Preview. Le nombre de leurs citations est également examiné.

  • Le marché de l’édition scientifique, entre accès « propriétaire » et accès « libre », 2010, Joëlle Farchy, Pascal Froissart, Hermès : Lien
  • h5 Google Scholar ranking > Engineering & Computer Sciences > Library & Information Science : Lien
  • h5 Top 20 publications matching Philosophia : Lien
  • Measuring a journal’s impact, Elsevier : Lien
  • Measuring the Impact of Gold and Green Open Access, Zhang, Li Watson & Erin M., 2017-06 : Lien
  • Altmetrics, Bibliométrie et impact de la recherche, Université Laval : Lien

8.4 Les bibliothèques et négociateurs d’abonnements

Fédérations de bibliothèques : IFLA, Association of Research Libraries, BnF, ABES, Couperin

9. Aspects éthiques, juridiques et politiques de l’édition

9.1 Aspects éthiques

La hausse globale du nombre d’articles pendant la pandémie de Covid-19 s’est accompagnée d’une hausse des rétractations. Pour les expliquer, plusieurs hypothèses peuvent être soulevées : la demande d’avancées scientifiques rapides, le développement des nouveaux modes de publication (preprints, Open Access…) et la pression du publish or perish liée au système d’évaluation des chercheurs. L’analyse de soixante-cinq articles rétractés montre que le fait d’être prépublié (RC = 17,3 ; IC à 95 % = 4,8 à 111,1), d’avoir été commenté sur PubPeer ou sur le serveur de prépublication (p < 0,001) ou d’avoir une forte mesure alternative d’impact (p < 0,001) sont parmi les variables associées significativement à la rétractation.

Il convient sans doute dans cette étude de chercher les personnes à l’origine de la rétractation. S’agit-il des chercheurs eux-mêmes qui n’ont pas voulu conserver un article entaché d’erreurs ? Lorsqu’un article n’est rétracté qu’à la demande d’une partie des co-auteurs, ou de la direction de la revue, ou par l’institution qui emploie le ou les scientifiques fautifs, le signe envoyé en direction du chercheur et de la revue concernée se montre négatif.

  • Analyse exploratoire des déterminants de rétractation d’articles scientifiques : l’exemple de la Covid-19, 2021, Hélène Lepetit : Lien
  • Rétracter un article scientifique a du bon, 2019, Sylvestre Huet : Lien

8.2 Aspects juridiques

Alors que les découvertes scientifiques appartiennent au domaine public, les œuvres scientifiques bénéficient de la protection des droits d’auteur, tant que les oeuvres écrites font preuve de créativité et d’originalité. Le droit d’auteur comprend les droits moraux inaliénables, et les droits patrimoniaux possibles à céder. Dans les contrats d’édition traditionnels, les droits patrimoniaux sont transférés aux éditeurs. L’Open Access associé à des licences de culture gratuites rompent avec ces pratiques et permettent une diffusion rapide des connaissances. Les auteurs qui publient en OA peuvent ainsi influencer positivement leur capital scientifique et augmenter leur h-index.

  • Ce que vous devez savoir sur le droit d’auteur et l’Open Access pour augmenter votre h-index. Want a better h-index? – All you need to know about copyright and open access, Revue de Chirurgie Orthopédique et Traumatologique, 2020, Janelise Favre, Tania Germond, Philippe Clavert, Philippe Collin, Aude Michelet, Alexandre Lädermann : Lien

8.3 Aspects politiques

L’ouverture complète de la science se trouve promue à partir du milieu des années 2000 environ par un ensemble d’universités et d’institutions rassemblés sous la bannière “OA publication funds”. Au niveau politique aux États-Unis, le représentant de la Californie Darrell Issa proclame en 2011 “La recherche sur fonds public est et doit continuer à être rendue accessible au public. Nous devons également protéger la valeur ajoutée par le secteur privé et nous assurer que persistent simultanément des activités commerciales et des activités sans but lucratif”.

En Europe à partir de 2018 le consortium “cOAlition S” regroupe les agences de recherche de douze pays européens. Le “Plan S” (en français dans le texte) est lancé dans lequel la lettre S signifie “Shock”. La publication des articles en voie dorée et immédiatement lisibles se trouve vigoureusement promue. De multiples résolutions et plans visant à ouvrir la science deviennent promulguées en France.

Rôle de l’ANR, des institutions, de l’Europe.

ROARMap : http://roarmap.eprints.org/dataviz.html

Déclaration de San Francisco sur l’évaluation de la recherche (2018) : https://www.ouvrirlascience.fr/wp-content/uploads/2018/12/DORA_French_V2.pdf

Législations

Consolidated Appropriations Act de 2007, accès au texte intégral 12 mois après publication.

Open Access Week (2007) : Lien

  • NIH Public Access Policy : Lien
  • Open-access mandate : Lien
  • Open Content and the Emerging Global Meta-University, 2006, Charles Vest, EDUCAUSE Review : Lien
  • Déclaration de Berlin sur le Libre Accès à la Connaissance en Sciences exactes, Sciences de la vie, Sciences humaines et sociales, 2003 : Lien
  • Appel de Jussieu pour la Science ouverte et la bibliodiversité, 2017 : Lien
  • ETUDES COPIST (CATALOGUE D’OFFRES PARTAGEES D’IST), Rapport de l’étude n° 3 – Modèles innovants de publication et d’édition scientifiques publiques : conditions de développement, Cabinet Ourouk, ISTEX, 2018 : Lien
  • Plan S, Making full and immediate Open Access a reality, 2018 : Lien
  • Science ouverte : la révolution nécessaire, CNRS Le Journal, 2020 : Lien

Conclusion

Les pré-bublications et publications en accès libre se trouvent de nos jours indexés dans des moteurs de recherche comme Google Scholar, Dimensions, Lens et OSF pré-prints. Des moteurs comme Scopus (Elesevier) les intègre dans ses profils d’auteurs et la voie verte se trouve ainsi obtenir de larges échos. Le Directory of Open Access Journals (DOAJ) fait état en 2021 de 17000 revues scientifiques ouvertes dont plus de 9000 concernent les Sciences humaines. Le Directory of Open Access Scholarly Ressources (ROAD) recense au niveau mondial 49550 revues ouvertes dont 919 françaises. Le réseau Mir@bel français recense plus de 11000 revues de tous domaines, dont 3542 françaises et fournit des liens vers les plateformes donnant accès aux revues.

Cette étude montre que les pratiques d’ouverture des publications et des données vont en augmentant. Ces changement d’usage sont avant tout promus par les chercheurs relayés activement par les organismes financeurs de projets comme l’ANR. Les éditeurs ont su trouver également des modèles innovants. Ces changement de pratiques se trouvent stimulés et récompensés. Les institutions et organismes financeurs implémentent et promeuvent au niveau local, national et européen des politiques, proposent des entrepôts de données et apportent des aides financières. Les outils mis en place ne devraient sans doute pas être considérés seulement comme des outils de stockage mais comme des instruments rendant possible la réutilisation des données, susceptibles de promouvoir la transparence et la collaboration.

  • Open access et bibliothèques, Alain Caraco, 2019 : Lien
  • Sciences ouvertes à l’Université de Lorraine, Publications ouvertes : Lien
1 Star2 Stars3 Stars4 Stars5 Stars (Pas encore noté)
Loading...

Laisser un commentaire