Un bref historique de l’édition scientifique en libre accès

[en cours de rédaction]

La diffusion en libre accès (Open Access, OA) des articles, revues, livres et données de la recherche doit son succès à une suite d’avancées techniques, juridiques, culturelles et politiques menées depuis les années 60 environ. Plusieurs acteurs ont joué un rôle clé dans l’émergence de ce phénomène encore en cours d’évolution. Se trouvent en premier lieu les auteurs d’articles de plusieurs disciplines scientifiques, en particulier du domaine de la physique, des mathématiques, de la médecine. Les éditeurs commerciaux et académiques, les bibliothèques universitaires, les organismes de financement de la recherche et aussi des ingénieurs, des bibliothécaires, sans oublier quelques prédateurs et pirates jouent un rôle certain.

Un bref historique de l’édition scientifique en OA est ici proposé dans lequel les faits majeurs sont complétés de quelques anecdotes. Une observation sur le temps long de 1960 à 2020 est visée. Différentes pratiques de plusieurs époques sont exposées avec une attention particulière portée aux technologies utilisées par le grand public et dans les universités.

  1. La voie verte
    • 1.1 Préhistoire des prépublications
    • 1.2 L’informatisation des bibliothèques
    • 1.3 Émergence d’Internet
    • 1.4 L’informatique personnelle
    • 1.5 Le web
    • 1.6 Traitement de texte et PAO
    • 1.7 De SPIRES à ArXiv
    • 1.8 Les archives ouvertes
  2. Les voies dorées
    • 2.1 OpenEdition
    • 2.2 Autres plateformes
    • 2.3 Les éditeurs et les bibliothèques
    • 2.4 Facteur d’Impact et autres métriques
  3. La voie diamant
  4. Des voies grises et noires
  5. Les revues anciennes
  6. Données de la recherche
  7. La revue par les pairs
  8. Les éditeurs, négociation des abonnements
  9. Aspects éthiques, juridiques et politiques

1. La voie verte

C’est essentiellement après la seconde guerre mondiale que la pratique de revue par les pairs des articles scientifiques s’étend progressivement. Cette tâche autrefois dévolue au rédacteur en chef devient confiée au comité de lecture et devient considérée comme garante du caractère scientifique des publications. Cependant, le nombre des experts disponibles dans chaque discipline de même que leur temps disponible se montrent limités. Des erreurs d’analyse ou des biais, voire des fraudes et des plagiats passent parfois la barrière et peuvent conduire à des rétractations. Le processus de validation nécessite du temps, des efforts et cela peut retarder considérablement la publication. De premières expériences tentent d’apporter des remèdes à ces difficultés.

1.1 Préhistoire des prépublications

Matthew Cobb rappelle dans son article de 2017 les premières expériences de diffusion des prépublications menées dans les domaines de la biologie, de la médecine et de la physique aux États-Unis au début des années 1960. Errett C. Albritton (1890-1984) alors âgé de 70 ans et en poste au National Institutes of Health (NIH), lieu clé du financement de la recherche américaine, entreprend en compagnie de deux jeunes scientifiques David E. Green (1910-1983) et Philip Handler (1917-1981) la création de plusieurs collectifs nommés Information Exchange Groups (IEGs). Ces IEGs s’inspirent quelque peu du RNA tie club, un groupe d’échanges informels actif lors de la découverte des structures et fonctions de l’ADN et de l’ARN dans les années 50. Albritton souhaite organiser des échanges de notes et de prépublications entre chercheurs de différentes nationalités. De 1961 à 1967, les mémos échangés par la poste via un bureau central localisé au NIH peuvent être une phrase, un paragraphe ou un article prêt à être soumis à un journal ou bien déjà soumis.

Supervisés par un président dont le rôle est la sélection des membres, 7 IEGs thématiques fonctionnent en 1965 sous la tutelle du NIH. Ces clubs échangent dans les domaines des acides nucléiques et de la génétique, de la simulation par ordinateur de systèmes biologiques, de l’hémostase, de l’interféron, etc. Le nombre des membres de chaque groupe de même que celui des mémos augmente. Globalement, plus de 400 scientifiques de 28 nationalités reçoivent 300 mémos par an. La question de la protection de idées, de la priorité de diffusion est largement débattue, de même que celle d’une résistance possible des revues académiques. 80 % des mémos sont des articles en prépublication.

Croissance de 1961 à 1965 du groupe IEG1, par Albritton, Cobb 2017 : Lien

Cette idée d’accélérer les échanges scientifiques intéresse également les physiciens. Alors en poste à l’US Atomic Energy Commission, Charles Gottschalk (1928-2021) propose en 1965 la création d’un groupe d’échange similaire nommé Physics Information Exchange (PIE). Les mémos seront échangés par l’intermédiaire des bibliothèques universitaires plutôt que directement entre chercheurs. Les publications en physique des particules peuvent en effet réunir jusqu’à plusieurs centaines d’auteurs. Les importants délais d’attente de publcation freinent à cette époque les découvertes et les ambitions.

L’initiative d’Albritton rencontre en 1966 la franche opposition de l’American Association of Immunologists. Les membres de la société savante éditent en effet The Journal of Immunology et une interdiction de publication des articles ayant préalablement circulé sous forme de mémo est votée. Les revues Science et Nature indiquent leur franche opposition à ces initiatives dans une série d’articles parus en 1966. Le NIH annonce la cessation du projet en mars 1967. PIE est abandonné un an plus tard, mais les besoins se montrent bien réels.

  • The prehistory of biology preprints: A forgotten experiment from the 1960s, Matthew Cobb, 2017 : Lien

Un projet tout d’abord californien concerne la physique des particules. La bibliothèque du Stanford Linear Accelerator Center (SLAC) recense les articles en attente de publication à partir de 1962. Les détails de chaque prépublication et de chaque auteur sont en effet entrés dans un fichier. Le nombre des prépublications référencées croit de 300 par an en moyenne. L’informatisation de la bibliothèque du SLAC débute en 1967-1968 et le fichier devient numérique. Une base de données est mise au point par les bibliothécaires aidés d’informaticiens. Elle est nommée SPIRES (Stanford Physics Information REtrieval System) et tourne sur IBM 360 Modèle 91, un imposant calculateur scientifique fonctionnant en traitement par lot de données.

Trois bibliothécaires du SLAC Louise Addis, Bob Gex et Rita Taylor reçoivent mandat en 1969 de l’US Atomic Energy Commission et de l’American Physical Society de diffuser de manière hebdomadaire la liste des articles en prépublication. Une liste de diffusion nommée Preprints in Particles and Fields (PPF) est créée et adressée par la poste à une centaine d’auteurs localisés dans de nombreux pays. L’idée est que ceux-ci adressent en retour leurs prépublications. La date d’entrée dans la base peut aussi servir de certificat d’antériorité.

En Allemagne, la bibliothèque du Deutsches Elektronen-Synchrotron (DESY) localisée à Hambourg commence en 1962 des activités similaires de référencement des prépublications. Un fichier centralisé nommé High Energy Physics – An Index (HEPI) est créé. Il contient toutes les publications, publiées et non publiées indexées à l’aide de 23 mot-clés choisis dans une liste contrôlée. La base croit au rythme de 900 articles par an environ. En 1969, le SLAC et le DESY décident de publier une base de donnée commune et les spécifications de conversion de HEPI vers SPIRES sont finalisées. Des données sont périodiquement transférées d’Hambourg à Stanford et l’inverse.

  • Physicists Thriving with Paperless Publishing, Heath B. O’Connell, 2000 : Lien
  • Louise Addis, First Monday, 2000 : Lien
La console de l’IBM 360 Model 91 à la NASA (et au SLAC à partir de 1968) : Lien

1.2 L’informatisation des bibliothèques

Comme le souligne l’International Federation of Library Associations (IFLA), des projets similaires d’informatisation du catalogue des bibliothèques débutent à partir de 1965 au Canada, en Allemagne, en Suède, au Royaume-Uni, aux États-Unis et en URSS. Pilotée par l’informaticienne Henriette Avram et son équipe, l’informatisation (la mécanisation) du catalogue des livres, journaux et revues intéressent la bibliothèque du Congrès. Les travaux aboutissent en 1968 à la définition du format MARC II (MAchine-Readable Cataloging 2). Les programmes sont écrits en COBOL, le langage de programmation créé en 1959 et dédié à l’informatique de gestion. Les britanniques se montrent également fort actifs.

Une autre initiative menée à la fin des années 60 concerne les bibliothèques universitaires. Les présidents d’universités et directeurs de bibliothèques de l’Ohio souhaitent créer un réseau informatique de bibliothèques afin de mutualiser le catalogage des livres et revues. La conférence crée un organisme à but non lucratif et place à sa tête un ancien bibliothécaire de l’école de médecine de l’Université de Yale : Frederick G. Kilgour. L’Ohio College Library Center (OCLC) localisé à Dublin Ohio commence ses activités en 1967. Kilgour préside de 1967 à 1980 ce qui est tout d’abord une coopérative. La fusion des catalogues des bibliothèques de l’Ohio et leur diffusion sous forme de base de donnée devient organisée. La première bibliothèque qui réalise un catalogage en ligne est la bibliothèque Vernon R. Alden du campus d’Athene de l’Université de l’Ohio en 1971. Lors de la première année d’utilisation, le nombre de livres catalogués est augmenté de 33% et le nombre des catalogueurs diminue du fait de cette mutualisation.

  • The MARC II Format: A Communications Format for Bibliographic Data, 1968, Library of Congress, Avram, Henriette D.; And Others : Lien
  • 40 Years of Technology in Libraries: A Brief History of the IFLA Section on Information Technology, 1963/64 – 2003, Sally McCallum, 2003 : Lien
  • Computers: 1960’s Bell System DATA-phone, AT&T Data-phone Data Set commercials Communications, 2021, Computer History Archives Project, vidéo 4:17 : Lien
  • A brief history of MARC, 2011, Mary Jo Chrabasz : Lien
  • About OCLC, heritage : In the begining…, 2012, OCLC : Lien
Fondation de l’OCLC en 1967 : Lien

En France, la première expérience menée sur le format MARC débute en 1970 à la bibliothèque universitaire de Grenoble. Le projet Monocle est mené par Marc Chauveinc, bibliothécaire et informaticien. Partant d’une fiche de livre, la première action visée est d’automatiser le catalogage et de produire des catalogues imprimés des documents entrés à la bibliothèque sous forme de bordereaux. Les formulaires papier sont saisis et traités par un calculateur IBM 360/67 localisé au centre de calcul. Des listings sont fournis de manière automatique et périodique :

  • liste hebdomadaire des nouvelles acquisitions classées selon la C.D.U. avec index auteurs et matières;
  • liste mensuelle par numéro d’inventaire et par cote.
  • catalogue annuel complet soit sous forme d’un catalogue dictionnaire soit de catalogues séparés des auteurs, des titres, des vedettes matière, de la C.D.U. ;
  • listes particulières des collections, périodiques, thèses, suites, congrès;
  • statistiques par langue, origine, fournisseur, matière, fonds…

Le Bureau pour l’automatisation des bibliothèques (B.A.B.) est créé en 1971 avec pour mission “d’étudier et d’aider à résoudre les problèmes posés par l’introduction des ordinateurs dans les bibliothèques”. Plusieurs campus voient le jour en France à la fin des annnées 1960 et au début des années 1970. Des ambitions plus lontaines concernent l’automatisation des prêts dans un contexte de croissance du nombre des publications, de création de nouvelles bibliothèques et d’augmentation du nombre des étudiants.

  • Introduction au projet Monocle. Expérience d’automatisation à la Bibliothèque universitaire de Grenoble, 1970, Marc Chauveinc : Lien
  • La bibliothèque de l’Université de Nice et ses perspectives d’automatisation, 1972, Alban Daumas et Michel Meinardi : Lien
  • Le bureau pour l’automatisation des bibliothèques. Bilan pour 1971-1972, 1973, Anne-Marie Motais De Narbonne : Lien

1.3 Émergence d’Internet

Les ordinateurs fabriqués de 1965 à 1975 sont des calculateurs centraux dont les performances s’améliorent considérablement avec la miniaturisation des composants. On distingue au niveau matériel les machines dédiées au calcul intensif pour lesquelles les langages FORTRAN ou ALGOL se montrent d’usage général et les machine dédiées à la gestion, programmées en PL/I (IBM) ou COBOL. La programmation par câblage est abandonnée mais demaure le contexte de la mécanographie. Les données sur cartes, puis progressivement sur bande sont saisies par un personnel spécialisé. Les machines localisées dans des locaux dédiés et climatisés traitent les données par lot. La programmation est faite sur carte perforée, bande perforée ou bande magnétique et le résultat d’un traitement est rendu sous forme de cartes perforées et de “listing”. Le paradigme en matière informatique à cette époque est que plus les calculateurs sont de taille importante, plus performante se trouve la capacité des calculs. Nulle nécessité à première vue de communication entre calculateurs dans ce processus.

Cependant, au début des années 1960, technologie et politique se montrent étroitement liés. Les communications entre calculateurs se développent pour répondre au besoin de l’aviation civile et militaire de même que pour les technologies spatiales. L’Advanced Research Projects Agency (ARPA, créé en 1958, renommé DARPA en 1972) est une agence du Département de la Défense des États-Unis localisée au Pentagone à Washington. Sous la présidence de Kennedy, l’année est marquée au niveau politique par la crise des missiles de Cuba.

J. C. R. Licklider est membre de la société Bolt, Beranek and Newman (BBN) localisée non loin du MIT. Il a travaillé à la réalisation d’un rapport sur le futur des bibliothèques pour lequel de nombreuses sociétés et des universitaires ont été interrogés. Il devient embauché en 1962 pour une période de deux ans par l’ARPA, avec la possibilité d’établir des contrats entre le Département de la Défense et certaines entreprises et laboratoires universitaires. Il s’agit de mieux coordonner le système de défense antiaérien Semi-Automatic Ground Environment (SAGE) et de promouvoir les communications satellitaires.

Licklider fonde au sein de l’ARPA l’Information Processing Techniques Office (IPTO). L’organisme doit coordonner la réalisation de quelque chose de nouveau et fonctionnel en matière d’échange d’information entre calculateurs distants, pour un usage aussi bien militaire que civil. Un réseau d’ordinateurs nommé ARPANET doit être mis au point afin de rendre plus aisée la transmission de données et de messages entre calculateurs centraux de différentes marques commerciales. De premiers contrats sont passés entre l’ARPA, le MIT, BBN (Massaschussets) et l’UCLA (Californie). Des systèmes équivalents au Modem fonctionnent bien en 1967 et les données sont transmises entre calculateurs à la vitesse de plus de 100 caractères par seconde. Des travaux expérimentaux sont menés simultanément sur l’optimisation de la transmission des messages informatiques sur les réseaux.

Une méthode nouvelle est proposée par Paul Baran (RAND Corporation, CA), Leonard Kleinrock (UCLA, CA) et Donald Davies (National Physical Laboratory, Royaume-Uni). A la différence d’une conversation téléphonique, un long message informatique peut être découpé en paquets standards acheminés chacun de manière autonome vers la machine de destination, passant possiblement en fonction du trafic par des chemins différents. Donald Davies appelle commutation par paquets cette méthode, en opposition à la commutation de circuit des réseaux téléphoniques.

Licklider quitte l’IPTO en 1964 pour aller travailler chez IBM. Il reviendra en poste à l’IPTO dix ans plus tard en 74 et 75. Des spécialistes de l’interface homme machine comme J.K.R Licklider, Robert W. Taylor ou Douglas C. Engelbart rêvent dès 1968 du bureau du futur alors que Kenneth Lane Thompson et quelques autres s’affairent aux Bell Laboratories non loin de New-York à l’écriture d’un système d’exploitation successeur de Multics et nommé UNIX. Engelbart présente en 1968 dans une conférence de 90 minutes ses projets de recherche qui incluent des démonstrations sur la fenêtre, le lien hypertexte, l’interface graphique, la visioconférence, la souris, le traitement de texte, l’éditeur collaboratif en temps réel.

Une réunion de projet assistée par ordinateur, Licklider et Taylor, 1968, The Computer as a Communication Device

La nécessité de présence d’un calculateur dédié au découpage des messages et à leur ré-assemblage apparait clairement chez BBN, à l’UCLA. La petite société de service BBN commence en 1966 le développement de l’Interface Message Processor (IMP) sur la base d’un minicalculateur Honeywell 316 alors tout juste sorti dans le commerce. Ce calculateur sur lequel des programmes écrits en langage machine sont implémentés, va servir de nœud au réseau ARPANET.

On s’affaire de part et d’autres des États-Unis à la mise au point d’une expérience convaincante. En 1967, l’ARPA choisit le laboratoire de l’UCLA du professeur Kleinrock pour faire tourner le NMC (Network Measurement Center). L’UCLA reçoit le premier nœud de BBN, entreprise proche de Boston, et écrit l’interface pour connecter le minicalculateur au calculateur central du laboratoire. L’Institut de recherche de Stanford, puis l’Université de Californie à Santa Barbara et l’Université de l’Utah à Salt Lake City sont les premiers à démontrer l’aspect fonctionnel d’un tel réseau à grande distance fin 1969. Le premier message électronique sur ce réseau est échangé le 29 octobre 1969 entre Charley Kline à l’UCLA et l’Institut de recherche de Stanford.

Sur la côte Est en 1971, Ray Tomlinson ingénieur de la société BBN collabore en 1971 à un petit groupe de programmeurs qui développent un système d’exploitation en temps partagé nommé TENEX. Ce système est créé pour deux calculateurs DEC PDP-10 nommés BBN-TENEXA et BBN-TENEXB et reliés entre eux par un IMP. Ray Tomlinson (BBN) programme la même année les fonctionnalités du courrier électronique et choisit le caractère @ pour séparer le nom de l’utilisateur du nom de la machine hôte. L’auteur de la première version du protocole FTP est quant à lui Abhay Bhushan, un ingénieur du MIT qui travaille au MIT en 1971 sur un autre système d’exploitation à temps partagé nommé Projet MAC. Des fichiers peuvent alors être transférés de calculateur à calculateur.

  • The IBM 360/67 and CP/CMS, 2010, Tom Van Vleck : Lien
  • Internet History of 1960s, Computer History Museum : Lien
  • The Computer as a Communication Device, 1968, J. C. R. Licklider, Robert W. Taylor : Lien
  • Charley Kline Sends the First Message Over the ARPANET from Leonard Kleinrock’s Computer : Lien
  • Episode 9: Interview with Abhay Bhushan, author of File Transfer Protocol, 2017, interviewer Pramod Shashidhara : Lien
  • The Mother of All Demos : Lien

Robert Kahn de BBN et du DARPA organise avec succès la première démonstration publique et à grande échelle d’ARPANET. Vingt calculateurs différents sont connectés lors de l’International Computer Communication Conference de 1972 qui se déroule à Washigton. La première connexion trans-Atlantique est faite en 1973 entre le MIT et l’University College de Londres. Les communications transitent alors par le satellite géostationnaire Intelsat IVa. En 1976, la messagerie électronique occupe 75% de l’activité du réseau et la reine Elisabeth médiatise l’envoi d’un message électronique transatlantique.

La publication du protocole Internet proprement dit peut être datée de 1974 avec la publication des travaux de Vinton Cerf (UCLA) et Robert Kahn “A Protocol for Packet Network Intercommunication”. Le déploiement de ce nouveau protocole de transmission des messages découpés en paquets uniformes appelés datagrammes ne se trouve mis en œuvre que dix ans plus tard. La DARPA décide en 1983 de séparer la partie de l’ARPANET appartenant aux Forces armées des États-Unis MILNET (Military Network), du reste du réseau pour mettre cette technologie dans le domaine public. En 1984, tous les sites d’ARPANET basculent sur le standard TCP-IP d’Internet et BBN accepte de verser au domaine public le code source.

  • A Protocol for Packet Network Intercommunication, Vinton Cerf et Robert Kahn, 1974
  • Specification of Internet Transmission Control Program, RFC 675, 1974, Vinton Cerf : Lien
  • IP traffic measurements and analysis at CERN, Jouanigot, J M ; Martin, O H ; Yu, J,1993 : Lien
  • Robert E. Kahn, OH 192. Oral history interview by Judy E. O’Neill, 24 April 1990, Reston, Virginia. Charles Babbage Institute, University of Minnesota, Minneapolis. http://purl.umn.edu/107387
  • Oral History of Raymond (Ray) Tomlinson (2009) : Lien
  • Les premiers réseaux informatiques en France, 2002, Entreprises et Histoire, Pierre Mounier-Kuhn : Lien
  • Louis Pouzin, une grande figure de l’Internet, 2013, Inria : Lien
  • Le réseau Arpanet, 50 ans déjà, 2019, une interview de Gérard Le Lann, Inria : Lien
  • D’Arpanet à Internet en France : quelques repères, 2021, Michel Elie, Inria : Lien
Naissance d’internet, plaque commémorative posée à l’université de Stanford en 2005

1.4 L’informatique personnelle

Dans un contexte de protestation active sur les campus contre la guerre au Vietnam, plusieurs marques innovent au début des années 70 pour mettre au point les premiers ordinateurs personnels motorisés par une nouvelle génération de microprocesseurs connectés sur carte mère. De remarquables innovations en matière de matériel, de logiciel et d’interface homme machine sont mis au point au PARC (Palo Alto Research Center) de Xerox. La programmation orientée objet (Smalltalk) permet le développement d’interfaces graphiques proches de celles actuellement connues. Le concept de WYSIWYG (What You See Is What You Get) est introduit. La souris à boule et trois boutons, de même que des interfaces graphiques trouvent de premières applications industrielles. Le Xerox Alto de 1973 propose la connexion Ethernet et la messagerie Internet. Cependant ces tentatives résolument innovantes ne rencontrent pas le succès commercial escompté.

IBM se lance dans la course et élabore en 1973 dans son centre de Palo Alto non loin de chez Xerox un prototype nommé SCAMP (Special Computer APL Machine Portable) dont l’application commerciale est le PC 5100 d’IBM mis sur le marché en 1975. Les programmes et données sont enregistrés sur cassette à bande magnétique.

La recherche de supports de stockage externes peu onéreux et aisés à transporter aboutit à la mise au point en 1976 par Shugart Associates des disques souples de taille 5,25 pouces. L’effervescence reigne à cette époque et plusieurs constructeurs sont en lice pour lancer en 1977 le marché de l’informatique personnelle. L’Apple II, le PET 2001 de Commodore International, et le TRS-80 de Tandy RadioShack se vendent, équipés de lecteurs de cassettes et peu après de lecteurs de disques et d’imprimantes. Ces ordinateurs personnels suscitent l’apparition de forts nombreux logiciels. Parmi ceux-ci des jeux d’arcade et aussi des traitements de texte, des tableurs susceptible d’intéresser les entreprises.

Durant les années 80, de premières fournisseurs commerciaux comme CompuServe (IBM, format GIF), Prodigy, America Online, Worldcom proposent leurs services. Une première liaison Internet commerciale réunit l’Australie à Brooklin Massachusetts en 1989. Les services incluent des dialogues en ligne, la messagerie électronique, des services d’information en ligne, le téléchargement de jeux.

  • Oral History Panel on 5.25 and 3.5 inch Floppy Drives, Warren Dalziel, George Sollman, Don Massaro interviewed by Jim Porter, Recorded: January 3, 2005, Mountain View, California : Lien
  • Xerox PARC et la naissance de l’informatique contemporaine, 2012, Sacha Krakowiak, Interstices : Lien
  • History of personal computers : Lien

1.5 Traitement de texte et PAO

John Warnock travaille depuis 1978 au Palo Alto Research Center tout comme son collègue Charles Matthew Geschke. Les deux ont essayé de convaincre sans succès Xerox d’utiliser Interpress, un format de description de page écrit en Forth, comme langage d’impression. Ils quittent Xerox en 1982 et développent alors un langage similaire à Interpress dans leur nouvelle entreprise Adobe. Ils commercialise leur produit sous le nom PostScript. Les microordinateurs s’introduisent dans les secrétariats avec des modèles comme l’Apple Macintosh équipé de MacWrite (traitement de texte), VisiCalc (tableur) et MacPaint (traitement d’image).

1984 – The Apple Macintosh debuts.1984 – Hewlett-Packard introduces the LaserJet, the first desktop laser printer.1985 – Adobe introduces PostScript, the industry-standard Page Description Language (PDL) for professional typesetting.1985 – Aldus develops PageMaker for the Mac, the first “desktop publishing” application.1985 – Apple produces the LaserWriter, the first desktop laser printer to contain PostScript.1987 – PageMaker for the Windows platform is introduced.1990 – Microsoft ships Windows 3.0.

Les avantages du PC couplé à une imprimante et connecté à Ethernet et Internet s’avèrent importants dans un contexte professionnel. Des fichiers peuvent transiter entre auteurs, éditeurs commerciaux et imprimeurs de manière simplifiée et instantanée. Les dates des fichiers se trouvent enregistrées de manière automatique.

Les logiciels spécialisés ou logiciels de PAO permettent de réaliser des documents de qualité professionnelle combinant du texte et des images (photos, illustrations ou graphiques, notamment).
Les plus connus sont : Quark XPress, Adobe InDesign, Adobe PageMaker, Adobe Photoshop et Adobe Illustrator, ainsi que le logiciel libre Scribus.

1.6 Le web

L’abréviation Web désigne un ensemble de protocoles et de logiciels mis au point au CERN entre 1984 et 1988. Le protocole Internet de Cerf et Kahn notamment devient utilisé au CERN pour interconnecter les principaux systèmes informatiques internes, les stations de travail, les PC et un système de contrôle de l’accélérateur. Cependant, si les machines deviennent ainsi interconnectées et si les mails peuvent être échangés, ils n’existe pas alors de manière aisée de partager un document électronique comme une liste téléphonique par exemple.

En poste au CERN à partir de 1984, Timothy Berners-Lee élabore un certain nombre de théories. Les programmes écrits par les membres de son groupe doivent être disponibles en domaine public et pouvoir être échangés via Internet. Il propose le protocole HTTP (HyperText Transfer Protocol) en surcouche d’Internet pour transmettre des documents multimédias. Le code d’un serveur nommé CERN httpd est écrit et diffusé. Le langage HTML (HyperText Markup Language) est proposé pour éditer ces documents. Ce code balisé rend lisible les documents par un utilisateur averti ou bien par un navigateur, un logiciel dédié à la lecture de ce type de document.

Le protocole HTTP bâti au-dessus du protocole TCP/IP : Lien

Le navigateur développé est nommé WorldWideWeb. Il consiste en une interface graphique qui permet alternativement l’édition de texte en HTML ou la visualisation d’un document susceptible de contenir des liens vers des fichiers localisés sur d’autres serveurs. Des textes et des images peuvent ainsi être visionnés conjointement. Les développements résultent des travaux menés par une petite équipe de programmeurs rassemblés auteurs de Berners-Lee et de l’ingénieur belge Robert Cailliau.

Berners-Lee fonde le World Wide Web Consortium (W3C) en 1994, soutenu par le DARPA et la Commission Européenne. Il quitte le CERN en 1996 pour intégrer le MIT. Le protocole HTTP 1.0 devient diffusé dans la RFC 1945 en date de 1996, dans le respect du formalisme d’Internet. Plusieurs serveurs localisés en Europe et aux États-Unis se mettent à tourner.

  • Comment l’internet est arrivé au CERN, François Flückiger, 2013 : Lien
  • CERN httpd : Lien
  • WorldWideWeb (navigateur) : Lien
  • Brève histoire du Web, CERN : Lien
  • Nostalgique introspection du Next Cube, DadyRetro, 2012 : Lien
  • Hypertext Transfer Protocol — HTTP/1.0, RFC 1945X, T. Berners-Lee, 1996 : Lien
Le serveur sur NeXTcube au SLAC, Bebo White et Les Cottrell (chemise blanche), 2011 : Lien

1.7 Les bases bibliographiques : de SPIRES à ArXiv

Photographie de Paul Kunz 1998 avec NeXTcube au SLAC : Lien

Suite à une réunion européenne dans laquelle intervient TBL, Paul Kuntz installe en 1991 sur NeXTcube le premier serveur expérimental localisé aux États-Unis. Ce physicien travaille au SLAC en compagnie de Terry Hung et de Louise Addis. TBL en fait l’annonce au CERN. Louise Addis met en place un groupe de travail nommé “les WWWizards” dans le but de faciliter la diffusion des contenus de la base de prépublication SPIRES-HEP. Il est composé des informaticiens Mark Barnett, George Crane, Bebo White et Joan Winters, des physiciens Tony Johnson et Paul Kuntz. 5000 utilisateurs répartis dans 40 pays utilisent SPIRES-HEP au début des années 90.

  • Early Chronology and Documents (1991-1994) : Lien
  • SLAC WWW Wizards, 2000 : Lien

Les chercheurs en physique des hautes énergies font grand usage de TeX pour écrire leurs articles scientifiques. Précédemment organisés par envoi de photocopie et de fax les échanges de prépublications en texte intégral sont organisés par messagerie électroniques depuis 1985. Employé au Los Alamos National Laboratory, Paul Ginsparg crée l’entrepôt d’articles en pré-publication ArXiv en 1991 et promeut l’auto-archivage des publications.

  • The global-village pioneers, PhysicsWorld, 2008 : Lien

RENATER est créé en 1993. Les membres de RENATER sont le ministère de l’Éducation nationale de la jeunesse et des sports, le ministère  de l’Enseignement supérieur, de la Recherche et de l’Innovation, ainsi que des organismes de recherche, le CNRS, la CPU, le CEA, Inria, le CNES, Inrae, l’Inserm, l’Onera, le Cirad, l’IRD et le BRGM. L’INRIA devient en 1995 le premier hôte européen du W3C.

1.8 Les archives ouvertes

Les bibliothèques OCLC Dublin Core.

L’exemple de Ginsparg se trouve suivi par plusieurs organismes dans un contexte d’amélioration des matériels, logiciels et réseaux. Carl Lagoze, Herbert Van de Sompel, Michael Nelson et Simeon Warner organisent à Santa Fe en 1999 la conférence Open Archives Initiatives. Des mécanismes techniques sont discutés (Dublin Core, OAI-PMH) pour assurer l’interopérabilité des archives ouvertes nouvellement créées. Dans la foulée de Ginsparg, le physicien Frank Laloë crée en 2001 la plateforme HAL et met en place le Centre pour la communication scientifique directe pour maintenir les outils nécessaires à l’archivage, la diffusion et la valorisation des publications françaises.

Plusieurs logiciels web susceptibles de faciliter le déploiement d’une plateforme d’auto-archivage deviennent développés et sont mis à disposition sous licence libre. L’Université de Southampton publie en 2000 le logiciel EPrints. Le MIT développe DSpace en 2002. D’autres suivent parmi lesquels Fedora Commons (Cornell University, 2003), puis CDSware / Invenio (CERN, 2013). La médecine emboite le pas à la physique à partir de 2000. L’entrepôt centralisé en libre accès PubMedCentral est mis au point par la National Library of Medicine. Il rend possible à partir de 2007 l’accès au texte intégral à l’issue d’une barrière mobile de 12 mois pour tout article financé par le National Institute of Health (NIH).

De nombreuses universités, institutions et organismes bailleurs de fonds deviennent alors intéressés par ce genre d’entrepôt, non seulement pour archiver les prépublications mais encore les articles publiés, des rapports de colloques, thèses, mémoires, cours, jeux de données et autres types de documents. L’université du Minho en 2004 au Portugal, se montre la première à exiger le dépôt des travaux de ses enseignants, ce qui entraîna une croissance forte en terme de contenu du dépôt institutionnel local. Une première étape d’ouverture des publications scientifiques devient appelée la voie verte du libre accès.

L’université de Southampton publie à partir de 2003 le Registry of Open Access Repositories (ROAR). Le nombre d’entrepôts et d’articles déposés croit régulièrement dans les entrepôts. Lancé en 2005, le site OpenDOAR maintenu par l’Université de Nottingham référence les archives ouvertes. 159 archives ouvertes françaises sont référencées en 2021. Les statistiques portent sur le nombre d’entrepôt, les logiciels, les types de contenus, les disciplines scientifiques. Si la majorité des archives ouvertes stocke des articles de journaux, d’autres types de contenus et des thèmes scientifiques particuliers se montrent couverts.

Types de contenus des archives ouvertes, d’après OpenDOAR, 2021 : Lien

Les différentes versions d’un article (version soumise, version acceptée) deviennent visibles. Les revues diffusent essentiellement sur support papier, et pour les scientifiques, les motivations pour la mise en libre accès apparaissent diverses. D’une part, des travaux en cours de publication gagnent en visibilité et en rapidité de mise en ligne. De l’autre, les incitations et exigences des tutelles pour référencer les publications se font progressivement plus pressantes. Les instituts de recherches, les fondations ou les gouvernements mettent en place des politiques de mandat pour la diffusion en libre accès.

Les préoccupations s’avèrent multiples également du côté des éditeurs. De nombreux regroupements et rachats sont effectués à cette époque, dans le but de pouvoir soutenir financièrement le passage de l’édition papier à l’édition numérique. Mêlant contenus réservé et rendus libres à échéance, de couteux sites web synonymes de possibles profits sont à mettre en place dans un contexte de croissance du volume des publications et de moindre durée de l’accès réservé.

  • The Santa Fe Convention of the Open Archives Initiative, Herbert Van de Sompel, 2000, D-Lib Magazine : Lien
  • Registry of Open Access Repositories, Université de Southampton, 2003 : Lien
  • OpenDOAR, Université de Nottingham, 2005, statistiques : Lien
  • Les préprints : guide pratique, Kristina Hettne et Al, 2020 : Lien
Actualités de l’Open Access, 2013 : Lien

2. Les voies dorées

Définies par le fait que le lecteur n’a rien à payer pour accéder à une publication scientifique sur Internet, les voies dorées du libre accès se constituent à partir de 1995 environ. De premiers journaux exclusivement numériques sont mis au point par de nouveaux entrants de même que par les éditeurs traditionnels. L’éditeur à but lucratif et accès libre BioMed Central débute ses activités en 2000 dans les domaines de la médecine. Les frais de traitement des articles, encore appelés “Article Processing Charge (APC)” constituent la seule source de revenus. A noter que l’édition de livre en accès libre ou non s’accompagne également de “Book Processing Charge (BPC)”.

Trois catégories de revues en voie dorée peuvent être distinguées en fonction de ce que paient l’auteur et le lecteur. 1/ voie dorée avec APC. Que la revue soit en libre accès ou non et ceci depuis les années 1930, certains éditeurs font payer aux auteurs et à leurs institutions les frais de traitement des articles. L’auteur peut choisir de publier dans une revue diffusant exclusivement en libre accès. 2/ revues sur abonnement payant appliquant un embargo. Des éditeurs publient leur contenu en accès ouvert. Le contenu récent est placé en accès réservé. L’accès devient ouvert à expiration de barrières mobiles dont la durée va de 6 mois à 3 ans. La vente d’articles à la demande peut être présente pour répondre aux besoins des lecteurs qui ne souhaitent ou ne peuvent pas souscrire un abonnement. 3/ modèle hybride avec APC. Les revues de certains éditeurs admettent la publication d’articles soit avec embargo, soit en libre accès, en fonction du montant de l’APC fourni par l’auteur.

Le DOAJ, répertoire public des revues en libre accès (Directory of Open Access Journals, DOAJ), comptait 13 100 revues à comité de lecture en libre accès total (29 avril 2019), dont 73 % étaient sans frais de publication pour les auteurs (9 606 revues) et 26 % étaient avec des APC (3 436 revues). De petits éditeurs académiques, nombreux dans le domaine des sciences humaines, mais publiant chacun un faible nombre d’articles font confiance à de nouveaux intermédiaires financés en partie publiquement.

  • Open access : Lien
  • Hybrid open-access journal : Lien

2.1 OpenEdition

La plateforme “Revues.org” est créée en 1999 par Marin Dacos dans le but de publier électroniquement des revues dans le domaines des sciences humaines. Les revues à comité de lecture deviennent ainsi diffusées de manière imprimée et électronique. Des revues nouvellement créées peuvent choisir une simple diffusion en ligne. Le service repose sur le Centre pour l’édition électronique ouverte (Cléo), organisme soutenu par le CNRS, l’École des hautes études en sciences sociales, l’université de Provence et l’université d’Avignon. Un conseil scientifique est mis en place, des innovations en matière d’édition électronique sont apportées pour faire fonctionner un système d’édition innovant basé sur l’éditeur Word de Microsoft. Dans le workflow éditorial, des documents au format Word sont stylés, puis successivement soumis à deux sites centralisés : une plateforme transcode Word en XML (Servoo, SDX) et le logiciel Lodel permet de gérer les volumes, numéros et articles.

Puis le service d’édition de livre OpenEdition Books est mis au point à partir 2013 en reprenant en grande partie le workflow éditorial de “Revues.org”. Parmi les premiers éditeurs à ainsi publier des livres en accès ouvert ou réservé, on dénombre les Éditions de l’ENS, les Éditions de l’EHESS, les Presses universitaires de Rennes, Open Books Publishers, CEU Press. Plusieurs appellations sont changées en 2017 afin de donner un aspect unifié et d’augmenter la visibilité nationale et internationale de l’organisme et de ses services. Le Cléo devient renommé OpenEdition Center, Unité de service et de recherche (USR 2004). “Revues.org” devient OpenEdition Journals. Les services gratuits Calenda (événements) et Hypotheses.org (blog scientifique) complètent l’offre et conservent leur nom.

La stratégie commerciale adoptée par OpenEdition se montre à géométrie variable en quelque sorte. Le catalogue d’OpenEdition Journals indique en 2021 la présence de 569 revues dont 283 en libre accès, 179 en libre accès Freemium, 63 avec barrière mobile, et 44 avec barrière mobile et accès via la plateforme privée Cairn avec laquelle des relations éditoriales sont entretenues. OpenEdition Books indique un total de 11999 livres, dont 707 en libre accès complet, 9220 en libre accès Freemium, 2068 en accès exclusif. OpenEdition nomme “Freemium” des textes accessibles en libre accès au format HTML par tout internaute, et téléchargeables aux formats PDF et ePub uniquement pour les utilisateurs des institutions partenaires.

L’organisme entreprend des collaborations nationales et internationales et de nombreux partenariats sont signés. L’organisme et ses partenaires européens sont regroupés en un consortium destiné à concevoir une infrastructure de communication scientifique ouverte en sciences humaines et sociales : OPERAS. L’objectif est d’offrir un ensemble de services susceptible d’améliorer la diffusion et le référencement des contenus scientifiques en accès ouvert. OpenEdition et la fondation néerlandaise OAPEN créent la fondation DOAB (Directory of Open Access Books) dans le but de promouvoir la biblio-diversité dans la science ouverte.

Du côté des R&D, OpenEdition Lab développe quatre axes de recherche :

  1. Un laboratoire ouvert : un dispositif d’accueil et d’accompagnement des équipes de recherche et l’ouverture des données du laboratoire au bénéfice de la communauté scientifique.
  2. Science ouverte et société : des expérimentations pour renforcer les liens entre la science ouverte et la société.
  3. Comprendre les usages : des recherches sur les usages des utilisateurs et utilisatrices des plateformes d’OpenEdition par des analyses quantitatives et qualitatives.
  4. Fouille de textes et de données : le développement d’approches nouvelles et de nouvelles connaissances sur la recherche d’information et les recommandations de lecture. 

En ce qui concerne les aspects informatiques, OpenEdition diffuse sur GitHub un certain nombre d’intéressantes applications et de documentations. Le logiciel Lodel (LAMP) diffusé sous licence GPLv2 motorise les deux plateformes d’édition et constitue l’application cœur. Le passage en 2014 de la version 0.8 à la version 1.0 a été sans doute un moment intense pour les services informatiques, du fait de changements importants dans le workflow éditorial. Les schémas de métadonnées utilisés et adaptés pour le fonctionnement incluent TEI (pour encoder les textes à publier) et METS (pour référencer les collections, numéro de revue, volume, article et de livres).

  • Maison des revues et des livres, OpenEdition : Lien
  • Revues.org devient OpenEdition Journals, 2017 : Lien
  • Revues.org : une plateforme d’édition électronique au service des sciences humaines et sociales, Pierre Mounier, 2011 : Lien
  • Le programme OpenEdition Freemium, Les services d’OpenEdition > Institutions : Lien
  • Publication de Lodel 1.0 et OTX 1.0 !, Jean-François Rivière, 2014 : Lien
  • OpenEdition : GitHub

2.2 Autres logiciels et services de publication en libre accès

D’autres solutions informatiques remarquables sont mises au point au début des années 2000, contribuent au développement de la voie dorée et restent développés et maintenu.

Le Public Knowledge Project, un organisme canadien à but non lucratif, se montre à l’origine en 2001 d’Open Journal System (OJS). Le logiciel ambitionne de faciliter l’édition des revues à comité de lecture en accès ouvert. Le flux éditorial et la mise en ligne des numéros et articles sont gérés par la même application web. Les articles sont mis en ligne au format PDF ou HTML. Dans différents domaines EDP Sciences, centre Mersenne (Mathdoc) à Grenoble, l’Université de Bordeaux la Plateforme de revues scientifiques en accès ouvert fonctionnent à l’aide d’OJS. La plateforme se montre adaptée aux publications en voie dorée et diamant.

  • Open Journal Systems, Public Knowledge Project : Lien
  • Plateforme de revues scientifiques en accès ouvert, Université de Bordeaux : Lien

D’autres plateformes de publication ouverte fonctionnent sur des principes équivalents et mettent à disposition du public des revues, des articles et des livres scientifiques. Il est possible de citer ainsi au Canada “erudit.org”, plus récemment NumeRev dans le domaine des SHS à Montpellier.

  • EDUL – Éditions de l’Université de Lorraine : Lien

2.3 Les éditeurs et les bibliothèques

Du côté des éditeurs commerciaux (Elsevier, Springer Nature, Wiley, Taylor & Francis, the American Chemical Society), au moment où les technologies rendaient possible un accès large et instantané aux revues scientifiques, l’accès devenait limité pour des raisons du coût des abonnements aux bouquets des éditeurs. Des négociations annuelles menées au niveau national en France par le consortium Couperin ne parvenaient plus à juguler l’augmentation du prix des abonnements. En plus d’accaparer une partie des financements de la recherche publique, ce système favorisait l’accroissement des inégalités d’accès au savoir. Chaque institution doit en effet toujours négocier sous le sceau du secret le montant des abonnements auprès des éditeurs commerciaux.

Les bibliothèques entrent en jeu pour centraliser l’offre et monnayer les abonnements à des bouquets de revues (ScienceDirect, MUSE, JSTOR, etc) et à des bases bibliographiques spécialisées. Face à ce constat, les bibliothécaires ont joué un rôle en promouvant le libre accès et en alertant le corps enseignant et les administrations sur la crise provoquée par ces partenaires difficilement contournables. De nouveaux acteurs privés ou à but non lucratif se sont emparés de la voie dorée pour la décliner en possibilités commerciales économiquement viables. Plusieurs modèles furent successivement mis au point dans les années 2000.

Dans le modèle auteur-payeur, l’accès au document est libre pour le lecteur mais l’auteur ou son institution payent des frais appelés Article processing charges (APC) dont la forme prend celle d’un coût à l’article payé au moment de la publication. Le montant des APC varie selon les revues de quelques centaines à plusieurs milliers d’euros. Ainsi la revue multidisciplinaire de langue anglaise PLOS One éditée par la Public Library of Science débute ses activités en 2008. Le coût de publication d’un article sur PLOS One est actuellement de 1 595 dollars. La revue uniquement numérique accepte en 2011 69 % des articles soumis après une évaluation réalisée par en moyenne 2,9 experts. Elle inaugure un nouveau type de revue en libre accès nommé mégarevue et caractérisée par une diffusion exclusivement numérique, une couverture multidisciplinaire, un important nombre d’articles publiés.

De nouveaux intermédiaires trouvent leur place à côté des bibliothèques. Fondée en 1995, la société américaine à but non lucratif JSTOR est créée pour fournir aux bibliothèques un système d’archivage en ligne des publications universitaires et scientifiques auxquelles elles sont abonnées. Un service de numérisation est également proposé. JSTOR propose le libre accès en 2021 à 84 revues et plus de 7000 livres en provenance de 90 éditeurs. Des collections d’archives et avec Artstor à plus d’un million de documents images,audio et vidéo sont mis à disposition sur fonds publics. Des métadonnées et le texte intégral sous forme d’OCR de revues anciennes est fourni gratuitement pour des usages non commerciaux d’exploration de données.

La plateforme privée Cairn en accès ouvert propose gratuitement une part non négligeable de ses contenus en Open Access. Une part également significative est commercialisée : paiement à la revue, au livre ou au magazine.

  • La voie dorée ou gold open access concerne des revues ou ouvrages nativement en open access, dès leur publication, Couperin : Lien
  • Evolution of the scholarly mega-journal, 2006–2017, 2018, Bo-Christer Björk : Lien
  • Open and free content on JSTOR and Artstor : Lien
  • JSTOR and Artstor, Text-mining support : Lien

3. La voie diamant

La revue D-Lib Magazine (1995 – 2017) constitue un des premier titre significatif publié exclusivement en HTML sur le thème des bibliothèques numériques, gratuit pour l’auteur et immédiatement lisible par le lecteur. Dans le “modèle diamant”, les revues sont en libre accès complet et immédiat. Elles donnent l’accès gratuit à tous les articles qu’elles publient sans que les auteurs ou leur institution n’aient à payer d’APC. Les revues diamant tendent ainsi à rétablir le modèle de publication des sociétés scientifiques en faisant les frais de la mise en page au format physique des articles et en se passant des revenus publicitaires. La qualité scientifique reste apportée par le comité de lecture.

Les épi-revues suivent ce modèle dans lequel les coûts cachés se trouvent répartis entre auteurs, éditeurs et institutions. Elles peuvent être considérées comme une « sur-couche » aux archives ouvertes; elles apportent une valeur ajoutée en apposant la caution scientifique d’un comité éditorial. Lancé par le Centre pour la Communication Scientifique Directe en 2014, organisme également auteur de HAL, la plateforme Episciences constitue à la fois un site web et un logiciel libre. Le processus de soumission des articles commence par un dépôt dans une archive ouverte. Puis l’article est évalué par le comité de lecture de l’épi-revue aidé du logiciel Episciences et il peut être ainsi validé par les pairs ou bien rejeté, auquel cas il reste dans l’entrepôt. La première revue publiée est le Journal of Data Mining and Digital Humanities (projet CNRS, INRA et INRIA). 20 revues sont référencées en 2021. Certaines comme “Discrete Mathematics & Theoretical Computer Science” se distinguent en transférant sur Episcience l’historique des publications à partir de 1998. La revue EPIGA (Epijournal de Géométrie Algébrique) est soutenue par l’Université de Lorraine.

Créée en 2018 par un organisme à but non lucratif basé à Nice, la plateforme Peer Community In (PCI) base son flux éditorial sur la recommandation de préprints ou d’articles publiés par ailleurs. L’initiative PCI est soutenue par de nombreuses institutions valorisant dans leurs pratiques la science ouverte et la bibliodiversité, telles que le CNRS, l’INRAE ou l’INEE.

  • A 25 Year Retrospective on D-Lib Magazine, 2020, Michael L. Nelson, Herbert Van de Sompel : Lien
  • Diamond open access : Lien
  • EPIsciences, plateforme d’épirevues : Lien
  • Document de synthèse : descriptif d’Episciences, Jean-Luc Archimbaud, 2015 : Lien
  • Discrete Mathematics & Theoretical Computer Science (1998 -) : Lien
  • CCSDForge; Episciences, An overlay journal platform, dépôt Git : Lien
  • Peer Community In PCI (2018) : Lien

4. Des voies grises et noires

Lancés à partir de 2008 les réseaux sociaux académiques “Academia.edu”, ResearchGate MyScienceWork permettent aux chercheurs d’y déposer les PDF de leurs publications, mais n’offrent pas les garanties des archives ouvertes, en particulier en termes de pérennité. Le réseautage s’y montre incité et les mails envoyés par robot de recommandation – sur la base des contenus précédemment consultés – s’avèrent aussi pertinents que parfois intrusifs et non sollicités.

Enfin les sites Library Genesis (2008) et Sci-Hub (2011), très riches en contenus et largement utilisés sont des archives ouvertes pirates. Selon le point de vue, elles peuvent être perçues comme une atteinte au droit légitime de propriété intellectuelle ou comme une entreprise mondiale d’émancipation de la science. Depuis début mars 2019 en France, le tribunal de grande instance de Paris a ordonné aux fournisseurs d’accès à Internet de bloquer les accès.

L’affaire Aaron Schwartz, les revues prédatrices

5. Les revues anciennes

Les revues anciennes constituent en nombre la plupart des titres des grands éditeurs. Des titres de revues orphelins, ne dépendant d’aucun éditeur ou relevant du domaine public, existent également et plusieurs organismes se sont lancés dans la numérisation et la réédition de ces titres.

Google, Internet archive, Persée, BnF, http://documents.irevues.inist.fr/, artheque, NumDam, cirmath

6. Données de la recherche

thèses, cahiers de laboratoires, colloques, manuels, polycopiés, brevets, catalogues de produits, notes techniques, rapports, normes, règlements, demandes de subventions, voire scénarios de films

Science reproductible, biais de publication

Le wiki Cat OPIDoR référence 128 de ces entrepôts dont 33 concernent en 2021 le domaine des sciences humaines. Parmi ceux-ci le Conservatoire National des Données 3D, DOREL (Université de Lorraine), Nakala, Ortolang, pour n’en citer que quelques uns en relation avec les activités des AHP-PReST.

>>>Les données de la recherche servent de base à deux nouvelles sortes de publications : les articles comportant des liens vers des données entreposées de manière pérenne, versionnées et sécurisée, les datapapers pour lesquels des sources et données sont soumises à évaluation par les pairs.

  • Données de la recherche hier et aujourd’hui : pour une histoire politique du travail en sciences humaines et sociales, Christelle Rabier et Camille Noûs, 2019 : Lien
  • Données de la recherche – 3. Aspects techniques, Frédérique Bordignon, bibliothèque de l’École des Ponts ParisTech : Lien
  • Cat OPIDoR, Entrepôt de données : Lien
  • Publier un data paper : où et comment ? DATACC : Lien
  • Sciences ouvertes à l’Université de Lorraine, Accompagnement aux données : Lien

7. La revue par les pairs

8. Les éditeurs, négociation des abonnements

8.1 Les éditeurs

La plupart des éditeurs acceptent de nos jours la voie verte et proposent de revues en voie dorée ou hybride. Certains se sont spécialisés comme PLos par exemple et ne proposent que des revues en accès libre, voie dorée.

The state of OA: a large-scale analysis of the prevalence and impact of Open Access articles, 2018 : Lien

8.1.1 Elsevier

Nommée en hommage à l’illustre famille d’éditeurs Elzevier, la société d’édition Elsevier est fondée en 1880 par deux libraires néerlandais, George Lodewijk Funke (1836-1885) et Jacobus George Robbers (1838 – 1925). Le siège social est localisé à Amsterdam. Reed Elsevier est renommé groupe RELX en 2015 et le siège social est localisé à Amsterdam. Parmi les filiales du secteur de l’édition Elsevier BV, Academic Press, Elsevier Masson (EM). Les activités principales sont l’édition de livres de formations et la publication de revues de biologie, médicales et paramédicales.

  • Elsevier Open Access : Lien
  • Synthèse sur la stratégie d’Elsevier, EPRIST, 2018, Pierre-Carl Langlais : Lien

8.1.2 Springer Nature

Springer Nature was formed in 2015 by the merger of Nature Publishing Group, Palgrave Macmillan and Macmillan Education (held by Holtzbrinck Publishing Group) with Springer Science+Business Media (held by BC Partners). Plans for the merger were first announced on 15 January 2015. The transaction was concluded in May 2015 with Holtzbrinck having the majority 53% share.

In December 2020, John Wiley & Sons acquired Hindawi Limited for an enterprise value of $300 million.

Syndicat national de l’édition (SNE) et de la Fédération nationale de la presse d’information spécialisée (FNPS)

  • Communiqué du Syndicat national de l’Edition et de la Fédération nationale de la Presse d’Information Spécialisée
  • Proportion of Open Access Papers Published in Peer-Reviewed Journals at the European and World Levels—1996–2013, 2014, Science Metrix, Archambaul et Al : Lien
  • Open Data, The Researcher Perspective, Elsevier, 2017, Stephane Berghmans et Al. : Lien
  • Going for gold: exploring the reach and impact of Gold open access articles in hybrid journals, Springer Nature, 2021 : Lien

8.3 Facteur d’impact et autres métriques

Que les revues soient en accès ouvert ou non, le facteur d’impact (FI) des revues est un élément à prendre en considération. Eugene Garfield (1925 – 2017) se montre le créateur de cette métrique que Google s’est en quelque sorte réapproprié à l’aide de son algorithme PageRank de classification des résultats de recherche. Garfield fonde en 1956 l’Institute for Scientific Information (ISI), racheté en 1992 par Thomson Reuters, puis intégré à Clarivate Analytics en 2016. Le facteur d’impact reste un indicateur évoqué dans la plupart des disciplines. Le service en accès réservé Web of Science Master Journal List spécifie les revues en OA, et commercialise le FI.

Face à cette situation monopolistique, le groupe Elsevier ouvre en 2004 le site Scopus. La plateforme référence actuellement 39 237 journaux scientifiques, dont 5 598 titres en libre accès, 1628 livres et fournit le facteur CiteScore. Google Scholar débute ses activités en 2004 également. Le moteur de recherche inventorie des articles, des thèses, des livres scientifiques et les citations. Un facteur d’impact des revues nommé h5 et en accès libre est également calculé et proposé à la onsultation. Favorisant les acteurs anciens et anglophones, la pertinence de ces scores reste d’une part largement acceptée par la plupart des institutions, d’autre part toujours discuté, particulièrement dans le domaine des sciences humaines.

Il existe des controverses sur l’effet réel de la mise en OA sur le facteur d’impact des revues, sur le nombre des téléchargements et le supplément d’attention des lecteurs. Une étude canadienne datée de 2017 menée dans le domaine des sciences exactes conclut à l’absence d’effet et au fait que la voie verte se montre financièrement plus avantageuse que les voies dorées. L’éditeur Springer Nature propose en 2021 un rapport affirmant un fort effet sur les citations et le nombre de téléchargements.

Des métriques alternatives nommées Altmetrics (Alternative metrics) ont été mises au point récemment. Elles compilent un ensemble de données du web pour quantifier l’influence des chercheurs ou des publications. Elles complètent ainsi les mesures traditionnelles en évaluant les indicateurs comme les mentions dans les blogues ou Wikipédia, les téléchargements et partages dans les médias sociaux.

Les auteurs eux-mêmes, leur influence et la fréquence avec laquelle leurs articles sont cités, leur présence sur les réseaux, leur renommée en quelque sorte se trouve quantifiée avec le h-index, un indice accessible par exemple depuis Scopus Preview. Le nombre de leurs citations est également examiné.

  • Le marché de l’édition scientifique, entre accès « propriétaire » et accès « libre », 2010, Joëlle Farchy, Pascal Froissart, Hermès : Lien
  • h5 Google Scholar ranking > Engineering & Computer Sciences > Library & Information Science : Lien
  • h5 Top 20 publications matching Philosophia : Lien
  • Measuring a journal’s impact, Elsevier : Lien
  • Measuring the Impact of Gold and Green Open Access, Zhang, Li Watson & Erin M., 2017-06 : Lien
  • Altmetrics, Bibliométrie et impact de la recherche, Université Laval : Lien

8.4 Les bibliothèques et négociateurs d’abonnements

Fédérations de bibliothèques : IFLA, Association of Research Libraries, BnF, ABES, Couperin

9. Aspects éthiques, juridiques et politiques de l’édition en libre accès

9.1 Aspects éthiques

La hausse globale du nombre d’articles pendant la pandémie de Covid-19 s’est accompagnée d’une hausse des rétractations. Pour les expliquer, plusieurs hypothèses peuvent être soulevées : la demande d’avancées scientifiques rapides, le développement des nouveaux modes de publication (preprints, Open Access…) et la pression du publish or perish liée au système d’évaluation des chercheurs. L’analyse de soixante-cinq articles rétractés montre que le fait d’être prépublié (RC = 17,3 ; IC à 95 % = 4,8 à 111,1), d’avoir été commenté sur PubPeer ou sur le serveur de prépublication (p < 0,001) ou d’avoir une forte mesure alternative d’impact (p < 0,001) sont parmi les variables associées significativement à la rétractation.

Il convient sans doute dans cette étude de chercher les personnes à l’origine de la rétractation. S’agit-il des chercheurs eux-mêmes qui n’ont pas voulu conserver un article entaché d’erreurs ? Lorsqu’un article n’est rétracté qu’à la demande d’une partie des co-auteurs, ou de la direction de la revue, ou par l’institution qui emploie le ou les scientifiques fautifs, le signe envoyé en direction du chercheur et de la revue concernée se montre négatif.

  • Analyse exploratoire des déterminants de rétractation d’articles scientifiques : l’exemple de la Covid-19, 2021, Hélène Lepetit : Lien
  • Rétracter un article scientifique a du bon, 2019, Sylvestre Huet : Lien

8.2 Aspects juridiques

Alors que les découvertes scientifiques appartiennent au domaine public, les œuvres scientifiques bénéficient de la protection des droits d’auteur, tant que les oeuvres écrites font preuve de créativité et d’originalité. Le droit d’auteur comprend les droits moraux inaliénables, et les droits patrimoniaux possibles à céder. Dans les contrats d’édition traditionnels, les droits patrimoniaux sont transférés aux éditeurs. L’Open Access associé à des licences de culture gratuites rompent avec ces pratiques et permettent une diffusion rapide des connaissances. Les auteurs qui publient en OA peuvent ainsi influencer positivement leur capital scientifique et augmenter leur h-index.

  • Ce que vous devez savoir sur le droit d’auteur et l’Open Access pour augmenter votre h-index. Want a better h-index? – All you need to know about copyright and open access, Revue de Chirurgie Orthopédique et Traumatologique, 2020, Janelise Favre, Tania Germond, Philippe Clavert, Philippe Collin, Aude Michelet, Alexandre Lädermann : Lien

8.3 Aspects politiques

L’ouverture complète de la science se trouve promue à partir du milieu des années 2000 environ par un ensemble d’universités et d’institutions rassemblés sous la bannière “OA publication funds”. Au niveau politique aux États-Unis, le représentant de la Californie Darrell Issa proclame en 2011 “La recherche sur fonds public est et doit continuer à être rendue accessible au public. Nous devons également protéger la valeur ajoutée par le secteur privé et nous assurer que persistent simultanément des activités commerciales et des activités sans but lucratif”.

En Europe à partir de 2018 le consortium “cOAlition S” regroupe les agences de recherche de douze pays européens. Le “Plan S” (en français dans le texte) est lancé dans lequel la lettre S signifie “Shock”. La publication des articles en voie dorée et immédiatement lisibles se trouve vigoureusement promue. De multiples résolutions et plans visant à ouvrir la science deviennent promulguées en France.

Rôle de l’ANR, des institutions, de l’Europe.

ROARMap : http://roarmap.eprints.org/dataviz.html

Déclaration de San Francisco sur l’évaluation de la recherche (2018) : https://www.ouvrirlascience.fr/wp-content/uploads/2018/12/DORA_French_V2.pdf

Législations

Consolidated Appropriations Act de 2007, accès au texte intégral 12 mois après publication.

Open Access Week (2007) : Lien

  • NIH Public Access Policy : Lien
  • Open-access mandate : Lien
  • Open Content and the Emerging Global Meta-University, 2006, Charles Vest, EDUCAUSE Review : Lien
  • Déclaration de Berlin sur le Libre Accès à la Connaissance en Sciences exactes, Sciences de la vie, Sciences humaines et sociales, 2003 : Lien
  • Appel de Jussieu pour la Science ouverte et la bibliodiversité, 2017 : Lien
  • ETUDES COPIST (CATALOGUE D’OFFRES PARTAGEES D’IST), Rapport de l’étude n° 3 – Modèles innovants de publication et d’édition scientifiques publiques : conditions de développement, Cabinet Ourouk, ISTEX, 2018 : Lien
  • Plan S, Making full and immediate Open Access a reality, 2018 : Lien
  • Science ouverte : la révolution nécessaire, CNRS Le Journal, 2020 : Lien
  • Open access et bibliothèques, Alain Caraco, 2019 : Lien
  • Sciences ouvertes à l’Université de Lorraine, Publications ouvertes : Lien
1 Star2 Stars3 Stars4 Stars5 Stars (Pas encore noté)
Loading...

Laisser un commentaire