Un bref historique de l’édition scientifique en libre accès

[texte non finalisé]

La diffusion en libre accès (Open Access, OA) des articles, revues, livres et données de la recherche doit son succès à une suite d’avancées techniques, juridiques, culturelles et politiques dont de premières traces peuvent être trouvées dans les années 1960 environ. Au fil des années, plusieurs acteurs ont joué un rôle clé dans l’émergence de ce phénomène encore en cours d’évolution. Se trouvent en premier lieu les auteurs d’articles de plusieurs disciplines scientifiques pionnières. La physique, les mathématiques, la biologie et la médecine peuvent être citées. Des bibliothèques universitaires, certains éditeurs, des organismes de financement de la recherche et aussi des techniciens et bibliothécaires, sans oublier quelques prédateurs et pirates jouent également un rôle certain.

Dans cet article non finalisé, un bref historique de l’édition scientifique en OA est proposé dans lequel quelques études quantitatives, reprises de la littérature, sont complétés d’anecdotes. Des pratiques de plusieurs époques sont présentées. Une attention particulière est portée aux technologies à moindre coût, utilisées par le grand public et dans les universités. L’émergence de l’informatique personnelle, du web et des traitements de texte pour ordinateurs personnels sont retracés, marques de l’émergence d’une informatique individuelle et connectée, aux racines de la multiplication des revues en accès ouvert dans les années 2010.

  1. La voie verte
    • 1.1 Préhistoire des prépublications (1961-1969)
    • 1.2 L’informatisation des bibliothèques (1968-1973)
    • 1.3 Émergence d’Internet (1962-1984)
    • 1.4 L’informatique personnelle
    • 1.5 Le web
    • 1.6 Traitement de texte et PAO
    • 1.7 De SPIRES à ArXiv
    • 1.8 Les archives ouvertes
  2. Les voies dorées
    • 2.1 OpenEdition
    • 2.2 Autres plateformes
    • 2.3 Les éditeurs et les bibliothèques
    • 2.4 Facteur d’Impact et autres métriques
  3. La voie diamant
  4. Des voies grises et noires
  5. Les revues anciennes
  6. Données de la recherche
  7. Les éditeurs, négociation des abonnements
  8. Aspects éthiques, juridiques et politiques

1. La voie verte

C’est essentiellement après la seconde guerre mondiale que la pratique de revue par les pairs des articles scientifiques se généralise. Autrefois dévolue au directeur de la revue, la tâche de lecture critique devient confiée à un comité de lecture et considérée comme garante du caractère scientifique des publications. Cependant, le nombre des experts disponibles dans chaque discipline, de même que le temps possible à consacrer à cette tâche, se montrent limités. Des erreurs d’analyse ou des biais, voire des fraudes et des plagiats passent parfois la barrière et peuvent conduire à des correctifs voire des rétractations. Le processus de validation nécessite du temps, des efforts et cela peut retarder considérablement la publication. Menées dès les années 1960, de premières expériences de partage des prépublications tentent d’apporter des remèdes à ces difficultés.

  • A brief history of peer review, Yousuf Al-Mousawi, 2020 : Lien
  • Peer review, Wikipedia : Lien

1.1 Préhistoire des prépublications (1961-1969)

Matthew Cobb rappelle dans son article de 2017 les premières expériences de diffusion des prépublications menées dans les domaines de la biologie, de la médecine et de la physique aux États-Unis, au tout début des années 1960.

Errett C. Albritton (1890-1984) alors âgé de 70 ans et en poste au National Institutes of Health (NIH), lieu clé du financement de la recherche américaine, entreprend en compagnie de deux jeunes scientifiques David E. Green (1910-1983) et Philip Handler (1917-1981) la création de plusieurs collectifs de partage de l’information scientifique non publiée, nommés Information Exchange Groups (IEGs).

Ces IEGs s’inspirent quelque peu du RNA tie club, un groupe d’échanges informels, actif lors de la découverte des structures et fonctions fondamentales de l’ADN et de l’ARN, dans les années 50. Albritton souhaite organiser des échanges de notes et de prépublications entre chercheurs de différentes nationalités et d’une même discipline. De 1961 à 1967, des mémos sont échangés par la poste, via un bureau central localisé au NIH. Les nouvelles peuvent être une phrase, un paragraphe ou un article, prêts à être soumis à un journal ou bien déjà soumis.

Supervisés par un président dont le rôle est la sélection des membres du groupe, 7 IEGs thématiques fonctionnent en 1965 sous la tutelle du NIH. Ces clubs de chercheurs échangent dans les domaines des acides nucléiques et de la génétique, de la simulation par ordinateur de systèmes biologiques, de l’hémostase, de l’interféron, etc. Le nombre des membres de chaque groupe, de même que celui des mémos, augmente de manière régulière. En 1965, plus de 400 scientifiques de 28 nationalités reçoivent environ 300 mémos par an. La question de la protection des idées, de la priorité de diffusion est largement débattue au niveau du NIH et des groupes de discussion, de même que celle d’une résistance possible des revues académiques. 80 % des mémos échangés s’avèrent être des articles en prépublication.

Croissance de 1961 à 1965 du groupe IEG1, par Albritton, Cobb 2017 : Lien

Cette idée d’accélérer les échanges scientifiques préalablement à la publication intéresse également les physiciens. Alors en poste à l’US Atomic Energy Commission, Charles Gottschalk (1928-2021) propose en 1965 la création d’un groupe d’échange similaire, nommé Physics Information Exchange (PIE). Les mémos seront échangés par l’intermédiaire des bibliothèques universitaires des tutelles, plutôt que via un bureau du NIH. Les publications en physique des particules dès les années 1060 peuvent en effet réunir jusqu’à plusieurs centaines d’auteurs. Les importants délais d’attente pour publication freinent dès cette époque certaines découvertes et ambitions.

L’initiative d’Albritton en biologie rencontre en 1966 la franche opposition de l’American Association of Immunologists. Les membres de la société savante éditent en effet The Journal of Immunology et une interdiction de publication des articles ayant préalablement circulé sous forme de mémo est votée par l’association. Les revues Science et Nature indiquent également leur franche opposition à ces initiatives dans une série d’articles parus en 1966. Le NIH annonce la cessation du projet en mars 1967. PIE est abandonné un an plus tard, mais les besoins pour les auteurs se montrent bien réels.

  • The prehistory of biology preprints: A forgotten experiment from the 1960s, Matthew Cobb, 2017 : Lien

Une autre initiative tout d’abord californienne est malgré tout lancée. Elle concerne de nouveau la physique des particules. A partir de 1962, année de sa fondation, la bibliothèque du Stanford Linear Accelerator Center (SLAC) recense pour des raisons internes les articles en attente de publication. Les détails de chaque prépublication et de chaque auteur sont entrés dans un fichier, tout d’abord au format carton. Le nombre des prépublications référencées croit de 300 par an en moyenne.

L’informatisation de la bibliothèque du SLAC débute en 1967-1968 et le fichier devient numérique. Une base de données est mise au point par les bibliothécaires aidés d’informaticiens. Elle est nommée SPIRES (Stanford Physics Information REtrieval System) et tourne sur IBM 360 Modèle 91, un imposant ordinateur central fonctionnant en traitement par lot de données.

Trois bibliothécaires du SLAC Louise Addis, Bob Gex et Rita Taylor reçoivent mandat en 1969 de l’US Atomic Energy Commission et de l’American Physical Society de diffuser de manière hebdomadaire la liste des articles en prépublication au niveau international. Une liste de diffusion nommée Preprints in Particles and Fields (PPF) est créée et adressée par la poste à une centaine d’auteurs localisés dans de nombreux pays. L’idée est que ceux-ci adressent en retour leurs prépublications. La date d’entrée dans la base se montre aussi susceptible de servir de certificat d’antériorité.

De manière parallèle en Allemagne, la bibliothèque du Deutsches Elektronen-Synchrotron (DESY) localisée à Hambourg commence en 1962 des activités similaires de référencement des prépublications. Un fichier centralisé nommé High Energy Physics – An Index (HEPI) est créé. Il contient toutes les publications, publiées et non publiées indexées à l’aide de 23 mot-clés choisis dans une liste contrôlée. La base croit au rythme de 900 articles par an environ. En 1969, le SLAC et le DESY décident de publier conjointement une base de donnée. Les spécifications de conversion de HEPI vers SPIRES sont finalisées. Des données sont périodiquement transférées d’Hambourg à Stanford et l’inverse.

  • Physicists Thriving with Paperless Publishing, Heath B. O’Connell, 2000 : Lien
  • Louise Addis, First Monday, 2000 : Lien
  • SLAC WWW Wizards, Archives and History Office, SLAC : Lien
La console de l’IBM 360 Model 91 à la NASA (et au SLAC à partir de 1968) : Lien

1.2 L’informatisation des bibliothèques (1968-1973)

Comme le souligne l’International Federation of Library Associations (IFLA), des projets d’envergure visant à informatiser le catalogue des bibliothèques débutent à partir de 1965 au Canada, en Allemagne, en Suède, au Royaume-Uni, aux États-Unis et en URSS.

Pilotée par l’informaticienne Henriette Avram (1919-2006) et son équipe, l’informatisation (la mécanisation) du catalogue des livres, journaux et revues intéresse la Bibliothèque du Congrès. Les travaux aboutissent en 1968 à la définition du format MARC II (MAchine-Readable Cataloging 2). Les programmes sont écrits en COBOL, le langage de programmation créé en 1959 et dédié à l’informatique de gestion. Les britanniques comme les canadiens se montrent également fort actifs dans ce domaine.

Menée à la fin des années 60, une autre initiative concerne les bibliothèques universitaires spécifiquement. Les présidents d’universités et directeurs de bibliothèques de l’Ohio souhaitent créer un réseau informatique de bibliothèques afin de mutualiser le catalogage des livres et revues académiques. La conférence crée un organisme à but non lucratif et place à sa tête un ancien bibliothécaire de l’école de médecine de l’Université de Yale : Frederick G. Kilgour (1914-2006).

Localisé dans le quartier de Dublin, en banlieue de Columbus, Ohio, l’Ohio College Library Center (OCLC) débute ses activités en 1967. Kilgour préside de 1967 à 1980 ce qui est tout d’abord une sorte de coopérative. La fusion des catalogues des bibliothèques de l’Ohio et leur diffusion sous forme de base de donnée devient organisée. La première bibliothèque qui réalise un catalogage en ligne est la bibliothèque Vernon R. Alden du campus d’Athene de l’Université de l’Ohio en 1971. Lors de la première année d’utilisation, le nombre de livres et revues cataloguées se montre accru de 33% et le nombre des catalogueurs diminue, générant des économies substantielles de fonctionnement pour les bibliothèques universitaires américaines.

  • The MARC II Format: A Communications Format for Bibliographic Data, 1968, Library of Congress, Avram, Henriette D.; And Others : Lien
  • 40 Years of Technology in Libraries: A Brief History of the IFLA Section on Information Technology, 1963/64 – 2003, Sally McCallum, 2003 : Lien
  • Computers: 1960’s Bell System DATA-phone, AT&T Data-phone Data Set commercials Communications, 2021, Computer History Archives Project, vidéo 4:17 : Lien
  • A brief history of MARC, 2011, Mary Jo Chrabasz : Lien
  • About OCLC, heritage : In the begining…, 2012, OCLC : Lien
Fondation de l’OCLC en 1967, à Dublin Ohio : Lien

Dès les années 1970, une première expérience est menée en France sur le format MARC à la bibliothèque universitaire de Grenoble. Le projet Monocle est mené par Marc Chauveinc (1929-2014), bibliothécaire et informaticien. Partant d’une fiche de livre, la première action visée est d’automatiser le catalogage et de produire des catalogues imprimés des documents, signalés sous forme de bordereaux, saisis au kilomètre et mémorisés au format carte perforée. Les données sont traités par un calculateur IBM 360/67 localisé au centre de calcul. Des listings sont fournis de manière automatique et périodique en retour, dont les contenus sont les suivants :

  • liste hebdomadaire des nouvelles acquisitions classées selon la C.D.U. (classification décimale universelle) avec index auteurs et matières
  • liste mensuelle par numéro d’inventaire et par cote
  • catalogue annuel complet soit sous forme d’un catalogue dictionnaire soit de catalogues séparés des auteurs, des titres, des vedettes matière, de la C.D.U.
  • listes particulières des collections, périodiques, thèses, suites, congrès
  • statistiques par langue, origine, fournisseur, matière, fonds

Au niveau des bibliothèques, dépendant du Directeur des bibliothèques et de la lecture publique (bibliothèques municipales, bibliothèques centrales de prêt, bibliothèques interuniversitaires et d’université, Bibliothèque nationale, Bibliothèque publique d’information du Centre Beaubourg), est créé en 1971 le Bureau pour l’automatisation des bibliothèques (B.A.B.). Ses missions sont “d’étudier et d’aider à résoudre les ‘problèmes’ posés par l’introduction des ordinateurs dans les bibliothèques”.

En ce qui concerne les universités, plusieurs campus voient le jour en France à la fin des années 1960 et au début des années 1970. Des ambitions plus lointaines concernent l’automatisation des prêts dans un contexte de croissance du nombre des publications, de création de nouvelles bibliothèques et d’augmentation du nombre des étudiants.

  • Marc CHAUVEINC, « Introduction au projet Monocle. Expérience d’automatisation à la Bibliothèque universitaire de Grenoble », Bulletin des bibliothèques de France (BBF), 1970, n° 7, p. 327-342.
    En ligne : https://bbf.enssib.fr/consulter/bbf-1970-07-0327-001 ISSN 1292-8399.
  • Alban DAUMAS et Michel MEINARDI, « La bibliothèque de l’Université de Nice et ses perspectives d’automatisation », Bulletin des bibliothèques de France (BBF), 1972, n° 6, p. 273-286.
    En ligne : https://bbf.enssib.fr/consulter/bbf-1972-06-0273-002 ISSN 1292-8399.
  • Anne-Marie MOTAIS DE NARBONNE, « Le bureau pour l’automatisation des bibliothèques. Bilan pour 1971-1972 », Bulletin des bibliothèques de France (BBF), 1973, n° 2, p. 45-55.
    En ligne : https://bbf.enssib.fr/consulter/bbf-1973-02-0045-001 ISSN 1292-8399.

1.3 Émergence d’Internet (1962-1984)

Les ordinateurs fabriqués de 1965 à 1975 sont des calculateurs centraux dont les performances s’améliorent considérablement, alors que les composants sont miniaturisés. On distingue au niveau matériel les machines dédiées au calcul intensif pour lesquelles les langages FORTRAN (1957) ou ALGOL (1958) se montrent d’usage général et les machine dédiées à la gestion, programmées en COBOL (1959) ou PL/I (IBM) (1964). La programmation par câblage devient abandonnée, mais les imposants engins nécessitent des salles climatisées; le contexte général reste celui de la mécanographie.

Les données sur cartes d’abord, puis progressivement sur bande magnétique sont saisies par un personnel spécialisé. Les machines localisées dans des locaux dédiés traitent les données par lot. La programmation est faite elle aussi, d’abord sur carte ou bande perforée, puis sur bande magnétique. Les résultats d’un traitement sont rendus sous forme de cartes perforées et de “listing”. Le paradigme en matière informatique à cette époque est que, plus les calculateurs sont de taille importante, plus performantes sont les capacités de calcul.

Cependant, au début des années 1960 toujours, aux États-Unis, technologie et politique se montrent étroitement liés. Les communications entre calculateurs se développent pour répondre au besoin de l’aviation civile et militaire, de même que pour les technologies spatiales émergentes. L’Advanced Research Projects Agency (ARPA, créé en 1958, renommé DARPA en 1972) est une agence du Département de la Défense des États-Unis localisée au Pentagone à Washington. Sous la présidence de Kennedy, l’année est marquée au niveau politique par la crise des missiles de Cuba.

Au début des années 1960, J. C. R. Licklider (1915-1990), membre de la société Bolt, Beranek and Newman (BBN) localisée non loin du MIT à Boston planche à la réalisation d’un rapport d’expertise sur le futur des bibliothèques. De nombreuses sociétés et des universitaires ont été interrogés sur tout le territoire américain. Il devient embauché en 1962 pour une période de deux ans par l’Advanced Research Projects Agency (ARPA), avec la possibilité d’établir des contrats entre le Département de la Défense et certaines entreprises et laboratoires universitaires. En arrière-plan, les enjeux sont de mieux coordonner le système de défense antiaérien Semi-Automatic Ground Environment (SAGE) et de promouvoir les communications satellitaires.

Licklider fonde ainsi au sein de l’ARPA l’Information Processing Techniques Office (IPTO). L’organisme doit coordonner la réalisation de quelque chose de nouveau et fonctionnel en matière d’échange d’information entre calculateurs distants, pour un usage aussi bien militaire que civil. Un réseau d’ordinateurs nommé ARPANET doit être mis au point, afin de rendre plus aisée la transmission de données et de messages entre calculateurs centraux de différentes marques commerciales. Les communications entre calculateurs se font via les lignes téléphoniques classiques, à l’aide de Modem présents à côté de chaque machine, système commercial disponible depuis le début des années 1960.

  • Bell 101 modem, Wikipédia : Lien

De premiers contrats sont passés entre l’ARPA, le MIT, BBN (Massaschussets) et l’UCLA (Californie). Les données sont transmises entre calculateurs à la vitesse de plus de 100 caractères par seconde par l’intermédiaire des réseaux téléphoniques. Des travaux expérimentaux sont menés simultanément sur l’optimisation de la transmission des messages informatiques sur les réseaux.

Une méthode nouvelle est proposée par Paul Baran (RAND Corporation, CA), Leonard Kleinrock (UCLA, CA) et Donald Davies (National Physical Laboratory, Royaume-Uni). À la différence d’une conversation téléphonique, un long message informatique peut être découpé en paquets standards, acheminés chacun de manière autonome vers la machine de destination. Les fragments peuvent alors passer possiblement, en fonction du trafic, par des chemins différents. Donald Davies appelle commutation par paquets cette méthode, par opposition à la commutation de circuit des réseaux téléphoniques standards.

Licklider quitte l’IPTO en 1964 pour aller travailler chez IBM. Il reviendra en poste à l’IPTO dix ans plus tard en 1974 et 75. Des spécialistes de l’interface homme machine comme J.K.R Licklider, Robert W. Taylor ou Douglas C. Engelbart rêvent dès 1968 du bureau du futur, alors que Kenneth Lane Thompson et quelques autres s’affairent aux Bell Laboratories, non loin de New-York, à l’écriture d’un système d’exploitation successeur de Multics, et nommé logiquement UNIX.

Engelbart présente en 1968 dans une conférence de 90 minutes restée mythique ses projets de recherche. Ceux-ci incluent des démonstrations sur la fenêtre, le lien hypertexte, l’interface graphique, la visioconférence, la souris, le traitement de texte, l’édition collaborative en temps réel.

Une réunion de projet assistée par ordinateur, Licklider et Taylor, 1968, The Computer as a Communication Device

L’idée d’affecter un calculateur dédié au découpage des messages et à leur ré-assemblage apparait clairement chez Bolt, Beranek and Newman. La petite société BBN commence en 1966 le développement d’un nouveau calculateur nommé Interface Message Processor (IMP), basé sur un ‘minicalculateur’ Honeywell 316, alors tout nouvellement commercialisé. Ce calculateur connecté au réseau téléphonique sur lequel des programmes écrits en langage machine sont implémentés, doit servir de premier nœud au réseau ARPANET.

On s’affaire sur les cotes est et ouest à la mise au point d’une expérience convaincante. En 1967, l’ARPA choisit le laboratoire de l’UCLA du professeur Kleinrock pour faire tourner le Network Measurement Center (NMC). L’UCLA reçoit le premier nœud fabriqué et configuré par BBN. Fin 1969 en Califormie toujours, l’Institut de recherche de Stanford, puis l’Université de Californie à Santa Barbara et l’Université de l’Utah à Salt Lake City sont les premiers à démontrer l’aspect fonctionnel d’un tel réseau, à grande distance. Le premier message électronique sur ce réseau est échangé le 29 octobre 1969 entre Charley Kline présent à l’UCLA et l’Institut de recherche de Stanford.

En 1971 deux ans plus tard, Ray Tomlinson ingénieur chez BBN collabore en 1971 avec un petit groupe de programmeurs qui développent un système d’exploitation en temps partagé nommé TENEX. Ce système est créé pour deux calculateurs DEC PDP-10 nommés BBN-TENEXA et BBN-TENEXB et reliés entre eux par un IMP. Ray Tomlinson programme lui-même la même année les fonctionnalités du courrier électronique. Il choisit le caractère @ pour séparer le nom de l’utilisateur du nom de la machine hôte. Ce caractère présent sur les claviers américains, cependant rarement utilisé, qualifie le prix à l’unité d’un produit du commerce. Idéal pour jouer le rôle de séparateur entre le nom d’une personne et le nom d’une machine.

En ce qui concerne les protocoles de transfert de fichier, l’auteur de la première version de FTP (File Transfer Protocol) est Abhay Bhushan, un ingénieur du MIT qui travaille simultanément en 1971 sur un autre système d’exploitation à temps partagé, nommé Projet MAC. Des fichiers peuvent alors être transférés de calculateur à calculateur, indépendamment de la machine et du système d’exploitation.

  • The IBM 360/67 and CP/CMS, 2010, Tom Van Vleck : Lien
  • Internet History of 1960s, Computer History Museum : Lien
  • The Computer as a Communication Device, 1968, J. C. R. Licklider, Robert W. Taylor : Lien
  • Charley Kline Sends the First Message Over the ARPANET from Leonard Kleinrock’s Computer : Lien
  • Episode 9: Interview with Abhay Bhushan, author of File Transfer Protocol, 2017, interviewer Pramod Shashidhara : Lien
  • The Mother of All Demos : Lien

Nous sommes parvenus en 1972. Entre alors en scène le jeune Robert Kahn, employé de BBN dont l’un des principaux clients est le DARPA. Une expérience convaincante de communication doit être faite au niveau national. Vingt calculateurs différents sont connectés lors de l’International Computer Communication Conference de 1972 qui se déroule à Washington.

La première connexion trans-Atlantique se déroule l’année suivante, en 1973, entre le MIT et l’University College de Londres. Les communications transitent alors par le satellite géostationnaire Intelsat IVa. En 1976, la messagerie électronique occupe 75% de l’activité du réseau.

La publication du protocole Internet proprement dit peut être datée de 1974, avec la publication des travaux de Vinton Cerf (UCLA) et Robert Kahn “A Protocol for Packet Network Intercommunication”. Le déploiement de ce nouveau protocole de transmission des messages découpés en paquets uniformes appelés datagrammes ne se trouvera mis en œuvre que dix ans plus tard. La reine Elisabeth elle-même médiatise l’envoi d’un message électronique transatlantique le 26 mars 1976, transitant par satellite.

En 1983, la DARPA décide de séparer la partie ARPANET du réseau, appartenant aux Forces armées des États-Unis et nommée MILNET (Military Network), du reste des réseaux universitaire pour transférer la technologie dans le domaine public. En 1984, tous les sites d’ARPANET basculent sur le standard TCP-IP d’Internet. BBN verse également au domaine public le code source pour usage des nœuds du réseau par l’industrie, l’enseignement supérieur et la recherche.

  • A Protocol for Packet Network Intercommunication, Vinton Cerf et Robert Kahn, 1974
  • Specification of Internet Transmission Control Program, RFC 675, 1974, Vinton Cerf : Lien
  • IP traffic measurements and analysis at CERN, Jouanigot, J M ; Martin, O H ; Yu, J,1993 : Lien
  • Robert E. Kahn, OH 192. Oral history interview by Judy E. O’Neill, 24 April 1990, Reston, Virginia. Charles Babbage Institute, University of Minnesota, Minneapolis. http://purl.umn.edu/107387
  • Oral History of Raymond (Ray) Tomlinson (2009) : Lien
  • Les premiers réseaux informatiques en France, 2002, Entreprises et Histoire, Pierre Mounier-Kuhn : Lien
  • Louis Pouzin, une grande figure de l’Internet, 2013, Inria : Lien
  • Le réseau Arpanet, 50 ans déjà, 2019, une interview de Gérard Le Lann, Inria : Lien
  • D’Arpanet à Internet en France : quelques repères, 2021, Michel Elie, Inria : Lien
Plaque commémorative sur la mise au point d’Internet 1973-1976, créée par l’université de Stanford en 2005

1.4 L’informatique personnelle devient connectée (1968-1989)

Mais revenons en Californie à Santa Clara, quelques années plus tôt, si vous le voulez bien. Nous voici en 1968 et Intel, société américaine tout nouvellement créée, sort un tout nouveau processeur nommé Intel 8008, bientôt suivi du 8080 (1974-1990). Dans un contexte de protestation active sur les campus contre la guerre au Vietnam, plusieurs marques innovent pour mettre au point de premiers ordinateurs personnels, motorisés par cette nouvelle génération de microprocesseurs fixés sur carte mère.

De remarquables innovations en matière de matériel, de logiciel et d’interface homme machine sont mis au point non loin de là, au Palo Alto Research Center (PARC) de Xerox. La programmation orientée objet (Smalltalk) permet le développement d’interfaces graphiques proches de celles actuellement connues. Le concept de WYSIWYG (What You See Is What You Get) est introduit. La souris à boule et trois boutons, de même que des interfaces graphiques trouvent de premières applications industrielles. Le Xerox Alto de 1973 propose en standard la connexion Ethernet et la messagerie Internet. Cependant ces tentatives résolument innovantes, trop onéreuses, ne rencontrent pas le succès commercial escompté.

IBM se lance cependant dans la course au microordinateur et élabore en 1973 dans son centre de Palo Alto, non loin de chez Xerox, un prototype nommé SCAMP (Special Computer APL Machine Portable), dont l’application commerciale est le PC 5100 d’IBM, mis sur le marché en 1975. Les programmes et données sont enregistrés sur cassette audio, un nouveau support apparu en 1963, mais dont l’accès séquentiel limite les usages. La recherche de supports de stockage externes peu onéreux et aisés à transporter aboutit à la mise au point en 1976 par Shugart Associates des disques souples de taille 5,25 pouces. L’effervescence règne à cette époque. Parvenus en 1977, plusieurs constructeurs sont en lice pour lancer le marché de l’informatique personnelle.

L’Apple II (1977), le PET 2001 de Commodore International, et le TRS-80 de Tandy RadioShack se vendent à un public d’entrepreneurs et de particuliers, équipés de lecteurs de cassettes et peu après de lecteurs de disques et d’imprimantes. Ces ordinateurs personnels suscitent la création de forts nombreux logiciels. Parmi ceux-ci des jeux d’arcade et aussi des traitements de texte, des tableurs susceptible d’intéresser les entreprises. Le Micral N est produit en France en 1973. Avec l’apparition de Microsoft dans le domaine logiciel en 1975, la bataille fait rage.

Durant les années 80, de premières fournisseurs commerciaux comme CompuServe (IBM, format GIF), Prodigy, America Online, Worldcom proposent leurs services pour échanger les donnée via Internet. Une première liaison commerciale internationale d’Internet réunit l’Australie à Brooklin Massachusetts en 1989. Les services incluent des dialogues en ligne, la messagerie électronique, des services d’information en ligne, le téléchargement de jeux. L’informatique devient personnelle et connectée.

A noter cependant qu’en France, conçu comme vecteur de vente à domicile, le Minitel se déploie de 1982 à 2012 environ. En 2000, le service doublé d’un terminal était utilisé par un Français sur deux. Après avoir connu un large succès, le service limité par la puissance des terminaux devient progressivement délaissé et remplacé par des machines connectées à la liaison téléphonique par Modem.

  • Oral History Panel on 5.25 and 3.5 inch Floppy Drives, Warren Dalziel, George Sollman, Don Massaro interviewed by Jim Porter, Recorded: January 3, 2005, Mountain View, California : Lien
  • Xerox PARC et la naissance de l’informatique contemporaine, 2012, Sacha Krakowiak, Interstices : Lien
  • History of personal computers, Wikipedia en : Lien
  • Gonzalez, Antonio, et Emmanuelle Jouve. « Minitel : histoire du réseau télématique français », Flux, vol. 47, no. 1, 2002, pp. 84-89. : https://doi.org/10.3917/flux.047.0084

1.5 Traitement de texte et PAO sur ordinateur personnel (1984-1990)

En Californie toujours, John Warnock travaille depuis 1978 au Palo Alto Research Center (PARC), tout comme son collègue Charles Matthew Geschke. Les deux compères ont essayé de convaincre sans succès Xerox d’utiliser Interpress, un format de description de page écrit en Forth, un langage informatique dédié à l’impression. Les deux employés quittent alors Xerox en 1982 et développent un langage similaire à Interpress, dans l’entreprise qu’ils viennent de fonder et nomment Adobe. Ils commercialise leur produit sous le nom PostScript. Les microordinateurs s’introduisent dans les secrétariats avec des modèles comme l’Apple Macintosh (1984) équipé de MacWrite (traitement de texte), VisiCalc (tableur) et MacPaint (traitement d’image). Les imprimantes sont fournies en complément des machines.

Les avantages du PC couplé à une imprimante et connecté à Ethernet et Internet s’avèrent importants dans un contexte professionnel. Des fichiers peuvent transiter entre auteurs, éditeurs commerciaux et imprimeurs de manière simplifiée et instantanée. Les dates des fichiers se trouvent enregistrées de manière automatique.

Les logiciels spécialisés ou logiciels de PAO permettent de réaliser des documents de qualité professionnelle combinant du texte et des images (photos, illustrations ou graphiques, notamment). Les plus connus sont : Quark XPress, Adobe InDesign, Adobe PageMaker, Adobe Photoshop et Adobe Illustrator, ainsi que le logiciel libre Scribus.

1984 – The Apple Macintosh debuts.1984 – Hewlett-Packard introduces the LaserJet, the first desktop laser printer.1985 – Adobe introduces PostScript, the industry-standard Page Description Language (PDL) for professional typesetting.1985 – Aldus develops PageMaker for the Mac, the first “desktop publishing” application.1985 – Apple produces the LaserWriter, the first desktop laser printer to contain PostScript.1987 – PageMaker for the Windows platform is introduced.1990 – Microsoft ships Windows 3.0.

1.6 Le web (1984-1996)

Une des étape suivante débute en Europe au milieu des années 1980, plus précisément au CERN (Organisation européenne pour la recherche nucléaire), localisé à la frontière franco-suisse. L’abréviation Web désigne un ensemble de protocoles et de logiciels mis au point en ces lieux entre 1984 et 1988. Le protocole Internet de Cerf et Kahn notamment devient utilisé au CERN pour interconnecter les principaux systèmes informatiques internes, les stations de travail, les PC et un système de contrôle de l’accélérateur de particules. Cependant, si les machines deviennent ainsi interconnectées et si les mails peuvent être échangés, ils n’existe pas alors de manière aisée de partager un document électronique comme une liste téléphonique, un ensemble de publications bibliographiques, par exemple.

En poste au CERN à partir de 1984, Timothy Berners-Lee élabore un certain nombre de théories : les programmes écrits par les membres de son groupe de travail doivent être disponibles en domaine public et pouvoir être échangés via Internet. En collaboration avec l’ingénieur belge Robert Cailliau, Berners-Lee propose le protocole HTTP (HyperText Transfer Protocol) en surcouche d’Internet pour transmettre des documents multimédias. Le code d’un serveur nommé CERN httpd est écrit et diffusé. Un langage de balisage nommé HTML (HyperText Markup Language) et dérivé de SGML () est proposé pour éditer ces documents. Ce code balisé rend lisible les documents par un utilisateur averti ou bien par un navigateur, un logiciel spécialement dédié à la lecture de ce type de document.

Le protocole HTTP bâti au-dessus du protocole TCP/IP : Lien

Le premier navigateur développé est nommé WorldWideWeb. Il consiste en une interface graphique qui permet alternativement l’édition de texte en HTML ou la visualisation d’un document susceptible de contenir des liens vers des fichiers localisés sur d’autres serveurs. Des textes et des images peuvent ainsi être visionnés conjointement. Les développements résultent des travaux menés par une petite équipe de programmeurs rassemblés auteurs de Berners-Lee.

Soutenu par le DARPA et la Commission Européenne, Berners-Lee fonde en 1994 le World Wide Web Consortium (W3C). Il quitte l’Europe en 1996 pour intégrer le MIT et y poursuivre les activités au sein de l’organisme nouvellement créé. Le protocole HTTP 1.0 devient diffusé dans la RFC 1945 en date de 1996, dans le respect du formalisme d’Internet : plusieurs versions brouillon sont diffusées et discutées par les parties prenantes, avant publication en 1.0 d’une version stable. Plusieurs serveurs localisés en Europe et aux États-Unis (côte Est et Ouest) se mettent à tourner.

  • Comment l’internet est arrivé au CERN, François Flückiger, 2013 : Lien
  • CERN httpd : Lien
  • WorldWideWeb (navigateur) : Lien
  • Brève histoire du Web, CERN : Lien
  • Nostalgique introspection du Next Cube, DadyRetro, 2012 : Lien
  • Hypertext Transfer Protocol — HTTP/1.0, RFC 1945X, T. Berners-Lee, 1996 : Lien
Le serveur httpd sur NeXTcube au SLAC en 1991, premier serveur d’ArXiv, Bebo White et Les Cottrell (chemise blanche), 2011 : Lien

1.7 Les bases bibliographiques : de SPIRES à ArXiv

Photographie de Paul Kunz 1998 avec NeXTcube au SLAC : Lien

Suite à une réunion européenne dans laquelle intervient TBL, Paul Kuntz installe en 1991 sur NeXTcube le premier serveur expérimental localisé aux États-Unis. Ce physicien travaille au SLAC en compagnie de Terry Hung et de Louise Addis. TBL en fait l’annonce au CERN. Louise Addis met en place un groupe de travail nommé “les WWWizards” “les magiciens du web” dans le but de faciliter la diffusion des contenus de la base de prépublication SPIRES-HEP. Il est composé des informaticiens Mark Barnett, George Crane, Bebo White et Joan Winters, des physiciens Tony Johnson et Paul Kuntz. 5000 utilisateurs répartis dans 40 pays utilisent SPIRES-HEP au début des années 90.

  • Early Chronology and Documents (1991-1994) : Lien
  • SLAC WWW Wizards, 2000 : Lien

Les chercheurs en physique des hautes énergies font grand usage de TeX pour écrire leurs articles scientifiques. Précédemment organisés par envoi de photocopie et de fax les échanges de prépublications en texte intégral sont organisés par messagerie électroniques depuis 1985. Employé au Los Alamos National Laboratory, Paul Ginsparg crée l’entrepôt d’articles en pré-publication ArXiv en 1991 et promeut l’auto-archivage des publications.

  • The global-village pioneers, PhysicsWorld, 2008 : Lien

En France, le réseau pour les universités et la recherche RENATER est créé en 1993. Les membres de cet organisme sont le ministère de l’Éducation nationale de la jeunesse et des sports, le ministère  de l’Enseignement supérieur, de la Recherche et de l’Innovation, ainsi que des organismes de recherche, le CNRS, la CPU, le CEA, Inria, le CNES, Inrae, l’Inserm, l’Onera, le Cirad, l’IRD et le BRGM. L’INRIA devient en 1995 le premier hôte européen du W3C.

  • Valérie Schafer. De Cyclades à Renater. Des réseaux de données pour la recherche et l’enseignement (années 1970-1990), 2012 : Lien

1.8 Les archives ouvertes

L’exemple de Ginsparg se trouve bientôt suivi par plusieurs organismes dans un contexte d’amélioration des matériels, logiciels et réseaux. Carl Lagoze, Herbert Van de Sompel, Michael Nelson et Simeon Warner organisent à Santa Fe en 1999 la conférence Open Archives Initiative, dite “convention de Santa Fe”. Des mécanismes techniques sont discutés (Dublin Core, OAI-PMH) pour assurer l’interopérabilité entre archives ouvertes nouvellement créées. Les premières archives fonctionnent sur le principe de l’auto-archivage. L’article de Sompel et Lagoze cite ainsi, hébergé au Los Alamos National Laboratory arXiv.org, à Southampton Cogprints, NCSTRL. D’autres entrepôts de publications s’apprètent à être ouverts.

  • The Santa Fe Convention of the Open Archives Initiative. Herbert Van de Sompel, Carl Lagoze. D-Lib Magazine 6 (2) : https://www.dlib.org/dlib/february00/vandesompel-oai/02vandesompel-oai.html
  • Open Archives Initiative : http://www.openarchives.org/
  • the Santa Fe Convention for the Open Archives Initiative, Open Archives Initiative : http://www.openarchives.org/sfc/sfc_entry.htm

Plusieurs logiciels web susceptibles de faciliter le déploiement d’une plateforme d’auto-archivage deviennent développés et sont mis à disposition sous licence libre. L’Université de Southampton publie en 2000 le logiciel EPrints. En France, le physicien Frank Laloë crée en 2001 la plateforme HAL et met en place le Centre pour la communication scientifique directe pour maintenir les outils nécessaires à l’archivage, la diffusion et la valorisation des publications françaises. Le MIT développe DSpace en 2002. D’autres suivent parmi lesquels Fedora Commons (Cornell University, 2003), puis CDSware / Invenio (CERN, 2013). La médecine emboite le pas à la physique à partir de 2000. L’entrepôt centralisé en libre accès PubMedCentral est mis au point par la National Library of Medicine. Il rend possible à partir de 2007 l’accès au texte intégral à l’issue d’une barrière mobile de 12 mois pour tout article financé par le National Institute of Health (NIH).

De nombreuses universités, institutions et organismes bailleurs de fonds deviennent alors intéressés par ce genre d’archive numérique, non seulement pour préserver et mettre à disposition les prépublications, mais encore les articles publiés après barrière mobile, les rapports de colloques, thèses, mémoires, cours, jeux de données et autres types de documents. L’université du Minho en 2004 au Portugal, se montre la première à exiger le dépôt des travaux de la part de ses enseignants, ce qui entraîna une croissance forte en terme de contenu du dépôt institutionnel local. Une première étape d’ouverture des publications scientifiques devient appelée la voie verte du libre accès.

L’université de Southampton publie à partir de 2003 le Registry of Open Access Repositories (ROAR). Le nombre d’entrepôts et d’articles déposés croit régulièrement dans les entrepôts. Lancé en 2005, le site OpenDOAR maintenu par l’Université de Nottingham référence les archives ouvertes. 159 archives ouvertes françaises sont référencées en 2021. Les statistiques portent sur le nombre d’entrepôt, les logiciels, les types de contenus, les disciplines scientifiques. Si la majorité des archives ouvertes stocke des articles de journaux, d’autres types de contenus et des thèmes scientifiques particuliers se montrent couverts.

Types de contenus des archives ouvertes, d’après OpenDOAR, 2021 : Lien

Les différentes versions d’un article (version soumise, version acceptée) deviennent visibles. Les revues diffusent essentiellement sur support papier, et pour les scientifiques, les motivations pour la mise en libre accès apparaissent diverses. D’une part, des travaux en cours de publication gagnent en visibilité et en rapidité de mise en ligne. De l’autre, les incitations et exigences des tutelles pour référencer les publications se font progressivement plus pressantes. Les instituts de recherches, les fondations ou les gouvernements mettent en place des politiques de mandat pour la diffusion en libre accès.

Les préoccupations s’avèrent multiples également du côté des éditeurs. De nombreux regroupements et rachats sont effectués à cette époque, dans le but de pouvoir soutenir financièrement le passage de l’édition papier à l’édition numérique. Mêlant contenus réservé et rendus libres à échéance, de couteux sites web synonymes de possibles profits sont à mettre en place dans un contexte de croissance du volume des publications et de moindre durée de l’accès réservé.

  • Registry of Open Access Repositories, Université de Southampton, 2003 : Lien
  • OpenDOAR, Université de Nottingham, 2005, statistiques : Lien
  • Les préprints : guide pratique, Kristina Hettne et Al, 2020 : Lien
Actualités de l’Open Access, 2013 : Lien

2. Les voies dorées

Définies par le fait que le lecteur n’a rien à payer pour accéder à une publication scientifique sur Internet, les voies dorées du libre accès se constituent à partir de 1995 environ. De premiers journaux exclusivement numériques sont mis au point par de nouveaux entrants de même que par les éditeurs traditionnels. L’éditeur à but lucratif et accès libre BioMed Central débute ses activités en 2000 dans les domaines de la médecine. Les frais de traitement des articles, encore appelés “Article Processing Charge (APC)” constituent la seule source de revenus. A noter que l’édition de livre en accès libre ou non s’accompagne également de “Book Processing Charge (BPC)”.

Trois catégories de revues en voie dorée peuvent être distinguées en fonction de ce que paient l’auteur et le lecteur. 1/ voie dorée avec APC. Que la revue soit en libre accès ou non et ceci depuis les années 1930, certains éditeurs font payer aux auteurs et à leurs institutions les frais de traitement des articles. L’auteur peut choisir de publier dans une revue diffusant exclusivement en libre accès. 2/ revues sur abonnement payant appliquant un embargo. Des éditeurs publient leur contenu en accès ouvert. Le contenu récent est placé en accès réservé. L’accès devient ouvert à expiration de barrières mobiles dont la durée va de 6 mois à 3 ans. La vente d’articles à la demande peut être présente pour répondre aux besoins des lecteurs qui ne souhaitent ou ne peuvent pas souscrire un abonnement. 3/ modèle hybride avec APC. Les revues de certains éditeurs admettent la publication d’articles soit avec embargo, soit en libre accès, en fonction du montant de l’APC fourni par l’auteur.

Le DOAJ, répertoire public des revues en libre accès (Directory of Open Access Journals, DOAJ), comptait 13 100 revues à comité de lecture en libre accès total (29 avril 2019), dont 73 % étaient sans frais de publication pour les auteurs (9 606 revues) et 26 % étaient avec des APC (3 436 revues). De petits éditeurs académiques, nombreux dans le domaine des sciences humaines, mais publiant chacun un faible nombre d’articles font confiance à de nouveaux intermédiaires financés en partie publiquement.

  • Open access : Lien
  • Hybrid open-access journal : Lien

2.1 OpenEdition

La plateforme “Revues.org” est créée en 1999 par Marin Dacos dans le but de publier électroniquement des revues dans le domaines des sciences humaines. Les revues à comité de lecture deviennent ainsi diffusées de manière imprimée et électronique. Des revues nouvellement créées peuvent choisir une simple diffusion en ligne. Le service repose sur le Centre pour l’édition électronique ouverte (Cléo), organisme soutenu par le CNRS, l’École des hautes études en sciences sociales, l’université de Provence et l’université d’Avignon. Un conseil scientifique est mis en place, des innovations en matière d’édition électronique sont apportées pour faire fonctionner un système d’édition innovant basé sur l’éditeur Word de Microsoft. Dans le workflow éditorial, des documents au format Word sont stylés, puis successivement soumis à deux sites centralisés : une plateforme transcode Word en XML (Servoo, SDX) et le logiciel Lodel permet de gérer les volumes, numéros et articles.

Puis le service d’édition de livre OpenEdition Books est mis au point à partir 2013 en reprenant en grande partie le workflow éditorial de “Revues.org”. Parmi les premiers éditeurs à ainsi publier des livres en accès ouvert ou réservé, on dénombre les Éditions de l’ENS, les Éditions de l’EHESS, les Presses universitaires de Rennes, Open Books Publishers, CEU Press. Plusieurs appellations sont changées en 2017 afin de donner un aspect unifié et d’augmenter la visibilité nationale et internationale de l’organisme et de ses services. Le Cléo devient renommé OpenEdition Center, Unité de service et de recherche (USR 2004). “Revues.org” devient OpenEdition Journals. Les services gratuits Calenda (événements) et Hypotheses.org (blog scientifique) complètent l’offre et conservent leur nom.

La stratégie commerciale adoptée par OpenEdition se montre à géométrie variable en quelque sorte. Le catalogue d’OpenEdition Journals indique en 2021 la présence de 569 revues dont 283 en libre accès, 179 en libre accès Freemium, 63 avec barrière mobile, et 44 avec barrière mobile et accès via la plateforme privée Cairn avec laquelle des relations éditoriales sont entretenues. OpenEdition Books indique un total de 11999 livres, dont 707 en libre accès complet, 9220 en libre accès Freemium, 2068 en accès exclusif. OpenEdition nomme “Freemium” des textes accessibles en libre accès au format HTML par tout internaute, et téléchargeables aux formats PDF et ePub uniquement pour les utilisateurs des institutions partenaires.

L’organisme entreprend des collaborations nationales et internationales et de nombreux partenariats sont signés. L’organisme et ses partenaires européens sont regroupés en un consortium destiné à concevoir une infrastructure de communication scientifique ouverte en sciences humaines et sociales : OPERAS. L’objectif est d’offrir un ensemble de services susceptible d’améliorer la diffusion et le référencement des contenus scientifiques en accès ouvert. OpenEdition et la fondation néerlandaise OAPEN créent la fondation DOAB (Directory of Open Access Books) dans le but de promouvoir la biblio-diversité dans la science ouverte.

Du côté des R&D, OpenEdition Lab développe quatre axes de recherche :

  1. Un laboratoire ouvert : un dispositif d’accueil et d’accompagnement des équipes de recherche et l’ouverture des données du laboratoire au bénéfice de la communauté scientifique.
  2. Science ouverte et société : des expérimentations pour renforcer les liens entre la science ouverte et la société.
  3. Comprendre les usages : des recherches sur les usages des utilisateurs et utilisatrices des plateformes d’OpenEdition par des analyses quantitatives et qualitatives.
  4. Fouille de textes et de données : le développement d’approches nouvelles et de nouvelles connaissances sur la recherche d’information et les recommandations de lecture. 

En ce qui concerne les aspects informatiques, OpenEdition diffuse sur GitHub un certain nombre d’intéressantes applications et de documentations. Le logiciel Lodel (LAMP) diffusé sous licence GPLv2 motorise les deux plateformes d’édition et constitue l’application cœur. Le passage en 2014 de la version 0.8 à la version 1.0 a été sans doute un moment intense pour les services informatiques, du fait de changements importants dans le workflow éditorial. Les schémas de métadonnées utilisés et adaptés pour le fonctionnement incluent TEI (pour encoder les textes à publier) et METS (pour référencer les collections, numéro de revue, volume, article et de livres).

  • Maison des revues et des livres, OpenEdition : Lien
  • Revues.org devient OpenEdition Journals, 2017 : Lien
  • Revues.org : une plateforme d’édition électronique au service des sciences humaines et sociales, Pierre Mounier, 2011 : Lien
  • Le programme OpenEdition Freemium, Les services d’OpenEdition > Institutions : Lien
  • Publication de Lodel 1.0 et OTX 1.0 !, Jean-François Rivière, 2014 : Lien
  • OpenEdition : GitHub

2.2 Autres logiciels et services de publication en libre accès

D’autres solutions informatiques remarquables sont mises au point au début des années 2000, contribuent au développement de la voie dorée et restent développés et maintenu.

Le Public Knowledge Project, un organisme canadien à but non lucratif, se montre à l’origine en 2001 d’Open Journal System (OJS). Le logiciel ambitionne de faciliter l’édition des revues à comité de lecture en accès ouvert. Le flux éditorial et la mise en ligne des numéros et articles sont gérés par la même application web. Les articles sont mis en ligne au format PDF ou HTML. Dans différents domaines EDP Sciences, centre Mersenne (Mathdoc) à Grenoble, l’Université de Bordeaux la Plateforme de revues scientifiques en accès ouvert fonctionnent à l’aide d’OJS. La plateforme se montre adaptée aux publications en voie dorée et diamant.

  • Open Journal Systems, Public Knowledge Project : Lien
  • Plateforme de revues scientifiques en accès ouvert, Université de Bordeaux : Lien

D’autres plateformes de publication ouverte fonctionnent sur des principes équivalents et mettent à disposition du public des revues, des articles et des livres scientifiques. Il est possible de citer ainsi au Canada “erudit.org”, plus récemment NumeRev dans le domaine des SHS à Montpellier.

  • EDUL – Éditions de l’Université de Lorraine : Lien

2.3 Les éditeurs et les bibliothèques

Du côté des éditeurs commerciaux (Elsevier, Springer Nature, Wiley, Taylor & Francis, the American Chemical Society), au moment où les technologies rendaient possible un accès large et instantané aux revues scientifiques, l’accès devenait limité pour des raisons du coût des abonnements aux bouquets des éditeurs. Des négociations annuelles menées au niveau national en France par le consortium Couperin ne parvenaient plus à juguler l’augmentation du prix des abonnements. En plus d’accaparer une partie des financements de la recherche publique, ce système favorisait l’accroissement des inégalités d’accès au savoir. Chaque institution doit en effet toujours négocier sous le sceau du secret le montant des abonnements auprès des éditeurs commerciaux.

Les bibliothèques entrent en jeu pour centraliser l’offre et monnayer les abonnements à des bouquets de revues (ScienceDirect, MUSE, JSTOR, etc) et à des bases bibliographiques spécialisées. Face à ce constat, les bibliothécaires ont joué un rôle en promouvant le libre accès et en alertant le corps enseignant et les administrations sur la crise provoquée par ces partenaires difficilement contournables. De nouveaux acteurs privés ou à but non lucratif se sont emparés de la voie dorée pour la décliner en possibilités commerciales économiquement viables. Plusieurs modèles furent successivement mis au point dans les années 2000.

Dans le modèle auteur-payeur, l’accès au document est libre pour le lecteur mais l’auteur ou son institution payent des frais appelés Article processing charges (APC) dont la forme prend celle d’un coût à l’article payé au moment de la publication. Le montant des APC varie selon les revues de quelques centaines à plusieurs milliers d’euros. Ainsi la revue multidisciplinaire de langue anglaise PLOS One éditée par la Public Library of Science débute ses activités en 2008. Le coût de publication d’un article sur PLOS One est actuellement de 1 595 dollars. La revue uniquement numérique accepte en 2011 69 % des articles soumis après une évaluation réalisée par en moyenne 2,9 experts. Elle inaugure un nouveau type de revue en libre accès nommé mégarevue et caractérisée par une diffusion exclusivement numérique, une couverture multidisciplinaire, un important nombre d’articles publiés.

De nouveaux intermédiaires trouvent leur place à côté des bibliothèques. Fondée en 1995, la société américaine à but non lucratif JSTOR est créée pour fournir aux bibliothèques un système d’archivage en ligne des publications universitaires et scientifiques auxquelles elles sont abonnées. Un service de numérisation est également proposé. JSTOR propose le libre accès en 2021 à 84 revues et plus de 7000 livres en provenance de 90 éditeurs. Des collections d’archives et avec Artstor à plus d’un million de documents images,audio et vidéo sont mis à disposition sur fonds publics. Des métadonnées et le texte intégral sous forme d’OCR de revues anciennes est fourni gratuitement pour des usages non commerciaux d’exploration de données.

La plateforme privée Cairn en accès ouvert propose gratuitement une part non négligeable de ses contenus en Open Access. Une part également significative est commercialisée : paiement à la revue, au livre ou au magazine.

  • La voie dorée ou gold open access concerne des revues ou ouvrages nativement en open access, dès leur publication, Couperin : Lien
  • Evolution of the scholarly mega-journal, 2006–2017, 2018, Bo-Christer Björk : Lien
  • Open and free content on JSTOR and Artstor : Lien
  • JSTOR and Artstor, Text-mining support : Lien

3. La voie diamant

La revue D-Lib Magazine (1995 – 2017) constitue un des premier titre significatif publié exclusivement en HTML sur le thème des bibliothèques numériques, gratuit pour l’auteur et immédiatement lisible par le lecteur. Dans le “modèle diamant”, les revues sont en libre accès complet et immédiat. Elles donnent l’accès gratuit à tous les articles qu’elles publient sans que les auteurs ou leur institution n’aient à payer d’APC. Les revues diamant tendent ainsi à rétablir le modèle de publication des sociétés scientifiques en faisant les frais de la mise en page au format physique des articles et en se passant des revenus publicitaires. La qualité scientifique reste apportée par le comité de lecture.

Les épi-revues suivent ce modèle dans lequel les coûts cachés se trouvent répartis entre auteurs, éditeurs et institutions. Elles peuvent être considérées comme une « sur-couche » aux archives ouvertes; elles apportent une valeur ajoutée en apposant la caution scientifique d’un comité éditorial. Lancé par le Centre pour la Communication Scientifique Directe en 2014, organisme également auteur de HAL, la plateforme Episciences constitue à la fois un site web et un logiciel libre. Le processus de soumission des articles commence par un dépôt dans une archive ouverte. Puis l’article est évalué par le comité de lecture de l’épi-revue aidé du logiciel Episciences et il peut être ainsi validé par les pairs ou bien rejeté, auquel cas il reste dans l’entrepôt. La première revue publiée est le Journal of Data Mining and Digital Humanities (projet CNRS, INRA et INRIA). 20 revues sont référencées en 2021. Certaines comme “Discrete Mathematics & Theoretical Computer Science” se distinguent en transférant sur Episcience l’historique des publications à partir de 1998. La revue EPIGA (Epijournal de Géométrie Algébrique) est soutenue par l’Université de Lorraine.

Créée en 2018 par un organisme à but non lucratif basé à Nice, la plateforme Peer Community In (PCI) base son flux éditorial sur la recommandation de préprints ou d’articles publiés par ailleurs. L’initiative PCI est soutenue par de nombreuses institutions valorisant dans leurs pratiques la science ouverte et la bibliodiversité, telles que le CNRS, l’INRAE ou l’INEE.

  • A 25 Year Retrospective on D-Lib Magazine, 2020, Michael L. Nelson, Herbert Van de Sompel : Lien
  • Diamond open access : Lien
  • EPIsciences, plateforme d’épirevues : Lien
  • Document de synthèse : descriptif d’Episciences, Jean-Luc Archimbaud, 2015 : Lien
  • Discrete Mathematics & Theoretical Computer Science (1998 -) : Lien
  • CCSDForge; Episciences, An overlay journal platform, dépôt Git : Lien
  • Peer Community In PCI (2018) : Lien

4. Des voies grises et noires

Lancés à partir de 2008 les réseaux sociaux académiques “Academia.edu”, ResearchGate MyScienceWork permettent aux chercheurs d’y déposer les PDF de leurs publications, mais n’offrent pas les garanties des archives ouvertes, en particulier en termes de pérennité. Le réseautage s’y montre incité et les mails envoyés par robot de recommandation – sur la base des contenus précédemment consultés – s’avèrent aussi pertinents que parfois intrusifs et non sollicités.

Enfin les sites Library Genesis (2008) et Sci-Hub (2011), très riches en contenus et largement utilisés sont des archives ouvertes pirates. Selon le point de vue, elles peuvent être perçues comme une atteinte au droit légitime de propriété intellectuelle ou comme une entreprise mondiale d’émancipation de la science. Depuis début mars 2019 en France, le tribunal de grande instance de Paris a ordonné aux fournisseurs d’accès à Internet de bloquer les accès.

L’affaire Aaron Schwartz, les revues prédatrices

5. Les revues anciennes

Les revues anciennes constituent en nombre la plupart des titres des grands éditeurs. Des titres de revues orphelins, ne dépendant d’aucun éditeur ou relevant du domaine public, existent également et plusieurs organismes se sont lancés dans la numérisation et la réédition de ces titres.

Google, Internet archive, Persée, BnF, http://documents.irevues.inist.fr/, artheque, NumDam, cirmath

6. Données de la recherche

thèses, cahiers de laboratoires, colloques, manuels, polycopiés, brevets, catalogues de produits, notes techniques, rapports, normes, règlements, demandes de subventions, voire scénarios de films

Science reproductible, biais de publication

Le wiki Cat OPIDoR référence 128 de ces entrepôts dont 33 concernent en 2021 le domaine des sciences humaines. Parmi ceux-ci le Conservatoire National des Données 3D, DOREL (Université de Lorraine), Nakala, Ortolang, pour n’en citer que quelques uns en relation avec les activités des AHP-PReST.

>>>Les données de la recherche servent de base à deux nouvelles sortes de publications : les articles comportant des liens vers des données entreposées de manière pérenne, versionnées et sécurisée, les datapapers pour lesquels des sources et données sont soumises à évaluation par les pairs.

  • Données de la recherche hier et aujourd’hui : pour une histoire politique du travail en sciences humaines et sociales, Christelle Rabier et Camille Noûs, 2019 : Lien
  • Données de la recherche – 3. Aspects techniques, Frédérique Bordignon, bibliothèque de l’École des Ponts ParisTech : Lien
  • Cat OPIDoR, Entrepôt de données : Lien
  • Publier un data paper : où et comment ? DATACC : Lien
  • Sciences ouvertes à l’Université de Lorraine, Accompagnement aux données : Lien

7. Les éditeurs, négociation des abonnements

7.1 Les éditeurs

La plupart des éditeurs acceptent de nos jours la voie verte et proposent de revues en voie dorée ou hybride. Certains se sont spécialisés comme PLos par exemple et ne proposent que des revues en accès libre, voie dorée.

The state of OA: a large-scale analysis of the prevalence and impact of Open Access articles, 2018 : Lien

7.1.1 Elsevier

Nommée en hommage à l’illustre famille d’éditeurs Elzevier, la société d’édition Elsevier est fondée en 1880 par deux libraires néerlandais, George Lodewijk Funke (1836-1885) et Jacobus George Robbers (1838 – 1925). Le siège social est localisé à Amsterdam. Reed Elsevier est renommé groupe RELX en 2015 et le siège social est localisé à Amsterdam. Parmi les filiales du secteur de l’édition Elsevier BV, Academic Press, Elsevier Masson (EM). Les activités principales sont l’édition de livres de formations et la publication de revues de biologie, médicales et paramédicales.

  • Elsevier Open Access : Lien
  • Synthèse sur la stratégie d’Elsevier, EPRIST, 2018, Pierre-Carl Langlais : Lien

7.1.2 Springer Nature

Springer Nature was formed in 2015 by the merger of Nature Publishing Group, Palgrave Macmillan and Macmillan Education (held by Holtzbrinck Publishing Group) with Springer Science+Business Media (held by BC Partners). Plans for the merger were first announced on 15 January 2015. The transaction was concluded in May 2015 with Holtzbrinck having the majority 53% share.

In December 2020, John Wiley & Sons acquired Hindawi Limited for an enterprise value of $300 million.

Syndicat national de l’édition (SNE) et de la Fédération nationale de la presse d’information spécialisée (FNPS)

  • Communiqué du Syndicat national de l’Edition et de la Fédération nationale de la Presse d’Information Spécialisée
  • Proportion of Open Access Papers Published in Peer-Reviewed Journals at the European and World Levels—1996–2013, 2014, Science Metrix, Archambaul et Al : Lien
  • Open Data, The Researcher Perspective, Elsevier, 2017, Stephane Berghmans et Al. : Lien
  • Going for gold: exploring the reach and impact of Gold open access articles in hybrid journals, Springer Nature, 2021 : Lien

7.3 Facteur d’impact et autres métriques

Que les revues soient en accès ouvert ou non, le facteur d’impact (FI) des revues est un élément à prendre en considération. Eugene Garfield (1925 – 2017) se montre le créateur de cette métrique que Google s’est en quelque sorte réapproprié à l’aide de son algorithme PageRank de classification des résultats de recherche. Garfield fonde en 1956 l’Institute for Scientific Information (ISI), racheté en 1992 par Thomson Reuters, puis intégré à Clarivate Analytics en 2016. Le facteur d’impact reste un indicateur évoqué dans la plupart des disciplines. Le service en accès réservé Web of Science Master Journal List spécifie les revues en OA, et commercialise le FI.

Face à cette situation monopolistique, le groupe Elsevier ouvre en 2004 le site Scopus. La plateforme référence actuellement 39 237 journaux scientifiques, dont 5 598 titres en libre accès, 1628 livres et fournit le facteur CiteScore. Google Scholar débute ses activités en 2004 également. Le moteur de recherche inventorie des articles, des thèses, des livres scientifiques et les citations. Un facteur d’impact des revues nommé h5 et en accès libre est également calculé et proposé à la onsultation. Favorisant les acteurs anciens et anglophones, la pertinence de ces scores reste d’une part largement acceptée par la plupart des institutions, d’autre part toujours discuté, particulièrement dans le domaine des sciences humaines.

Il existe des controverses sur l’effet réel de la mise en OA sur le facteur d’impact des revues, sur le nombre des téléchargements et le supplément d’attention des lecteurs. Une étude canadienne datée de 2017 menée dans le domaine des sciences exactes conclut à l’absence d’effet et au fait que la voie verte se montre financièrement plus avantageuse que les voies dorées. L’éditeur Springer Nature propose en 2021 un rapport affirmant un fort effet sur les citations et le nombre de téléchargements.

Des métriques alternatives nommées Altmetrics (Alternative metrics) ont été mises au point récemment. Elles compilent un ensemble de données du web pour quantifier l’influence des chercheurs ou des publications. Elles complètent ainsi les mesures traditionnelles en évaluant les indicateurs comme les mentions dans les blogues ou Wikipédia, les téléchargements et partages dans les médias sociaux.

Les auteurs eux-mêmes, leur influence et la fréquence avec laquelle leurs articles sont cités, leur présence sur les réseaux, leur renommée en quelque sorte se trouve quantifiée avec le h-index, un indice accessible par exemple depuis Scopus Preview. Le nombre de leurs citations est également examiné.

  • Le marché de l’édition scientifique, entre accès « propriétaire » et accès « libre », 2010, Joëlle Farchy, Pascal Froissart, Hermès : Lien
  • h5 Google Scholar ranking > Engineering & Computer Sciences > Library & Information Science : Lien
  • h5 Top 20 publications matching Philosophia : Lien
  • Measuring a journal’s impact, Elsevier : Lien
  • Measuring the Impact of Gold and Green Open Access, Zhang, Li Watson & Erin M., 2017-06 : Lien
  • Altmetrics, Bibliométrie et impact de la recherche, Université Laval : Lien

7.4 Les bibliothèques et négociateurs d’abonnements

Fédérations de bibliothèques : IFLA, Association of Research Libraries, BnF, ABES, Couperin

8. Aspects éthiques, juridiques et politiques de l’édition en libre accès

8.1 Aspects éthiques

La hausse globale du nombre d’articles pendant la pandémie de Covid-19 s’est accompagnée d’une hausse des rétractations. Pour les expliquer, plusieurs hypothèses peuvent être soulevées : la demande d’avancées scientifiques rapides, le développement des nouveaux modes de publication (preprints, Open Access…) et la pression du publish or perish liée au système d’évaluation des chercheurs. L’analyse de soixante-cinq articles rétractés montre que le fait d’être prépublié (RC = 17,3 ; IC à 95 % = 4,8 à 111,1), d’avoir été commenté sur PubPeer ou sur le serveur de prépublication (p < 0,001) ou d’avoir une forte mesure alternative d’impact (p < 0,001) sont parmi les variables associées significativement à la rétractation.

Il convient sans doute dans cette étude de chercher les personnes à l’origine de la rétractation. S’agit-il des chercheurs eux-mêmes qui n’ont pas voulu conserver un article entaché d’erreurs ? Lorsqu’un article n’est rétracté qu’à la demande d’une partie des co-auteurs, ou de la direction de la revue, ou par l’institution qui emploie le ou les scientifiques fautifs, le signe envoyé en direction du chercheur et de la revue concernée se montre négatif.

  • Analyse exploratoire des déterminants de rétractation d’articles scientifiques : l’exemple de la Covid-19, 2021, Hélène Lepetit : Lien
  • Rétracter un article scientifique a du bon, 2019, Sylvestre Huet : Lien

8.2 Aspects juridiques

Alors que les découvertes scientifiques appartiennent au domaine public, les œuvres scientifiques bénéficient de la protection des droits d’auteur, tant que les oeuvres écrites font preuve de créativité et d’originalité. Le droit d’auteur comprend les droits moraux inaliénables, et les droits patrimoniaux possibles à céder. Dans les contrats d’édition traditionnels, les droits patrimoniaux sont transférés aux éditeurs. L’Open Access associé à des licences de culture gratuites rompent avec ces pratiques et permettent une diffusion rapide des connaissances. Les auteurs qui publient en OA peuvent ainsi influencer positivement leur capital scientifique et augmenter leur h-index.

  • Ce que vous devez savoir sur le droit d’auteur et l’Open Access pour augmenter votre h-index. Want a better h-index? – All you need to know about copyright and open access, Revue de Chirurgie Orthopédique et Traumatologique, 2020, Janelise Favre, Tania Germond, Philippe Clavert, Philippe Collin, Aude Michelet, Alexandre Lädermann : Lien

8.3 Aspects politiques

L’ouverture complète de la science se trouve promue à partir du milieu des années 2000 environ par un ensemble d’universités et d’institutions rassemblés sous la bannière “OA publication funds”. Au niveau politique aux États-Unis, le représentant de la Californie Darrell Issa proclame en 2011 “La recherche sur fonds public est et doit continuer à être rendue accessible au public. Nous devons également protéger la valeur ajoutée par le secteur privé et nous assurer que persistent simultanément des activités commerciales et des activités sans but lucratif”.

En Europe à partir de 2018 le consortium “cOAlition S” regroupe les agences de recherche de douze pays européens. Le “Plan S” (en français dans le texte) est lancé dans lequel la lettre S signifie “Shock”. La publication des articles en voie dorée et immédiatement lisibles se trouve vigoureusement promue. De multiples résolutions et plans visant à ouvrir la science deviennent promulguées en France.

Rôle de l’ANR, des institutions, de l’Europe.

ROARMap : http://roarmap.eprints.org/dataviz.html

Déclaration de San Francisco sur l’évaluation de la recherche (2018) : https://www.ouvrirlascience.fr/wp-content/uploads/2018/12/DORA_French_V2.pdf

Législations

Consolidated Appropriations Act de 2007, accès au texte intégral 12 mois après publication.

Open Access Week (2007) : Lien

  • NIH Public Access Policy : Lien
  • Open-access mandate : Lien
  • Open Content and the Emerging Global Meta-University, 2006, Charles Vest, EDUCAUSE Review : Lien
  • Déclaration de Berlin sur le Libre Accès à la Connaissance en Sciences exactes, Sciences de la vie, Sciences humaines et sociales, 2003 : Lien
  • Appel de Jussieu pour la Science ouverte et la bibliodiversité, 2017 : Lien
  • ETUDES COPIST (CATALOGUE D’OFFRES PARTAGEES D’IST), Rapport de l’étude n° 3 – Modèles innovants de publication et d’édition scientifiques publiques : conditions de développement, Cabinet Ourouk, ISTEX, 2018 : Lien
  • Plan S, Making full and immediate Open Access a reality, 2018 : Lien
  • Science ouverte : la révolution nécessaire, CNRS Le Journal, 2020 : Lien
  • Open access et bibliothèques, Alain Caraco, 2019 : Lien
  • Sciences ouvertes à l’Université de Lorraine, Publications ouvertes : Lien

Laisser un commentaire