Bosc, H. (2005), Archives ouvertes : quinze ans d’histoire. In : Les Archives Ouvertes : enjeux et pratiques. Guide à l’usage des professionnels de l’information, C. Aubry, J. Janik (eds.), Paris : ADBS. Pp 27-54
Archives Ouvertes : quinze ans d’histoire
Hélène Bosc
Institut national de recherche agronomique (INRA)
Centre de Tours
Résumé
L’idée et les bénéfices du libre accès aux publications scientifiques sont maintenant compris par un nombre croissant de chercheurs qui publient dans de nouvelles revues en libre accès, mais les possibilités offertes par les Archives Ouvertes qui pourraient donner un libre accès immédiat à la totalité des articles scientifiques, restent encore sous-utilisées.
Ce chapitre expose les différentes tentatives faites pendant quinze ans pour généraliser la pratique de l’auto archivage née chez les physiciens et qui mettent leurs travaux en libre accès (auto-archivent), depuis 1991.
Les bénéfices de l’auto-archivage et des archives ouvertes sont expliqués dans cet article.
Toutefois, l’appropriation par les chercheurs et les institutions du processus d’auto-archivage se fait attendre. Les raisons en sont explicitées.
Les dispositions prises par certaines institutions suite à la réunion de Berlin 3 à Southampton (UK) permettent de penser que la pratique de l’auto-archivage, va considérablement se généraliser en 2005. Le libre accès ainsi donné, permettra d’augmenter l’impact scientifique des recherches menées dans le monde.
_________________________________________________________________________
Pour introduire son article “The speed of write”.[1], voici ce
qu’écrivait Gary Stix en 1994 :
“ Scientists now transmit reports of their research- from first
inspiration to final result- over electronics networks. Even live experiments
can be witnessed on-line. Publishers and libraries may never be the same “[1]
Cette accroche paraît banale aujourd’hui et ce décalage nous rappelle qu’il y a eu une révolution dans la communication scientifique et que cette révolution a débuté en Amérique du nord, dans les années 90. L’usage des réseaux électroniques a progressivement gagné le terrain mondial et l’ère du périodique imprimé est presque oubliée par la communauté scientifique qui utilise Internet et les outils informatiques pour lire, échanger, stocker et retrouver toutes sortes de données.
Aujourd’hui, la plupart des
abonnements sont en ligne et les chercheurs consultent leurs périodiques
favoris dans leur laboratoire, devant leur ordinateur. Rappelons, que le
Directory of Electronic Journals, Newsletters and Academic Discussion Lists
publié par l’Association of Research Libraries répertoriait 110 périodiques et
lettres électroniques en 1991 et 440 en 1994. En 2004, l’estimation du nombre
de périodiques électroniques scientifiques, variait entre 11 000 et 14 600,
suivant la définition choisie [2].
Toute révolution technologique engendre idées et applications nouvelles. Internet, a fait naître l’idée « révolutionnaire » du libre accès à la communication scientifique. Cette idée défendue par des chercheurs depuis plus de dix ans vient d’être admise par certaines universités et certains gouvernements et les Archives Ouvertes, viviers potentiels de la production scientifique mondiale, sont en voie d’être reconnues comme essentielles pour la diffusion des connaissances.
Nous rappelons dans ce chapitre que ces Archives sont le fruit d’une série d’expériences renouvelées pendant quinze ans, avec tâtonnements, échecs, erreurs mais qu’elles apportent enfin le résultat promis par Internet : le libre accès aux publications scientifiques.
Pour résumer sommairement nous dirons que c’est un serveur dont le contenu (documents scientifiques et techniques) est accessible en ligne, librement sur le web. Auto-archiver veut dire déposer des documents dans ce serveur.
Le mot « ouvert » lorsqu’on parle de communication scientifique a beaucoup évolué au cours du temps et mérite précisions. Actuellement une archive pour être ouverte doit être conforme au protocole OAI-PMH. Nous expliquerons ce terme et la raison de cette définition un peu plus loin.
Puisque nous parlons
d’« ouvert », il est bon de clarifier aussi l’expression anglaise
« Open Access », si mal utilisée par beaucoup d’anglophones. Cette
expression a été malheureusement reprise par les francophones (pourquoi ne pas
dire « Libre Accès » ?) et elle est tout aussi mal utilisée.
Pour donner la vrai définition d’ « Open Access », P. Suber [3] se
réfère aux BBB : les Déclarations de Budapest [4], Bethesda [5] et Berlin
[6]. Nous aurons l’occasion de parler de ces déclarations plus loin. La
première définition a été donnée par la Déclaration de Budapest en 2002 dont
voici la traduction :
« Par "accès libre" à
cette littérature, nous entendons sa mise à disposition gratuite sur l'Internet
public, permettant à tout un chacun de lire, télécharger, copier, transmettre,
imprimer, chercher ou faire un lien vers le texte intégral de ces articles, les
disséquer pour les indexer, s'en servir de données pour un logiciel, ou s'en
servir à toute autre fin légale, sans barrière financière, légale ou technique
autre que celles indissociables de l'accès et l'utilisation d'Internet. La
seule contrainte sur la reproduction et la distribution, et le seul rôle du
copyright dans ce domaine devrait être de garantir aux auteurs un contrôle sur
l'intégrité de leurs travaux et le droit à être correctement reconnus et
cités. »
Il s’agit bien dans cette définition « de mise à disposition gratuite d’un article ».
Actuellement on parle essentiellement « d’Open Access » en se référant seulement aux nouveaux périodiques dont le libre accès est fourni par le payement de l’auteur ou de son institution. Or ces nouveaux périodiques ne représentent aujourd’hui que 5% des 24 000 périodiques scientifiques à comité de lecture qui existent dans le monde. Le terme « Open Access » utilisé pour désigner les nouvelles revues occulte l’autre « Open Access » celui qui est donné par l’auto-archivage des articles qui se trouvent dans les 95% de périodiques traditionnels restants.
« La mise à disposition gratuite » de toutes les publications (100% de la production scientifique) grâce à leur dépôt dans une Archive Ouverte est donc une voie beaucoup plus rapide et simple.
Dans une archive on peut trouver deux types de publications : des pré-publications et post-publications (preprints et postprints). Pour qualifier les deux types de documents on parle de e-publications (e-prints). Les pré-publications sont des articles qui n’ont pas encore été soumis au contrôle des pairs (ou des experts). Les post-publications sont des articles qui ont été certifiés par les pairs. Ces deux types de documents sont toujours clairement identifiables mais leur présence simultanée dans les premières archives des années 90 a très certainement freiné le désir d’une grande partie de la communauté des chercheurs, de déposer leurs publications. Le risque de donner libre accès à des documents non contrôlés et dispersant des idées fausses ou dangereuses est resté longtemps l’argument développé contre les archives ouvertes.
Dès les années 80, des chercheurs ont mis leurs articles sur Internet : d’abord sur des sites FTP ensuite sur des sites web et les premiers à le faire ont été les informaticiens du Bell Labs. Les physiciens et les astrophysiciens les ont rapidement rejoint dans cette pratique car ils avaient l’habitude d’échanger systématiquement des prépublications sur papier et ont vite compris l’avantage des réseaux électroniques pour ces échanges. P. Ginsparg un physicien du laboratoire national de Los Alamos a eu l’idée de leur fournir un site web collectif : il a créé la première archive bien connue maintenant, sous le nom de ArXiv [7].
P Ginsparg décrit dans son article [8] comment en 1991 il créa la première base de données hep-th (High Energy Physics—Theory) afin de mettre à la disposition de tous, les publications scientifiques d’une communauté de moins de 200 physiciens qui étudiaient la théorie des cordes et la gravité bi-dimensionnelle. Très rapidement cette base fut utilisée par un nombre croissant de chercheurs : jusqu’à 3600 au bout de 3 années. De nouvelles bases furent créées. En 1997 elles étaient utilisées par 50 000 physiciens, entraînant un million de transactions par mois. Aujourd’hui, 14 ans après, on compte environ 140 000 connections par jour et arXiv contient près de 315 000 documents. Ce succès peut s’expliquer pour les raisons suivantes : vitesse de communication liée à des coûts modiques et « bonne volonté » de l’American Physical Society (APS). Celle ci en effet, a permis aux physiciens de laisser en archives leurs preprints et ne les a pas obligés de les retirer quand ils étaient publiés dans les revues de l’APS. La vitesse de communication a pu en effet, séduire les chercheurs. A titre d’exemple un physicien rapporte que son article déposé dans l’archive ArXiv et soumis en même temps pour publication dans un périodique, était déjà cité 8 semaines après, dans d’autres articles déposés aussi dans l’archive et cela bien avant la parution de l’article final (le postprint). [9]
Les chiffres donnés en 1997 par P. Ginsparg font état de 25 000 documents pouvant être stockés sur un disque dur pour moins d’un centième de dollar chacun. Le fait que le processus de contrôle des pairs n’ait pas été éliminé, même s’il est fait à posteriori, reste un argument essentiel pour un développement dans d’autres disciplines. P. Ginsparg souligne aussi combien il est sensible au fait que la communication scientifique se soit ouverte aux pays en voie de développement et aux pays de l’Est car les chercheurs de ces pays ont pu contribuer au progrès de la science, sans être pénalisés par leur manque de moyens pour souscrire aux abonnements de périodiques qui leur étaient nécessaires. Au vu de ces avantages, il est difficile de comprendre pourquoi cette expérience a mis du temps à passer vers les autres disciplines et pourquoi seules quelques autres archives se sont développées dans la dernière décennie, par exemple, en astronomie (astro-ph dans le giron de ArXiv), en mathématiques, économie et informatique (Math-Net, REPEC, NSCTRL ) [10].
Mais l’explication de ce succès limité seulement à quelques disciplines a déjà été donnée : les archives ouvertes sont simplement devenues un nouveau support pour une vieille tradition. Les physiciens et les astrophysiciens avaient déjà une culture d’échange sur papier; et les informaticiens l’habitude d’échanger en-ligne. Les économistes avaient aussi une culture de prépublications. Précisons aussi que REPEC et NCSTRL ne sont pas des archives centrales ; ce sont des archives moissonnées.
Stevan Harnad, chercheur en sciences cognitives fut un des premiers à comprendre l’importance du changement que pouvait apporter Internet dans toute la communication scientifique. Les échanges que l’on trouvait sur les réseaux électroniques Usenet/Netnews dans les années 85 n’étaient pas considérés comme assez sérieux pour que les chercheurs imaginent d’utiliser ce moyen pour une discussion scientifique. S. Harnad dit : « A cette époque-là, le défi était que les vrais savants prennent au sérieux ce nouveau media et qu'ils participent à la discussion publique, entretenue jusqu’alors seulement par des dilettantes ». Et de cette « époque-là », deux formules sont restées gravées par S. Harnad : « Global graffiti board for trivial pursuit »[2] qui définit le type de discussions qui se passaient sur Usenet ainsi que la surenchère des réflexions provoquées par cette mise en commun. La deuxième est « scholarly skywriting »[3] pour expliquer la vitesse donnée par Internet pour communiquer plus rapidement entre chercheurs[4] [11]. Il a mis en pratique ce qu’il prêchait et a créé en 1990, une des premières revues électroniques en accès libre qui existe encore : Psycoloquy [12].
Cette revue est née en libre accès mais c’était un « hasard », au dire de S. Harnad et même si elle existe encore, on peut considérer qu’elle a été un échec car les chercheurs n’étaient pas mûrs pour utiliser ce modèle « en-ligne/accès-libre/commentaires », trop novateur pour l’époque.
Rapidement, S. Harnad a été convaincu que ce que faisaient les physiciens et les mathématiciens depuis 3 ans sur le serveur de Los Alamos n’avait aucune raison de rester l’exclusivité d’une petite communauté scientifique et pouvait être transposé à toutes les autres disciplines et la formule la plus célèbre reste « A subversive proposal »[5]. Il a lancé la « Proposition Subversive » sur une liste de discussion l’Electronic Journals mailing list du Virginia Polytechnic Institute le 27 juin 1994 [13]. L’argument est simple : le seul intérêt du chercheur dans la publication des résultats de ses recherches est « de toucher les yeux et l’esprit de ses pairs ». Donc pour avoir un impact maximum il faut utiliser les nouvelles technologies offertes par Internet. Il a incité tous les auteurs et leurs institutions à prendre exemple sur l’expérience des physiciens et à déposer leurs pré-publications sur un serveur. Le message a été largement diffusé puisqu’il a soulevé débats et polémiques mais la communauté scientifique n’a pas bougé pendant des années. Pourquoi ?
S. Harnad parle de la paralysie de
Zénon en se référant aux paradoxes soulevés par le philosophe mathématicien
dans September 98 Forum [14]. Voici
ce qu’il écrit en septembre 2000 :“Zeno's Paradox was the one about the philosopher who
thought: "How can I possibly get across this room? For before I can do
that, I have to get half-way across, and that takes time. And before I can get
half-way across, I have to get half-way-half-way across, and that takes time
too. And so on. So how can I possibly even begin?" I don't know what the
theoretical solution to Zeno's Paradox is, but the practical solution is to
walk across the room. Otherwise we have Zeno ‘s paralysis.”[6]
Pour mettre en application ses idées et aider au développement des archives, S. Harnad crée en 1997, Cogprints [15] la première archive qui permet de déposer des publications en sciences cognitives. Cette archive accueille différentes disciplines comme la linguistique, la biologie, la philosophie, l’informatique mais n’a pas grossi aussi rapidement qu’on aurait pu l’espérer. Après 7 ans d’existence elle compte seulement 2000 publications en libre accès. On peut expliquer cet échec par le manque de culture dans le partage des prépublications en sciences cognitives, par l’absence de raison d’être d’une archive centrale/disciplinaire et par l’absence d’une politique institutionnelle d’auto-archivage.
L’importance qu’il y a d’expliquer les nouvelles possibilités de communication scientifique et de discuter des réserves ou des craintes qu’elles entraînent n’a pas échappé à S. Harnad qui lance à cette même date un forum de discussion : le September-Forum qu’il modère et anime depuis lors. Cela a été d’abord un lieu d’échange intense des défenseurs et des opposants de la révolution proposée. Si on se réfère, par exemple aux discussions qui ont eu lieu en décembre 2000 [16] on constate que le frein principal est dû aux preprints considérés a tort, comme des substituts des post-publications et non comme leur supplément. En effet, les chercheurs ne comprennent pas que la version officielle de l’éditeur continue à exister et que le dépôt en archive ne concerne que le double de la version publiée.
Et de ce fait, à cette époque, la crainte a été de voir disparaître le contrôle des pairs. Toutes les questions et les réserves exprimées sur l’auto-archivage ont été relevées par S. Harnad et reprises avec leurs réponses dans des Frequently Asked Questions (FAQ) [17]. Aujourd’hui, alors que l’idée du libre accès est devenue plus évidente, ce forum qui a changé son appellation en American Scientist Open Access Forum [18] reste le lieu d’échanges de messages souvent passionnés entre les différentes « écoles du libre accès ». Editeurs, chercheurs et bibliothécaires donnent leur conception du futur de la communication scientifique et exposent leurs idées sur les moyens à prendre pour parvenir au libre accès. Inlassablement, S. Harnad déploie toute son énergie pour convaincre que l’auto-archivage est le moyen le plus rapide. Il insiste sur le fait que l’auto-archivage augmente l’impact scientifique et le démontre par des études bibliométriques. Il compare le nombre de citations faites pour des articles auto-archivés et en libre accès par rapport à ceux publiés dans les mêmes journaux mais non archivés. Ce taux est toujours supérieur. Ce taux peut-être deux à trois fois supérieur [19].
Le Chili et le Brésil sont dignes d’être remarqués pour leur clairvoyance et leur initiative, car ils ont créé dès 1998 une archive pour rassembler et mettre en libre accès toutes les publications de leurs chercheurs. Peu lues et peu citées car difficilement accessibles, les publications écrites en portugais et espagnol étaient « de la science perdue », selon les paroles des initiateurs du projet SciELo [20]. Le rassemblement des périodiques et leur mise en ligne en libre accès, ont été une grande avancée qui a permis de faire sortir ces pays de l’ombre. Progressivement, les chercheurs se sachant plus visibles, publient en anglais. Toutes les disciplines sont représentées sur ce site. Cuba et l’Espagne ont rejoint SciELo en 2003 et de nouveaux pays, comme la Colombie, le Costa Rica, le Mexique, le Pérou et le Venezuela font leurs premiers essais dans cette voie. En janvier 2005, 28 000 documents étaient consultables en libre accès dans SciELo.
Le gouvernement américain a fait en 1997, un fabuleux cadeau à la communauté biomédicale du monde entier : la base de données Medline créée et maintenue par la National Library of Medecine, a été mise en libre accès pour tous sur Internet. Depuis cette date, les médecins et biologistes du monde entier profitent de cette remarquable source d’information qui donne avec la référence, accès à l’abstract de l’article. Harnold Varmus, prix Nobel et en ce temps-là, directeur des National Institutes of Health (NIH) aux US trouvant qu’il était anormal que l’information n’aille pas au delà de l’abstract, lance l’idée de créer une archive en janvier 1999, afin que les publication biomédicales y soient déposées librement.
Le premier projet de l’archive
E-Biomed a été dressé par P. Brown (Stanford University) et D. Lipman du
National Center for Biotechnology Information (NCBI). Il a été mis sur la scène
publique en mai 1999 et a été largement débattu par la communauté scientifique
des biologistes. Le titre est :
“E-Biomed: a proposal for electronic
publishing in the Biomedical Sciences “[7].
Le 20 juin 1999 un
nouveau document avec un addendum commence ainsi : “ Dear Colleagues: I am continuing to think about
more effective use of electronic methods for disseminating the results of
biomedical research, and am actively seeking additional views and hoping to
stimulate wider discourse on the matter “.[8]
Il se refère à l’exemple
des physiciens. Il dit en conclusion :”The
advent of the electronic age and the rise of the internet offer an
unprecedented opportunity to change scientific publishing in ways that could
improve on virtually all aspects of the current system ”[9]
.
Dans ce projet, cette archive peut accepter toutes les publications en biomédecine, pré-publications et post-publications. Des pré-publications pourront être déposées pour y être soumises au contrôle des pairs. Les documents expertisés et ceux qui ne l’ont pas encore été, seront bien différenciés car situés dans des couches différentes de l’archive. Là encore, la communauté scientifique des biologistes n’a pas été prête à accepter l’idée d’une pré-publication librement mise en ligne et le danger d’une information fausse et dangereuse a été évoqué. Les critiques fusent dans les débats organisés par H. Varmus. Elles se concentrent sur la partie des pre-prints et les chercheurs oublient que ce n’est qu’une petite partie du projet et que l’essentiel est dans le dépôt des postprints. Dans son projet final H. Varmus sera obligé de retirer le dépôt des pre-prints qui devaient être soumis à publication et le délai de dépôt des postprints des périodiques qui accepteront de participer à l’archive, sera de six mois. E-Biomed prendra le nom de PubMed Central dans le courant de l’été 99 [21] et l’archive sera lancée en février 2000.
Bien évidemment, les éditeurs ont été réticents et ils n’ont pas adhéré à l’idée de mettre leurs périodiques dans l’archive PubMed Central. On peut lire cette réflexion dans un article qui relate les commentaires suscités par le projet : « C’est comme si vous invitiez des dindes à venir se faire rôtir pour Noël ». Les plus farouches opposants seront les périodiques FASEB, et New England Journal of Medecine. Le plus fervent défenseur sera N. Cozzarelli, rédacteur en chef des Proceedings of National Academy of Science (PNAS) [22]. La première année, seule une dizaine de périodiques scientifiques apparaîtront dans PubMed Central. Quatre ans après, elle en compte 161, mais la majorité sont des nouvelles revues en libre accès.
Pour faire avancer son projet H. Varmus lancera en début 2001, une pétition qui va déferler sur Internet : la pétition de Public Library of Science ou PLoS [23]. Les signataires demandent aux éditeurs que leur texte soit mis en libre accès au bout de 6 mois dans l’archive et menacent de ne pas acheter, de ne pas expertiser et de ne pas publier dans les revues qui n’obtempéreront pas. Au bout d’un an, trente quatre mille chercheurs ont signé ce manifeste mais de fait, les auteurs n’ont pas changé leurs habitudes et n’ont évidemment pas appliqué leur menace. Publier dans des revues au facteur d’impact bien établi étant essentiel pour faire avancer une carrière, il était évident que les chercheurs ne prendraient pas ce risque. Les éditeurs l’ont vite compris et n’ont pas tenu compte des exigences des scientifiques.
Au même moment, le Current Science Group, avec Vitek Tracz à sa tête, pressentant un intérêt dans ce projet d’archive et d’articles en libre accès n’a pas eu peur de créer une nouvelle maison d’édition, Biomed Central. Cette maison d’édition a proposé d’assurer le « peer review » et autres services, comme la traduction, pour les articles qui seraient déposés en pré-publications dans l’archive PubMed Central. A l’acceptation les post-prints devaient être mis en libre accès dans l’archive. A ce moment l’idée de faire payer celui qui publie n’apparaît pas encore. V. Tracz dit : “When we started BioMed Central, we didn't know what the business model would be. We believed the data would have to be free...”[10] [24]. Jan Velterop dirige actuellement Biomed Central qui compte plus 120 revues en libre accès en biologie et médecine. Ces revues font partie des 161 périodiques que l’on trouve dans l’archive PubMed Central. Le libre accès repose sur le payement par l’auteur qui publie. C’est un nouveau modèle économique que les éditeurs traditionnels essayent d’adapter et de développer avec beaucoup de précautions.
Le projet E-Biomed lancé par H. Varmus a été présenté dès le mois de mai 1999 à l’European Molecular Biology Organization (EMBO) dans l’espoir de trouver un appui supplémentaire. Mais la réponse européenne fait penser à la réflexion :«Je t’aime : moi non plus». E-Biomed a fait peur aux européens qui ont pensé, en particulier et sans doute à juste titre, au risque de monopole américain si toutes les publications étaient rapatriées et centralisées dans une archive aux Etats-Unis. Une coopération avec E-Biomed a été envisagée mais les partenaires européens ont rejeté d’emblée la possibilité de dépôt de pré-publications [25]. De plus, les organisateurs du projet européen ont appliqué une toute autre stratégie que celle de PubMed Central car ils ont cherché un appui auprès des grandes maisons d’édition commerciale. Blackwell, Springer, Elsevier, etc. ont été conviés à la réunion d’Heidelberg le 21 juillet 1999. Voici comment a été présenté le projet :
“This
meeting organised by EMBO [The European Molecular Biology Organization], which
included European journal editors, publishers, scientific society
representatives and EMBL/EBI, endorsed the concept originally promoted by the
NIH of a single, large searchable database for Life Sciences and cognate areas.
The proposed name for the depository is E-Bioscience, which allows a broader
scope than the original title of E-Biomed.” [11]
D’après F. Gannon, directeur exécutif de l’European Molecular Biology Organization, le projet pouvait voir le jour seulement s’il y avait coopération avec les éditeurs. Voici ce qu’il a dit “Such a site would be a valuable archive, but whether it would be free would be a ‘per publisher’ decision”[12] [26]. Cette collaboration a été critiquée et beaucoup ont pensé comme R. Dekeyser, conservateur en chef de la bibliothèque de l’université de Louvain, que F. Gannon allait trop loin dans ses efforts pour concilier les besoins des éditeurs [26].
Le projet E-BioSci a obtenu en septembre 2001, une subvention de l'Union européenne de 2,4 millions d'euros pendant 3 ans, pour le développement d'une plate-forme prototype. Cette plate-forme devait permettre une interconnexion entre tous les centres importants qui créent ou stockent de l'information biomédicale mais sans l’assurance d’avoir un accès libre au texte intégral. Le lancement du prototype a été annoncé le 26 novembre 2003 [27] avec invitation a faire des essais mais en décembre 2004 rien ne semblait avoir bougé sur le site.
Il faut noter qu’à peu près à la même date, la France et l’Allemagne mettent chacune en place un service pour aider à la création d’archives institutionnelles. En octobre 2000, le Centre de Communication Scientifique Direct (CCSD) [28] sera créé par le CNRS. Ceci, grâce à l’insistance d’un physicien, Franck Laloë. Ce chercheur a pris la tête du CCSD, dès sa création. Le Heinz Nixdorf Center for Information Management (ZIM) [29] de la Max Planck Society sera créé en janvier 2001 pour développer l’archive eDoc [30].
La communauté de chercheurs informaticiens a très vite compris que les archives disciplinaires qui se multipliaient rendaient la recherche d’informations difficile du fait de leur éclatement. Il fallait trouver un protocole qui rende toutes les archives inter-opérables.
A l’instigation de C. Lagoze et H.
Van de Sompel, une réunion de tous les responsables d’archives de cette époque,
s’est tenue à Santa Fé, en octobre 1999. Une convention a été dressée pour
donner une trame technique et organisationnelle, afin de permettre une
inter-opérabilité basique entre toutes les archives. Cette convention a été
officiellement lancée le 15 février 2000 [31]. Cette première norme est devenue
The Open Archive Initiative Protocole
for Metadata Harvesting (OAI-PMH)
en juillet 2001 [32]. Depuis, elle est devenue un standard international qui
évolue avec différentes versions. Mais il faut rappeler toutefois que le
premier modèle d’information distribuée et collectée a été donné par Citeseer
[33]. Citeseer est une archive disciplinaire en informatique moissonnée à
partir de sites divers (institutions, départements, sites web personnels. Le
nombre de documents de Citeseer est
supérieur à celui d’ArXiv et la première utilisation des liens entre citations
(reprise par Citebase [36]) a été faite également à partir de cette archive.
Le protocole OAI-PMH, mis au point en 2000, est un standard informatique qui, s’il est utilisé, permet d’éliminer toute notion de territoire et ne justifie plus la notion de centralisation dans une archive comme Pubmed Central. Une inter-opérabiblité est réalisée par un nouveau balisage de métadonnées (auteur, titre, journal, date). Ce standard permet la recherche et la collecte dans toutes les archives distribuées simultanément, comme si elles n’en faisaient qu’une.
Il est évident que seuls des outils standards avec accès au code source, dits « Open Source », peuvent contribuer efficacement au dépôt des documents en archives ouvertes. Dès septembre 2000, S. Harnad qui était à cette époque en poste à l’Université de Southampton, s’est attaché à faire développer le premier logiciel permettant de mettre tous les documents déposés selon le protocole OAI-PMH et rendant ces archives inter-opérables : il s’agit du logiciel GNU EPrints [34].
Le projet Open Citation Projet (OpCit) consacré à l’étude des liens entre les références et les analyses de citations pour les archives ouvertes est né également à Southampton peu de temps après et S. Harnad en est le « principal investigator » [13]. Différentes universités européennes et américaines sont associées au projet OpCit. Les détails de ce projet sont indiqués sur la page web OpCit Project [35]. Nous les citerons rapidement :
-Citebase [36], un logiciel qui permet des études bibliométriques.
-CiteBase Search [37] qui permet de rechercher dans toutes les archives compatibles OAI -PMH.
-Paracite [38] pour construire des liens entre un document en ligne et les documents cités.
-Celestial [39] un moissonneur qui collecte les métadonnées des archives compatibles OAI -PMH et qui réexpose ces métadonnées aux autres services.
-Institutional Archives Registry [40] le répertoire de toutes les archives institutionnelles avec l’ évolution de leur nombre de documents.
Des études bibliométriques sont menées actuellement à l’aide de ces outils, dans différentes disciplines [41]. En physique, une étude démontre que les citations des articles publiés dans un périodique et déposés également dans une archive, peuvent être de deux à trois fois supérieures à celles des articles publiés dans la même revue mais qui n’ont pas été auto-archivés [42]. Citebase a été conçu pour être facilement utilisé par les universités et les instituts de recherche, et permet une nouvelle façon d’évaluer les chercheurs, en tenant compte des citations de l’article, de l’auteur, des co-publications, du nombre de consultations, etc. et non plus uniquement celles du périodique avec le facteur d’impact de l’ISI. Nous rappellerons que le facteur d’impact mesure la fréquence moyenne avec laquelle l’ensemble des articles d’un journal est cité pendant une durée définie [43]. Un prototype pour un CV électronique standardisé des chercheurs a été également créé pour aider à l’évaluation [44].
L’émulation est constante dans le
domaine de l’OAI et de nombreuses universités ou institutions ont mis au point
à leur tour, d’autres logiciels OAI comme par exemple, DSpace, ou CDSware [45] .
Il est important de signaler le logiciel HAL [46] créé en France par le CCSD. Ce logiciel permet aux auteurs français de soumettre leurs documents à ArXiv, tout en déposant au passage une série d'informations (métadonnées) qui sont utiles, soit aux lecteurs (mots-clés, etc.), soit aux administrations (laboratoires, associations multiples des laboratoires, etc.), soit en bibliométrie. Avec Hal on peut aussi soumettre des documents dans des disciplines qui ne sont pas couvertes par ArXiv.
Des outils pour collecter l’information dans toutes les archives OAI dispersées dans le monde, ont également été conçus, comme OAIster [47] ou Arc [48] et même les moteurs traditionnels comme Google et Yahoo offriront sous peu un service focalisé sur les documents OAI. Yahoo collabore avec OAIster dans ce but.
Actuellement, le débat reste ouvert pour savoir, s’il faut des archives disciplinaires ou institutionnelles. Il y a de la place pour les deux types d’archives. N’oublions pas que l’OAI permet le moissonnage des métadonnées quel que soit l’emplacement des documents et un double dépôt n’est pas impossible. Selon l’organisation de la recherche dans chaque pays, on pourrait voir une dominante de l’un ou de l’autre type d’archive.
Mais il semble évident qu’une archive institutionnelle sera mieux alimentée et gérée qu’une archive disciplinaire parce que le chercheur et son institution partagent un intérêt commun dans l’impact scientifique et ne parle- t- ’on pas de « l’œil du maître » ? Elle sera mieux « scrutée » de l’extérieur, puisque l’image de marque de l’institution (c’est à dire le nom de l’institution) a un grand poids dans la recherche d’une information et dans sa sélection.
De plus, la dispersion des
archives institutionnelles exclut tout risque de monopole étatique dans
l’information alors qu’une archive centralisée comme PubMed Central pourrait le
faire craindre.
L’étude commanditée par le Joint Information Systems Committee (JISC) en 2004, en Grande Bretagne confirme que les archives institutionnelles ont le pouvoir de générer un plus grand nombre de documents en libre accès et recommande la création d’archives institutionnelles distribuées, puis recentralisées pour la collecte en une seule archive nationale [49].
Le développement du standard OAI et la pétition PLoS ont permis la prise de conscience du libre accès ; en décembre 2001, les chercheurs les plus impliqués dans le développement du libre accès se sont réunis à Budapest, à l’instigation de G. Soros, financier et philanthrope, pour lancer un appel aux chercheurs du monde entier à participer à la libération de la communication scientifique. Les bibliothécaires sont représentés par une association de bibliothécaires américains : la Scholarly Publishing and Academic Resources Coalition (SPARC). Les chercheurs présents sont issus de différentes disciplines, ce qui donne un éventail de toutes les « sensibilités » du libre accès du moment. On y trouve J.C. Guédon travaillant en sciences humaines et sociales, S. Harnad en sciences cognitives, M. Eisen en biologie, P. Suber en philosophie, M. La Manna en économie [50]. Au cours de cette réunion les participants ont rédigé un manifeste et développé une stratégie officielle.
L’appel a été lancé dans le monde entier par voie de presse le 14 février 2002 dans les périodiques scientifiques comme Nature et aussi dans des grands quotidiens nationaux et un message a déferlé sur Internet : il s’agit de la Budapest Open Access Initiative (BOAI) [4]. Le signataire s’engageait à promouvoir le libre accès
-soit par la BOAI1 c’est-à-dire par l’auto-archivage de ses travaux
-soit par la BOAI2 c’est-à-dire en publiant dans des revues en libre accès.
L‘idée de la BOAI2 a fini par être acceptée par la communauté scientifique mais aujourd’hui, la BOAI1 (l’auto-archivage) n’a pas encore été bien comprise. Les déclarations d’importance faites par différentes communautés universitaires en 2003 aux Etats-Unis, à Bethesda [5] et en Europe à Berlin [6] ont mis l’accent sur les publications en libre accès et ont quelque peu délaissé l’auto-archivage.
Nous rappellerons donc qu’un article auto-archivé, n’est que le double de la version originale d’un article publié dans une revue traditionnelle et que ce dépôt en archive ne remet pas en question le contrôle fait par les pairs (peer review), ou la fonction éditoriale traditionnelle. Il n’est pas impossible que de nouvelles façons de travailler soit étudiées et expérimentées pour bénéficier pleinement des nouvelles possibilités données par Internet, mais ces transformations ne sont pas indispensables pour donner le libre accès. Aujourd’hui, seul le contrat avec l’éditeur que les chercheurs signent sous le nom de « copyright transfer agreement » doit être étudié et revu.
S. Harnad a toujours défendu l’idée d’une archive avec des publications contrôlées par les pairs. Il a vite compris aussi que le frein à l’adhésion à l’auto-archivage venait de la mauvaise image de marque des prépublications auprès de la majorité des chercheurs qu’il restait à convaincre. Donc il fallait pouvoir déposer la postpublication mais pour cela il fallait que certains droits restent entre les mains du chercheur, à la signature du contrat avec l’éditeur (copyright transfer agreement). En effet, traditionnellement le chercheur en signant, cédait tous ses droits à la revue et perdait le droit de mettre son texte dans une archive publique indépendante du périodique. La solution est donnée dans la « Stratégie Harnad/Oppenheim » : Il s’agit pour le chercheur d’auto-archiver sa prépublication qui lui appartient incontestablement. Au moment de la signature du « copyright transfert agreement », il faut négocier le droit de le laisser dans une archive. La négociation réussie, on remplace la prépublication par le document tel qu’il a été accepté après le contrôle des pairs. Dans le cas où ce droit est refusé, il faut simplement rajouter à la pré-publication, dans un fichier séparé, les corrections majeures apportées à l’article pour son acceptation et la référence où l’article a été publié.
Cette stratégie Harnad/Oppenheim qui implique une négociation avec l’éditeur n’est plus souvent nécessaire maintenant, car la progression du concept du libre accès et la démonstration de son pouvoir d’augmenter l’impact scientifique ont progressivement poussé les éditeurs à clarifier leur politique vis à vis de l’auto-archivage et à modifier leur copyright. La politique d’auto-archivage de chaque éditeur est répertoriée sur le site E-Prints RoMeo [51] et le site RoMeo Sherpa. RoMeo est devenu la clé du libre accès, mais il reste encore trop peu connu. C’est un outil indispensable à promouvoir auprès des bibliothécaires et des chercheurs. Les couleurs utilisées dans les tableaux ont entraîné une dénomination devenue classique, celle de « revues vertes » pour les revues qui autorisent l’auto archivage et celle de «revues grises » pour les périodiques qui ne l’autorisent pas encore.
Le site E-prints ROMEO indique qu’aujourd’hui, en 2005, 92% des 8 457 périodiques sondés (y compris les périodiques les plus importants) endossent officiellement l’auto-archivage par l’auteur. En 2003, il y en avait 55%. S. Harnad n’a eu de cesse de faire préciser leur politique à tous les éditeurs. Si l’on se réfère aux courriers retransmis dans American Scientist Open Access Forum [18] on voit qu’il dénonce des notions vagues et contradictoires comme « site personnel » et « site institutionnel » utilisées par les éditeurs. Il a en particulier fortement insisté pour qu’Elsevier cesse d’exiger des chercheurs qu’une demande d’autorisation d’auto-archivage soit faite au coup par coup, et c’est à lui qu’ Elsevier a annoncé en premier, par courrier électronique, le nouveau copyright qui autorisait clairement de mettre les post-publications dans une archive ouverte.
Cette annonce a été aussitôt retransmise dans la liste American Scientist Open Access Forum, le 27 mai 2004. D’un seul coup, 1 800 périodiques sont devenus « verts ». Seuls 8% des périodiques répertoriés sur le site RoMeo n’ont pas encore accepté cette pratique mais il est sûr, qu’il leur sera difficile de résister longtemps à ce mouvement en faveur du libre accès.
Une bibliographie répertorie toutes les études faites depuis quelques années sur l’impact du libre accès [52]. Jusqu’à présent la démonstration de l’augmentation de la visibilité des articles qui entraîne une plus grande reconnaissance du travail fourni, n’a pas eu beaucoup d’effets concrets auprès des chercheurs. Pourtant, si l’on se réfère à l’enquête JISC/OSI de A. Swan et S.N. Brown de mars 2004 [53], 69% des chercheurs seraient d’accord pour auto-archiver si leur organisme l’exigeait (l’étude la plus récente de 2005 fait état de 79% [54]). Par ailleurs, en février 2005, on dénombre 396 archives institutionnelles inégalement remplies [55] mais il est évident que celles qui donnent le plus de documents en libre accès sont celles où une politique de dépôt systématique a été exigée [56]. L’exemple de la politique du département Electronics and Computer Science de l’université de Southampton est démonstratif : ce département à lui seul, permet un libre accès à 1600 articles [57], alors qu’une archive d’université en propose, en moyenne, actuellement 200 à 300. Il apparaît donc de plus en plus évident que le libre accès doit être dirigé.
L’idée du libre accès s’est généralisée au-delà des universités et a touché la classe politique : on assiste depuis quelques mois à une prise de conscience des parlementaires de plusieurs pays sur la nécessité du libre accès pour la communication scientifique.
Parce que le mouvement du libre accès est très présent et bien défendu dans beaucoup d’universités anglaises depuis deux ans, le Royaume-Uni s’est fortement intéressé au libre accès dès la fin de l’année 2003 et un rapport a été demandé au House of Commons Science and Technology Committee. Ce rapport a été rendu public en juillet 2004, après une enquête de 6 mois. Pour cette enquête, on a demandé à différents acteurs de la communication scientifique (chercheurs, éditeurs, bibliothécaires) d’apporter des témoignages écrits. Pour obtenir des précisions, souvent des témoignages oraux complémentaires ont été demandés à ces témoins. S. Harnad a apporté par écrit tous ses arguments en faveur de l’auto-archivage [58]. Pendant tous ces mois, parce qu’on ne lui avait pas demandé de témoignage oral, il a cru que ses arguments sur les archives ouvertes ne seraient pas retenus et que seule l’idée du libre accès par la publication dans de nouvelles revues serait à nouveau privilégiée. En effet, la Déclaration de Berlin [5] rédigée en octobre 2003 et signée par de nombreuses institutions et universités européennes avait quelque peu négligé l’auto-archivage et les Archives Ouvertes, en portant seulement son attention sur les revues en libre accès. Mais les parlementaires anglais du Science and Technology Committee ont bien compris les enjeux et le rapport [59] préconise que la publication (facultative) dans des revues en libre accès doit continuer à être encouragée et soutenue mais que l’auto-archivage dans des archives institutionnelles de tous les articles publiés par les chercheurs britanniques doit devenir obligatoire.
Malheureusement les recommandations du comité n’ont pas été comprises et le 8 novembre 2004 le gouvernement anglais a rejeté les conseils du comité. L’argumentation développée par le gouvernement montre leur incompréhension : un amalgame malheureux est fait entre la publication en libre accès et l’auto-archivage. Par ailleurs, les membres du Science and Technology Committee accusent ouvertement [60] le département du commerce et de l’industrie d’avoir soutenu le lobby de l’industrie de l’édition scientifique. Dans ce contexte on peut dire que les hommes politiques ont manqué de courage pour promouvoir le libre accès à la production scientifique en Grand Bretagne.
Parallèlement, aux USA en juillet 2004, un autre évènement important a eu lieu : un projet d’auto-archivage des publications des National Institute of Health (NIH) est né [61]. Il aurait pu avoir un fort retentissement s’il avait gardé son souffle initial. Ce projet a été fortement soutenu par les chercheurs (en particulier par les prix Nobel en médecine et biologie), les associations de malades et différentes fondations. Comme cette recherche est financée par des fonds publics, il leur paraissait juste que ses résultats soient mis à la disposition de tous, publiquement. Il a d’abord été annoncé fin 2004, que toute publication financée par les NIH devait être déposée dans PubMed Central au bout de 6 mois. Mais les dernières dispositions prises en janvier 2005 annoncent un retour en arrière de cette politique de libre accès : l’auto-archivage ne serait pas obligatoire mais facultatif, et il pourrait se faire seulement 12 mois après publication. Ce délai d’un an n’apporte rien au progrès d’une science comme la biologie qui a besoin de résultats rapidement disponibles pour avancer.
Les hommes politiques n’ont pas compris aussi qu’il n’est pas nécessaire de prescrire l’auto-archivage centralisé. Une politique d’archivage institutionnel peut également participer au développement de ce nouveau processus éditorial. Grâce au protocole OAI-PMH, toutes les archives sont inter-opérables et moissonnables et peuvent être assimilées à une seule « meta-archive » virtuelle, qu’elles soient institutionnelles ou thématiques.
Il est fort probable que le rapport commandité par la Commission Européenne en juin 2004 [62] et qui doit être rendu en 2005, s‘appuiera sur les rapports des NIH et du Science and Technology Committee. L’Europe sera–t-elle plus directive que les gouvernements anglais et américain ?
La première Déclaration de Berlin signée en octobre 2003 pour montrer l’adhésion des responsables universitaires à l’idée du libre accès, est restée sans conséquences car les signataires n’ont pas cherché à mettre leur décision en application. A l’issue de la première réunion de Berlin des rencontres bisannuelles, ont été décidées pour faire le point des progrès et des nouvelles mesures à prendre. Berlin 2 a eu lieu au CERN à Genève, en mai 2004, mais aucun progrès notable pour le libre accès n’a été perçu après cette seconde réunion. De ce fait, des chercheurs ont axé tous leurs efforts pour qu’à l’issue de la réunion de Berlin 3 qui s’est tenue à Southampton, le 28 février et le 1er mars 2005, les signataires appliquent réellement une politique institutionnelle favorisant le libre accès [63]. La presse britannique s’est intéressée à cet événement. Le quotidien le Guardian y a consacré deux articles et parle de la politique du « Keystroke [14]» recommandée par le « Professeur Harnad » [64] et [65]
Les signataires de Berlin3 recommandent que les institutions qui se sont engagées en octobre 2003 adoptent une politique exigeant que leurs chercheurs déposent leurs publications dans une archive ouverte institutionnelle et encourageant les chercheurs à publier dans des revues en libre accès quand elles existent (en fournissant les moyens nécessaires pour ce faire).
Le CNRS, le CERN et l’INRIA ont affiché leur adhésion à ces recommandations, dans les jours qui ont suivis la réunion de Berlin 3. [66] Cette politique, en apportant plus de visibilité sur les travaux des équipes financées par leur tutelle, accroîtra de façon remarquable leur rayonnement.
Les hommes politiques n’ont pas toujours perçu le bénéfice donné par le libre accès aux résultats de la recherche et ils n’ont pas osé s’opposer au lobby des éditeurs. Mais les organismes qui financent la recherche ont le pouvoir d’infléchir une décision en limitant l’attribution de moyens financiers aux seuls chercheurs qui mettront leurs articles en libre accès. C’est ce que feront probablement les Research Councils UK (RCUK).
A l’heure où tous les
scientifiques commencent à penser que l’idée du libre accès est évidente et où
les hommes politiques découvrent sa nécessité, cette rétrospective permet de
comprendre tout le travail qui a été nécessaire pour y parvenir. Les chercheurs
qui ont participé aux premières « batailles du libre accès » ont été
nombreux et nous en avons cité quelques uns. Tous les signataires de
l’Initiative de Budapest ont su prendre leur place sur la scène internationale
du libre accès : Jean-Claude Guédon en prêchant inlassablement la bonne
parole dans le monde entier, Peter Suber en agissant efficacement aux USA et en
diffusant à la communauté internationale cette inestimable lettre de synthèse
et réflexion sur le libre accès, SPARC Open Access Newsletter (créée sous le
nom de FOS Newsletter) [67], Harold Varmus, Pat Brown et Mike Eisen en
développant les initiatives autour de Public Library of Science. Les
bibliothécaires eux aussi ont pris leur part d’action dans la propagation de ce
mouvement, en créant des archives ouvertes. Mais il faut surtout rendre hommage
à Stevan Harnad. Sa liste de publications [68] et de conférences [69] sur les
archives ouvertes est impressionnante et peut témoigner de son engagement. Mais c’est certainement R. Poynder qui
décrit le mieux l’impact de Stevan Harnad sur la communauté scientifique, par
ces mots : « Blessed with a facility
for rhetoric and argumentation that few can equal -Harnad has spent the last 10
years cajoling, hectoring, haranguing, and pleading with fellow researchers and
verbally battering critics into submission (or at least bruised silence).
Thus, while Harnad cannot
claim to have invented the OA movement, his phenomenal energy and
determination, coupled with a highly focused view of what is needed,
undoubtedly earns him the title of chief architect of open access »[15] [70].
La « Proposition Subversive » de S. Harnad a dix ans et cette idée subversive a réussi à devenir presque conventionnelle. Des chercheurs pendant des années, ont cherché à démontrer « expérimentalement » les possibilités et les avantages de l’auto-archivage pour obtenir le libre accès à la communication scientifique.
Toutes ces expériences ne sont pas étrangères aux recommandations faites à l’issue de la réunion de Berlin 3, à l’Université de Southampton. Un grand pas a été fait en mars 2005 en Grande Bretagne. Le reste du monde suivra.
[1] STIX G. (1994) “The speed of write”, Scientific American, December 1994, p72-77
[2] TENOPIR, C. (2004) “ Online scholarly
journals: How many ?” Library
Journal 2/1/2004 http://www.libraryjournal.com/article/CA374956
[3]SUBER, P. (2004), “Praising progress,
preserving precision” SPARC Open Access
Newsletter, September 2004, isssue 77 http://www.earlham.edu/~peters/fos/newsletter/09-02-04.htm
[4] Budapest Open Access Initiative http://www.soros.org/openaccess/fr/index.shtml
[5] Bethesda statement on access
publishing http://www.earlham.edu/~peters/fos/bethesda.htm
[6] Berlin Declaration http://www.zim.mpg.de/openaccess-berlin/berlindeclaration.html
[7] ArXiv http://xxx.lanl.gov/./
[8] GINSPARG P., “Electronic research
archives for physics”, in The Impact of Electronic Publishing on the Academic
Community. Session 1: recent situation and the likely future, Portland
Press,1997 http://www.portlandpress.com/pp/books/online/tiepac/session1/ch7.htm
[9] http://www.ecs.soton.ac.uk/~harnad/Temp/self-archiving_files/Slide0010.gif
[10] BOSC H.,« La communication scientifique en libre accès » http://www.tours.inra.fr/prc/internet/documentation/communication_scientifique/comscith.htm#archives
[11] HARNAD S.,
“Scholarly Skywriting” http://www.ecs.soton.ac.uk/~harnad/Papers/Harnad/harnad90.skywriting.html
[12] Psycoloquy http://psycprints.ecs.soton.ac.uk/
[13]HARNAD S.,“Subversive proposal” http://www.arl.org/scomm/subversive/sub01.html
[14]HARNAD S., “Zeno’s paradox and the road to the optimal/inevitable”
http://www.ecs.soton.ac.uk/~harnad/Hypermail/Amsci/0819.html
[15] Cogprints http://cogprints.org/
[16] SEPTEMBER 98-FORUM “The preprints is
the postprint” http://listserver.sigmaxi.org/sc/wa.exe?A1=ind00&L=september98-forum&F=l#116
[17] HARNAD,S., FAQ de Eprints.org http://www.eprints.org/self-faq/
[18] American Scientist Open Access Forum
http://amsci-forum.amsci.org/archives/American-Scientist-Open-Access-Forum.html
[19] HARNAD S.,
BRODY T.,“Comparing the
Impact of Open Access (OA) vs. Non-OA Articles in the Same Journals”, D-Lib Magazine, June 2004 , vol 10, (6). http://www.dlib.org/dlib/june04/harnad/06harnad.html
[20] SciELo http://www.Scielo.org/index.php?lang=en
[21] PuMed Central http://www.nih.gov/about/director/pubmedcentral/pubmedcentral.htm
[22] MARSHALL E., “E-biomed morphs to E-biosci, Focus shifts to reviewed
papers”, Science , 6 August1999, vol
285, p.810-811.
[23] Open letter PLOS http://www.plos.org/about/letter.html
[24] POYNDER R. Interview
with Vitek Tracz “ Essential for science”, Infotoday
22 (1) January 2005, http://www.infotoday.com/it/jan05/poynder.shtml
[25] MARSHALL E. ”U.S., european backers differ on E-biomed plan”. Science vol 285, 16 july 1999, p. 315.
[26] BUTLER D., “All parties keen to press on with Europe-based science
website”. Nature, , 27 January 2000, vol. 403, p.347-348.
[27] E-BioSci prototype http://www.e-biosci.org/prototype.html
[28] CCSD http://www.ccsd.cnrs.fr/rubrique.php3?id_rubrique=3
[29] ZIM http://www.zim.mpg.de/
[30] EDOC http://edoc.mpg.de/
[31] Santa Fé Convention http://www.openarchives.org/meetings/SantaFe1999/sfc_entry.htm
[32] OAI protocole http://www.openarchives.org/OAI/openarchivesprotocol.htm
[33] CITESEER http://citeseer.ist.psu.edu/
[34] E-prints.org http://www.arl.org/sparc/pubs/enews/aug01.html#6
[35] OpCit project http://opcit.eprints.org/opcitpeople.shtml
[36] Citebase http://citebase.eprints.org/analysis/correlation.php
[37] Citebase Search http://citebase.eprints.org/cgi-bin/search
[38
Paracite http://paracite.eprints.org/
[39] Celestial http://celestial.eprints.org/
[40] Institutional Archive registry
http://archives.eprints.org/eprints.php?action=browse
[41] HAJJEM C. http://www.crsc.uqam.ca/lab/chawki/ch.htm
[42] BRODY T. “Citation impact of Open access articles vs articles
available only through subscription (« toll-access »)” http://citebase.eprints.org/isi_study
[43]
ISI “The impact factor” http://www.isinet.com/essays/journalcitationreports/7.html/
Publication originale parue dans les Current Contents print editions June 20, 1994
[44] Standardized C.V. http://paracite.eprints.org/cgi-bin/rae_front.cgi
[45] Software http://archives.eprints.org/eprints.php?action=browse#version
[46] Hal http://hal.ccsd.cnrs.fr/
[47] OAIster http://oaister.umdl.umich.edu/cgi/b/bib/bib-idx?c=oaister;page=simple
[48] ARC http://arc.cs.odu.edu/
[49] SWAN, A., NEEDHAM, P., PROBETS, S.,
MUIR, A., O'BRIEN, A., OPPENHEIM, C., HARDY, R., ROWLAND, F. “Delivery,
Management and Access Model for E-prints and Open Access Journals within
Further and Higher Education”, 2004
http://www.keyperspectives.co.uk/OpenAccessArchive/E-prints_delivery_model.pdf
[50] BOAI http://www.soros.org/openaccess/fr/read.shtml
[51] E-prints RoMeo http://romeo.eprints.org/
[52] HITCHCOCK S.,“The effect of open access and downloads (hits) on
citation impact: a bibliography of studies” http://opcit.eprints.org/oacitation-biblio.html
[53] SWAN A., BROWN S.N., JISC/OSI Journal Authors Survey Report. (2004)
http://www.jisc.ac.uk/uploaded_documents/JISCOAreport1.pdf
[54] SWAN A. Survey 2005 http://www.eprints.org/berlin3/ppts/02-AlmaSwan.ppt
[55] OAISTER
http://oaister.umdl.umich.edu/o/oaister/viewcolls.html
[56] Sample research self-archiving policy http://software.eprints.org/handbook/departments.php
[57] ECS eprints service http://eprints.ecs.soton.ac.uk/
[58] Memorandum from Professor Stevan Harnad, University of Southampton
http://www.publications.parliament.uk/pa/cm200304/cmselect/cmsctech/399/399we151.htm
59] Scientific
publications: free for all ? Tenth report 20 july 2004 http://www.publications.parliament.uk/pa/cm200304/cmselect/cmsctech/cmsctech.htm
[60] MPs condemn government response to
scientific publications report http://www.parliament.uk/parliamentary_committees/science_and_technology_committee/scitech081104.cfm
[61] Projet des NIH http://grants1.nih.gov/grants/guide/notice-files/NOT-OD-04-064.html
[62] Un système de publication scientifique efficace pour la recherche européenne
[63] HARNAD S. The Implementation of the Berlin Declaration on Open Access
Report on the Berlin 3 Meeting Held 28 February - 1 March 2005, Southampton, UK
D-Lib Magazine, March 2005, Volume 11 Number 3.
http://www.dlib.org/dlib/march05/harnad/03harnad.html
[64] WRAY, R. Keystroke strategy for open
access, The
Guardian Tuesday
March 1, 2005
http://education.guardian.co.uk/higher/news/story/0,9830,1427682,00.html
[65f] MACLEOD D. Academics trash out open
access details, The Guardian, Wednesday March 2, 2005
http://education.guardian.co.uk/higher/research/story/0,9865,1428634,00.html
[66] Institutional commitment http://www.eprints.org/signup/sign.php
[67] SPARC Open Access Newsletter
https://mx2.arl.org/Lists/SPARC-OANews/List.html
[68] HARNAD S. Online Research Communication and Open Access
http://www.ecs.soton.ac.uk/~harnad/intpub.html
[69] HARNAD S. Talks http://www.ecs.soton.ac.uk/~harnad/talks.htm
[70] POYNDER R., “Ten years after”. Information Today, October 2004, 21(9). http://www.infotoday.com/IT/oct04/poynder.shtml
[1] Les scientifiques maintenant rapportent leurs recherches -depuis la première inspiration jusqu’au résultat final- par les réseaux électroniques. Même des expériences peuvent être suivies en directe, en ligne. Les éditeurs et les bibliothèques pourraient bien ne plus être jamais les mêmes.
[2] Traduction donnée par S.
Harnad : Tableau global de graffiti
pour un « Trivial Pursuit »
[3] Traduction donnée par S. Harnad :Cielographie savante http://eprints2.uqam.ca/archive/00000018/
[4]
Explication de S.
Harnad : « La Cielographie Savante est
l'ensemble de tous les nouveaux pouvoirs d'interaction scientifique en ligne.
En ordre chronologique:
(1) Revues (et
version de revue) en ligne plutôt qu'en papier
(2) Fourniture
du texte intégral (numérique) des prépublications ainsi que publications en
accès libre (texte intégral disponible pour
tous sur le web)
(3) Fourniture des bases de
données empiriques, sous jacentes aux articles publiés, en accès libre en ligne
(4) La possibilité d'accéder
a tous textes et données numériques, de les utiliser, de bâtir davantage de
recherches la-dessus et -- peut-être le plus révolutionnaire -- de copier/coller
les extraits de texte (surtout, mais de données/figures etc. aussi
éventuellement) et de faire des commentaires, en forme de citation/commentaire
"dans les cieux" c'est a dire également en ligne et en accès libre,
visible, et rejoignable par tous.
A mon idee, (4)
est le moins connu, le moins exploité, mais le plus puissant de tous les
nouveaux pouvoirs, car il remet au cerveau humain un pouvoir interactif et
cognitif pour lequel le cerveau est optimisé depuis (et pour) l'évolution de la
langue -- la communication orale, qui a son propre tempo d'interactivité qui a
été perdu depuis l'invention de l'écriture et l'édition en papier, mais qui
sera ressuscité par la possibilité offerte par les cieux de la diffusion en
ligne. »
"Back to the Oral Tradition
Through Skywriting at the Speed of Thought"
http://www.interdisciplines.org/defispublicationweb/papers/6
[5] Proposition subversive
[6] Le paradoxe de Zénon se rapporte au philosophe qui pense :
« Comment pourrais-je traverser cette pièce ? Car avant d’y parvenir,
je dois traverser la moitié du chemin, et cela demande du temps. Et avant que
je fasse la moitié du chemin, je dois faire la moitié de la moitié du chemin et
cela prend du temps aussi. Et ainsi de suite. Comment pourrais-je donc
commencer ? Je ne connais pas la solution théorique du paradoxe de Zénon
mais la solution pratique est de traverser la pièce. Autrement nous avons la
paralysie de Zénon.
[7] E-Biomed : Une proposition pour publication électronique en sciences biomédicales.
[8] Chers collègues, je continue à réfléchir sur l’utilisation la plus
efficace des moyens électroniques pour diffuser les résultats de la recherche biomédicale et je cherche
activement d’autres avis en espérant stimuler des échanges plus larges sur le
sujet.
[9] L’arrivée de l’âge
électronique et le développement d’Internet offrent une opportunité sans
précédent pour changer la publication scientifique de manière à améliorer
quasiment tous les aspects du système actuel.
[10] Quand nous avons commencé BioMed Cebtral nous ne savions pas quel en serait le modèle économique. Nous pensions que les données devraient être en accès libre…
[11] Cette réunion organisée par l’EMBO à laquelle participaient les
rédacteurs des périodiques européens, les éditeurs, les représentants des
sociétés scientifiques de l’EMBL/EBI, a approuvé le concept initialement promu par les NIH, d’une base
de données unique
de large couverture pour les sciences de la vie et domaines apparentés.
Le nom proposé pour cette archive est E-Biosciences qui permet de couvrir un
champ plus vaste que le titre original E-Biomed.
[12] Un tel site pourrait être une archive précieuse mais la décision de
donner le libre accès ou non doit venir des éditeurs.
[13] chercheur principal
[14] Keystroke : coup de clavier : Il s’agit de déposer systématiquement des publications dans une archive en tapant les références et mettre si on le souhaite également, le texte en libre accès, par un dernier coup de clavier. http://www.ecs.soton.ac.uk/~harnad/Temp/berlin3-harnad.ppt
[15] Doté d’une capacité de rhétorique et d’argumentation peu commune
–Harnad a passé ces 10 années à cajoler, malmener, haranguer, et plaider auprès
de ses camarades chercheurs, réduisant les critiques par des coups verbaux (ou
au moins obtenant un silence meurtri). Ainsi, bien que Harnad ne puisse pas
prétendre avoir inventé le mouvement du Libre Accès, son énergie phénoménale et
sa détermination couplées à une vue extrêmement précise de ce qui est
nécessaire, lui délivre indubitablement le titre d’architecte en chef du Libre
Accès .