Condivido un’interessante intervista ad Elena Giglia, responsabile dell’Unità di progetto Open Access dell’Università di Torino, pubblicato sull’ultimo numero di APRE Magazine. Si parla di Comunicazione Scientifica e Open Access, alcuni degli elementi fondamentali dell’Open Science. Nell’ottica delle future implementazioni previste in FP9 e del ruolo sempre più centrare della Scienza Aperta nel prossimo e nell’attuale programma quadro,  quest’articolo è quanto mai attuale.

Alla luce dei risultati presentati dalla Commissione europea, cerchiamo di capire prima di tutto, con la Dott.ssa Giglia, che cosa non funziona nell’attuale sistema della comunicazione scientifica?

Direi che il sistema nel suo complesso presenta alcune “disfunzioni croniche”. Tecnicamente, gli editori si sono limitati a riprodurre sul web le riviste di carta, senza sfruttare appieno la tecnologia che invece permetterebbe ad esempio di scrivere in modo collaborativo o usare macchine per leggere ed estrarre concetti in pochi secondi. I tempi medi di pubblicazione di un articolo scientifico sono rimasti di 9-18 mesi: ha senso nell’era del web in cui un blog post viene letto istantaneamente? Ma oltre a tecniche obsolete si sono perpetuate altre storture. Non tutti sanno che un autore,
quando pubblica un libro accademico o un articolo su una rivista non riceve alcun compenso economico; ciò che si aspetta è il riconoscimento da parte della comunità scientifica per la condivisione delle sue scoperte. Eppure, gli editori commerciali hanno profitti enormi – intorno al 38%, quando case farmaceutiche sono al 40%…ma pagano la materia prima. In più, 5 editori si spartiscono oltre il 50% del mercato, creando di fatto una situazione di oligopolio, che non è mai positiva perché regole e prezzi sono dettati da pochi.
Un altro paradosso sta nel fatto che ogni università nel mondo paga la propria ricerca quatto volte: stipendia il ricercatore; finanzia la ricerca; una volta che questa viene pubblicata deve “ricomprarla” pagando abbonamenti alle riviste – nel mio ateneo, oltre due milioni l’anno -; infine, se i ricercatori vogliono riutilizzare quanto loro stessi hanno pubblicato, devono pagare diritti di riuso perché gli editori si fanno cedere il copyright. Sulle cifre incassate invece dagli editori nulla si può sapere in virtù di clausole di riservatezza fatte firmare a chi negozia le licenze a livello nazionale.
Se si pensa che, negli ultimi venti anni, il prezzo delle riviste scientifiche è aumentato di oltre il 400%, mentre i fondi per la ricerca hanno subito drastiche riduzioni, è chiaro che le biblioteche
hanno dovuto tagliare abbonamenti, per cui i ricercatori come autori sono letti di meno e come lettori possono leggere di meno. Ha un senso nell’era di Internet, in cui tutti hanno accesso a quanto è in rete?
Ha senso che oggi continuiamo a pagare gli editori tradizionali perché di fatto invece di diffonderla mettano sotto chiave la ricerca, che – non dimentichiamolo – spesso è prodotta con fondi pubblici? Un medico può permettersi 10.000 euro di abbonamenti? Il sito pirata SciHub, con i suoi sei milioni di download mensili, non è una soluzione ma un chiaro sintomo che i problemi di accesso ci sono, e gravi.
Chiediamoci allora: perché gli autori continuano a pubblicare sulle riviste scientifiche? La risposta sta nei criteri utilizzati per la valutazione della ricerca, che è un giogo imprescindibile per un ricercatore che voglia fare carriera.
Tradizionalmente, gli autori – almeno nelle scienze esatte per cui esistono le banche dati di riferimento – vengono giudicati in base al numero delle citazioni che la pubblicazione riceve, che in teoria dovrebbero essere segno di prestigio e apprezzamento da parte della comunità di riferimento. La media delle citazioni dà luogo a un indicatore detto Impact Factor (IF), il quale viene calcolato da una banca dati commerciale, a sua volta di proprietà di grandi editori. Dal punto di vista statistico, l’Impact Factor non è una misura solida, primo perché si riferisce all’intera rivista e non allo specifico articolo, e poi perché essendo una “media” si applica sia all’articolo che ha avuto zero citazioni sia a quello che ne ha avute il massimo, che vengono quindi giudicati nello stesso modo. Detto questo, il vero problema risiede nel fatto che, in epoca di scarsità di fondi per la ricerca, la competizione per arrivare a pubblicare nelle riviste con più alto Impact Factor, più utili ai fini valutativi, è diventata sfrenata, e ha portato a comportamenti adattivi non sempre virtuosi che vanno dallo spezzettamento fittizio in più articoli per avere più pubblicazioni a vere e proprie frodi – ciò che con termine anglosassone si definisce “scientific misconduct” – o falsificazioni di dati. Il blog scientifico Retraction Watch traccia quotidianamente casi di ritrattazioni di articoli per questi motivi, e uno studio del 2012 mostra un’altissima correlazione fra Impact Factor e numero di ritrattazioni. Più è alto l’IF, più crescono le ritrattazioni. Se il clima è ipercompetitivo, si arriva a tutto pur di pubblicare sulle sedi apparentemente più prestigiose. Ma gli studi più recenti di Bjorn Brembs dimostrano al contrario che le riviste più famose pubblicano in genere la peggiore scienza.

Continua a leggere su APRE Magazine

Lascia un commento

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: