La valutazione della ricerca
Paolo Gatti, Gian Maria
Varanini e Andrea Caranti rispondono a Paolo Tosi
L'opinione di Paolo Gatti e Gian
Maria Varanini
Nel numero 10 di unitn,
con il tono persuasivo di chi si basa sempre e comunque sulle proprie certezze,
Paolo Tosi, in un articolo "risolutivo" dal titolo Come
valutare la ricerca. Giudizio dei pari o indicatori numerici? Quali sono i parametri
più idonei per valutare "i prodotti intellettuali",
ci ricorda alcune verità sacrosante. È vero che il compito di valutare
la ricerca scientifica "è certamente non facile". Incurante della
premessa, che mette però in risalto la propria bravura (più il problema
è difficile, più sono bravo se lo risolvo), Tosi liquida il "giudizio
di un comitato di esperti ... possibilmente anonimi" con le consuete critiche
("soggettività del giudizio", diffidenza "verso teorie che
sfidano i loro convincimenti", incapacità "di stabilire l'importanza
del lavoro sotto esame"). Passa quindi ad illustrare l'uso degli "indicatori
numerici (numero di pubblicazioni, di citazioni ricevute, ecc.)" che quantificano,
"in modo più o meno rozzo ma uguale per tutti, la quantità
e la qualità (sic) della produzione scientifica". A proposito
del numero delle citazioni, è questo il concetto che deve passare, Tosi
sottolinea che "il suo uso introduce importanti elementi di oggettività",
dal momento che se una pubblicazione, dopo un certo numero di anni (pochi, ovviamente:
la valutazione va fatta per l'immediato, altrimenti diventa solo un problema di
storia) non ha ottenuto nemmeno una citazione "con buona probabilità
è stata letta solo dal suo autore e dai referees della rivista".
A ragione Tosi conclude che gran parte di quanto viene pubblicato per la fisica,
per la matematica, per le scienze sociali "soddisfa a (sic) questo
criterio di completa inutilità" (il pensiero, poco limpido nella formulazione,
è senza dubbio "vero").
Tosi è uno studioso di fisica, e sembra convinto che un ragionamento, "vero"
per un fisico (tutto è natura, physis, che diamine!), debba essere
valido anche per discipline che dalla fisica sono più lontane. Tosi potrebbe
aprire un libro (pardon, i fisici non conoscono libri, ma solo articoli
su riviste con referees !), aprire una rivista di sociologia, di diritto,
di storia, di filologia, di archeologia, di letteratura, potrebbe soffermarsi
sugli anni in cui sono stati pubblicati i lavori citati. Forse si renderà
conto che esistono anche altre "verità".
Con l'augurio a Paolo Tosi di essere molto citato (in fondo, anche le citazioni
negative vengono valutate positivamente), restiamo del parere che forse sarebbe
meglio non uscire continuamente dai propri ambiti di ricerca per formulare ipotesi
generali: ne supra crepidam, sutor.
L'opinione di Andrea Caranti
Nel suo articolo "Come
valutare la ricerca" (unitn 2 (1999), n. 10, p.3), Paolo Tosi esprime il suo
supporto all'utilizzo di "indicatori numerici" per la valutazione della ricerca.
Che l'attività di ricerca possa e debba essere valutata non c'è alcun dubbio.
Questo non significa però che si debba avallare ciecamente un metodo qualsiasi
di valutazione. Citerei a questo proposito un'affermazione dell'organismo che
organizza periodicamente la valutazione della ricerca accademica in Gran Bretagna.
Nella pagina Web http://back.niss.ac.uk/education/hefc/rae/2_97.html
si legge fra l'altro, a proposito dei criteri per i futuri "Research Assessment
Exercises" (RAE):
The method of assessment should
be based primarily on peer review. In preparing for the 1992 and 1996 RAEs, the
funding bodies consulted the HE sector on whether primarily quantitative indicators
such as citations of published research should drive the assessments. They concluded
that the sector was insufficiently confident that quantitative measures were robust
enough, across all disciplines, to allow them to supplant peer review for the
RAE. Recent studies broadly support that view, though we remain open to firm proposals
for robust and widely acceptable mechanisms which might supplement peer review
[...]
In altre parole, la valutazione
della ricerca in Gran Bretagna è stata e sarà basata sul "peer review", cioè sul
giudizio di esperti. Almeno per il momento "indicatori quantitativi quali le citazioni"
non sono ritenuti abbastanza "robusti" per sostituirsi a tale giudizio, anche
se rimane aperta la possibilità di avvalersi anche di indicatori di questo
genere, come supporto alla valutazione di esperti. Mi pare che il punto di vista
adottato in un paese come la Gran Bretagna non sia poi da buttare via a priori.
La parola "robusti" richiede un commento, dato che è usata in senso tecnico. Chi
sostiene l'uso di indicatori numerici afferma generalmente che questi hanno il
vantaggio di essere oggettivi. Ad esempio, prendiamo un determinato settore di
ricerca e vediamo quale è il numero medio di pubblicazioni per persona all'anno.
Poi andiamo a vedere una persona particolare, e vediamo come si colloca rispetto
a tale media. Supponiamo che questa persona abbia un numero di pubblicazioni in
un dato anno pari al 50% della media sopra descritta. Male, direte voi. Non è
così facile. Ci sono settori ad esempio della Matematica in cui un ritmo di un
paio di pubblicazioni l'anno è considerato più che adeguato. Dato che i tempi
di pubblicazione sulle riviste sono oramai fuori controllo (18-24 mesi per molte
delle migliori riviste internazionali), è facile che uno pubblichi magari un solo
lavoro in un anno, e tre l'anno dopo. Vuol dire che nell'anno in cui ne pubblica
uno solo è stato bravo la metà della media? E l'anno dopo, quando ne pubblica
tre, è diventato improvvisamente il 50% più bravo della media? Il problema della
"robustezza" è che le statistiche su campioni o numeri piccoli sono notoriamente
poco significative. Dire che si tratta di numeri, e come tali oggettivi, è fuorviante.
se in un settore il numero di citazioni medio per pubblicazione è piccolo, basta
una variazione di poche unità in su o in giù per avere un effetto drammatico in
percentuale, effetto che non corrisponde necessariamente a qualcosa di significativo.
Gli inglesi continuano quindi a ricorrere alla valutazione di comitati di esperti,
al metodo cioè che Tosi stesso riconosce come consolidato. I singoli comitati
di esperti delle varie discipline hanno formulato criteri specifici di valutazione
per la loro disciplina: http://back.niss.ac.uk/education/hefc/rae96/c3_95.html
tenendo conto comunque di criteri generali fissati per tutte le discipline. Questo
approccio, che io condivido, contrasta con l'idea di Tosi che "si sta sempre più
affermando l'uso di indicatori numerici (numero di pubblicazioni, numero di citazioni
ricevute, ecc.) che quantifichino, in modo più o meno rozzo ma uguale per tutti,
la quantità e la qualità della ricerca scientifica." Gli inglesi riconoscono che
avere valutazioni "eguali per tutti" è impossibile - confrontate per esempio i
criteri specifici adottati dal "subpanel" per la Matematica e da quello per la
Musica, e capirete perché.
Va poi detto che entrambi gli indicatori
citati da Tosi, quali il numero delle pubblicazioni e il numero delle citazioni,
si prestano a essere manipolati. Quando si è cominciato a parlare di indicatori
numerici in questo Ateneo, un mio lavoro relativamente lungo era stato appena
accettato da un redattore prestigioso su una delle migliori riviste matematiche
del mondo. Avevo poi per le mani altro materiale che dovevo decidere come organizzare
in pubblicazioni. Avendo recepito il messaggio che "più pubblicazioni è bello",
ho ritenuto (senza commettere nessun abuso, per la verità), di dividere il materiale
che avevo in tre lavori di media lunghezza, che sono stati poi accettati per la
pubblicazioni su tre buone riviste straniere (una inglese, una israeliana e una
americana). A guardare solo i numeri, questi tre lavori valgono tre, mentre il
primo vale uno. Ma il primo lavoro è senz'altro molto più importante degli altri
tre (pur più che dignitosi) messi assieme! Questa è una valutazione che solo un
esperto può fare. Inutile dire che ovunque si affermi il criterio di dare un valore
"oggettivo" al numero di pubblicazioni, tutti quanti si danno alla nobile arte
dello spezzettamento delle pubblicazioni, che non aggiunge nulla alla loro qualità
scientifica.
In quanto al numero di citazioni, anch'esso è un indicatore poco "robusto", come
già detto nel documento britannico. L'importanza attribuita al numero di citazioni
e all'"impact factor" ha poi dato il via a un'altra nobile arte, quella della
citazione per la citazione. Insomma, nelle mie pubblicazioni ho tutto l'interesse
a aggiungere un paragrafo in cui dico: "A proposito di questo argomento si vedano
anche gli interessanti articoli di Caio, Tizio e Sempronio". Gli articoli di Caio,
Tizio e Sempronio non c'entrano niente, si capisce, ma sono amici miei, così aumento
il numero delle citazioni dei loro lavori. Loro fanno lo stesso con me, e siamo
tutti contenti. A dire il vero queste cose non le ho mai fatte, ma proprio in
questi giorni sto cercando di convincere il coautore di un articolo a cui stiamo
lavorando a inserire fra i riferimenti bibliografici un articolo fantasma, intitolato
"Come aumentare il vostro fattore d'impatto". Insomma, non sono solo gli studenti
che si scambiano i compiti agli esami, o si fanno sostituire da un collega più
bravo…
Anche l'idea che se una pubblicazione ha avuto poche o nessuna citazione per un
certo numero di anni sia da buttare non è così ragionevole come potrebbe sembrare
a prima vista, soprattutto dati i tempi estremamente lunghi che bisogna aspettare
per aver pubblicato. Quando ero ancora agli inizi, mi fu suggerito un problema
di ricerca che aveva più che altro lo scopo di farmi fare esperienza. Lo risolsi,
e scrissi un lavoro, che per diversi anni non ha avuto alcuna citazione; niente
di strano, considerato lo scopo per cui il problema mi era stato posto. Pochi
anni fa uno studioso tedesco ha scritto un libro in cui i risultati del mio lavoro
occupano diverse pagine. Con mia grande sorpresa, quindi, è successo che quel
mio lavoro giovanile è risultato in realtà qualcosa che rimarrà nella letteratura.
Esempi analoghi, anche molto più nobili di questo, sono molto facili da trovare
- lavori che "dormono" per molti anni prima di essere riscoperti, e dare magari
il via a importanti filoni di ricerca.
Fra i vari indicatori che vengono proposti è il numero di pubblicazioni riferito
alla media del settore scientifico di appartenenza. L'idea è ragionevole, dato
che gli standard di produttività variano da un settore all'altro. Ma ci sono settori
che sono pieni di persone entrate in ruolo attraverso le ope legis di massa degli
anni passati: in questi settori basta lavorare anche poco per sembrare bravissimi,
secondo questo indicatore, dato che il numero medio di pubblicazioni è vicino
allo zero.
Credo che a volte i sostenitori degli indicatori numerici vogliano far diventare
"tecniche" scelte che sono invece soprattutto "politiche". La scelta della quantità
relativa di finanziamenti che ogni settore debba ricevere è soprattutto politica,
intendo di politica della ricerca. Non si può decidere quanti finanziamenti dare
alla Matematica e quanto alla Musica dicendo: secondo gli indicatori numerici
i matematici sono bravi 0.83, mentre i musicisti sono bravi 0.97, e quindi...
Io parto invece dalla posizione "britannica", che considera il parere di esperti
come l'unico modo accettabile, almeno al momento, per valutare la ricerca. È chiaro
che questo metodo non è perfetto, se non altro perché si basa sul giudizio (fallibile)
di esseri umani, ma gli indicatori "imparziali" sono al momento troppo sensibili
a piccole variazioni, e facilmente influenzabili da fattori che niente hanno a
che fare con la qualità della ricerca.
La conclusione che ne traggo è che non vi sono vie d'uscita facili per il problema
della distribuzione delle risorse fra i vari settori di ricerca del nostro Ateneo.
La base delle decisioni deve essere fornita dal parere di esperti competenti nei
diversi settori. Questo è l'unico criterio universalmente accettato nei paesi
con sistemi universitari avanzati. Gli organismi preposti alle decisioni assumeranno
poi delle scelte, che possono e devono essere anche basate su altre motivazioni.
Ad esempio, a volte si può volere sviluppare settori deboli ma di importanza strategica,
al prezzo magari di rinunciare ad espandere ulteriormente un settore pur eccellente.
Insomma, le decisioni difficili restano comunque decisioni difficili, e almeno
per ora non si possono ridurre a confrontare due numeri.
|