Sunday, July 24, 2011

La futilità dell'h-index svelata dal Prof. Giorgio Israel nel suo blog del 20 luglio.

"Misurare la qualità", come si vorrebbe fare con l'h-index, è una contraddizione di termini, e quindi un tipico esempio di pseudo-scienza. Per misurare abbisognano dati "discreti", il che non è possibile fare qualitativamente. Anche qui sono in pieno accordo con il professore.

Checché se ne dica, gli scienziati avranno sempre bisogno dei filosofi.
Ecco il professore:

MERCOLEDÌ 20 LUGLIO 2011

Ancora sul demenziale h-index


L’h-index è un parametro ideato nel 2005 da J. Hirsch della California University per misurare la qualità di un ricercatore scientifico. Esso è definito come il più grande n per cui il ricercatore ha pubblicato lavori ognuno dei quali ha ottenuto citazioni. Se ne parla molto in questi giorni in Italia perché la nuova Agenzia per la valutazione dell’università e della ricerca (Anvur) l’ha proposto come un criterio base per i settori “scientifici” concedendo a quelli “umanistici” metri di valutazione differenziati che stanno suscitando discussioni roventi. L’h-index ha sollevato molte critiche perché va incontro a paradossi ridicoli. Ad esempio, un ricercatore con 10 pubblicazioni e 10 citazioni ciascuna ha lo stesso h-index di uno che oltre a queste ne ha altre 90 con 9 citazioni ciascuna, oppure ne ha 10 con 100 citazioni…Ci si è allora sbizzarriti a correggerlo con il g-index (il più grande n per cui le pubblicazioni più citate hanno un totale di almeno n citazioni al quadrato) e altri indici ancor più sofisticati. Tutti hanno controindicazioni e, in fin dei conti, l’h-indice continua ad essere il più gettonato, tanto che confrontare gli h-indici è diventato quasi un gioco di società.
Giocando con uno dei programmi di calcolo dell’h-index si possono ottenere risultati talora esilaranti, buoni per dimenticare la calura delle serata estive. I dati possono variare secondo alcune specificazioni ma di solito di pochi punti in più o in meno, in modo omogeneo. Così si può trovare in vetta il neuro scienziato Jean-Pierre Changeux con un prestigioso 97 che umilia il 78 di Einstein e il 63 di von Neumann. Certo Changeux è uno scienziato di fama, ma insomma… Ma la sorpresa si fa grande constatando che lo scopritore dei neuroni a specchio Giacomo Rizzolatti calpesta con un vigoroso 73 il matematico Andrew Wiles, che ha risolto uno dei problemi matematici più difficili di tutti i tempi, la dimostrazione del teorema di Fermat, e che è inchiodato a un 32, per condivide con un’altra celebrità matematica come Enrico Bombieri. Entrambi sfigurano di fronte a… Alberto Alesina (92) e Francesco Giavazzi (43), per non dire di Umberto Veronesi (60). Un velo pietoso va steso sugli “umanisti”: persino un decano del settore come Tullio Gregory non riesce ad andare oltre 20 e il povero Emanuele Severino arranca con 14. Quanto ai commissari Anvur, il presidente Fantoni, in quanto fisico sfigura con un 23 davanti ai suoi colleghi medici o ingegneri (tutti sopra i 30) mentre altri commissari (Kostoris, Ribolzi) non raggiungono il 10.
Cosa concluderne? Che si tratta di un’emerita buffonata? Si e no. Certamente sì, nel merito. Purtroppo no, per la logica che è sottesa e che ridisegna una gerarchia della scienza che ne stravolge l’immagine consolidata, pensandola come una piramide al vertice della quale sono economisti, medici, genetisti e tecnologi, al disotto gli scienziati “di base”, ruderi del passato, e poi il proletariato umanista da chiudere in riserva indiana.
Al solito si dirà che attaccare la bibliometria è non volere la valutazione. Sciocchezze. Personalità al vertice della ricerca hanno mostrato che la bibliometria corrompe l’etica scientifica. Per dirla con la “legge di Campbell”: «più un indicatore quantitativo sociale è usato per prendere decisioni sociali vincolanti, più è soggetto alle pressioni di corruzione da parte degli agenti coinvolti, per cui l’indicatore corromperà il fenomeno che intendeva monitorare». Come ha bene chiarito un documento del Consiglio Universitario Nazionale (CUN) occorre fissare una soglia minima (numero di lavori in un dato periodo) e poi il giudizio deve essere di merito: «in ogni caso nessun parametro quantitativo può impedire un positivo giudizio di merito a fronte di risultati di assoluto valore la cui peculiarità può essere positivamente attestata». Altrimenti finiremo col prendere sul serio che Alesina sia tre volte superiore a Wiles, al che non crede neppure l’interessato.
(Il Foglio, 19 luglio 2011)