Titolo

Due idee per Mariastella e chi verrà dopo di lei

58 commenti (espandi tutti)

Caro Giuseppe, il tuo intervento e' interessante e ricco di dati e riferimenti, faccio una replica veloce sperando di aver tempo di approfondire in particolare alcuni dati quantitativi in seguito.  Non mi sembra che i tuoi argomenti, pur migliori e con dati e riferimenti, siano interamente corretti nel presentare la situazione dell'universita' italiana. Potrebbero essere migliorati nei punti che ti elenco.

Premetto alcune cose:

  1. secondo me l'universita' italiana ha vari e seri problemi ed e' scadente nel confronto con quelle di Stati comparabili col nostro, anche considerati i costi;
  2. ho visto in TV esponenti della maggioranza e del governo argomentare sui difetti dell'universita': sono stati spesso penosi e patetici nel reiterare ridicoli aneddoti come quello della ricerca sull'asino dell'Amiata oppure dati occasionali e di scarso significato come quelli sul numero dei corsi, e si sono mostrati incapaci di presentare dati aggregati oggettivi a supporto delle loro opinioni
  3. Giavazzi e' frequentemente superficiale e facilone nell'esposizione dei dati, ma non tutto quello che scrive e' da buttare; inoltre le ritengo le critiche di Perotti sostanzialmente corrette

Tu scrivi:

Io stesso sono stato sorpreso quando ho scoperto che secondo gli indicatori internazionalmente accettati (pubblicazioni e/o citazioni) l'Italia è stabilmente ottava con una presenza percentuale che cresce a livello europeo e rimane stabile a livello mondiale (cosa non facile a fronte dell'ascesa della Cina): slides 6 e 8 in http://www.slideshare.net/giuseppedn/the-scientific-impact-of-italy (dati tratti da www.scimagojr.com)

Non sono questi i numeri con cui si deve confrontare l'univerista' italiana con quella estera, perche' tra i ~200 Stati esistenti al mondo l'Italia, oltre ad essere ~20o come PIL pro-capite ha anche un elevato numero di abitanti, che pur pubblicando e venendo citati relativamente poco possono superare Stati molto piu' avanzati ed efficienti come Olanda e Svizzera solo grazie alla forza del numero.  Il confronto corretto che si deve fare e' sul numero di pubblicazioni / citazioni per milione di  abitanti.  Immagino che l'Italia graviti intorno alla 20a posizione, come per PIL pro-capite e indice di sviluppo umano.  La retorica del 7o o 5o paese piu' industrializzato del mondo va lasciata ai politicanti e al circo mediatico: la realta' italiana e' quella di un Paese al ~20o posto nel mondo come livello economico, ma con piu' abitanti rispetto a Stati molto piu' civili e avanzati come Svezia, Svizzera, Olanda, Canada e cosi' via.

Quando ho cominciato a studiare i dati OCSE ho visto che l'Italia è al trentesimo posto per percentuale di laureati nella fascia 25-34 anni su 36 nazioni considerate, vedi Chart A1.1 in http://www.oecd.org/edu/eag2010.  Ho scoperto che la spesa per formazione universitaria è molto bassa sia come percentuale del PIL che come spesa pro-capite per studente, Charts B2.2 e B1.5 di http://www.oecd.org/edu/eag2010.

I laureati sono pochi sia per lo storico ritardo di alfabetizzazione dell'Italia, sia per l'inefficienza degli Atenei dove in passato il 66% degli studenti non riusciva ad ottenere una laurea, e molte lauree sono conseguite con molti anni fuori corso, oltre i 25 anni, contrariamente agli altri Paesi avanzati. Fra l'altro se calcoliamo il costo per laureato del sistema universitario italiano secondo me troviamo costi ai vertici mondiali, piu' ancora dei costi calcolati da Perotti per studente equivalente.  E ci sono studi che mostrano che il livello medio dei laureati italiani e' anche scadente nel confronto internazionale.

Non e' corretto confrontare la spesa per universita' in rapporto al PIL, perche' ci sono grandi differenze tra i tassi di natalita', l'Italia sta intorno a 1.3 figli per donna, mentre Francia, USA, UK stanno intorno a 2. Le differenze nel numero degli studenti potenziali non sono trascurabili.

I numeri corretti da confrontare sono: spesa per studente equivalente (e qui io conterei esclusivamente quelli in regola, escludendo il numero   abnorme italiano di fuori-corso) e percentuale dei 18enni o dei diplomati che si iscrivono all'universita'.

Riguardo ai costi dell'universita', non si puo' negare che gli stipendi lordi degli ordinari di elevata anzianita' sono spropositati nel confronto internazionale, con l'aggravante dell'assenza di ogni controllo reale sulla qualita' di detti ordinari, e questa anomalia si combina con compensi miserabili delle posizioni non strutturate e dei giovani strutturati specie al livello di ricercatore.

Riguardo la produttivita' della spesa per universita' e ricerca dell'Italia, in un passato intervento ho esaminato le stime di produttivita' dei ricercatori italiani a partire dai dati di King e le elaborazioni di Perotti.  A me risulta che gli italiani abbiano molte pubblicazioni e molte citazioni, ma con impatto inferiore a quello di altri Paesi (es Germania, UK) come qualita' (citazioni/pubblicazione).  Aggiungo il link quando ho tempo, e' su nFA, "la produttivita' scientifica dell'Italia".

Ho scoperto che, rispetto agli altri paesi, abbiamo pochi ricercatori in generale e pochissimi nelle aziende, vedi Fig. 1.12 e  4.9  di http://www.cnr.it/sitocnr/IlCNR/Datiestatistiche/Datiestatistiche_file/S&Tincifre2010_ITA.pdf.. Da tutto ciò ho dedotto che la metafora del sacco bucato maschera la realtà: un paese che non innova e che spende troppo poco per la sua università e la sua ricerca, in cui, nonostante tutto, l'università mantiene indici di efficienza più che ragionevoli.

Il problema piu' grave dell'Italia e' che le imprese private investono circa 4 volte in meno in ricerca rispetto ai Paesi avanzati. Lo Stato, secondo stime spannometriche che ho fatto in passato, investe in ricerca il ~25% in meno rispetto alla media UE15.  Questo e' un problema, ma non e' il solo ne' il piu' grave problema, secondo me prima ancora di chiedere piu' soldi l'universita' italiana dovrebbe emendarsi almeno degli scandali piu' evidenti, come quella dei parenti fatti professori dal barone capo nello stesso corridoio o dipartimento o facolta'.  Poi ci sono molte altre cose, come l'inbreeding, la scarsa internazionalizzazione, l'assenza quasi totale di valutazioni di consuntivo, i concorsi barzelletta...

 

 

Io stesso sono stato sorpreso quando ho scoperto che secondo gli indicatori internazionalmente accettati (pubblicazioni e/o citazioni) l'Italia è stabilmente ottava con una presenza percentuale che cresce a livello europeo e rimane stabile a livello mondiale (cosa non facile a fronte dell'ascesa della Cina): slides 6 e 8 in http://www.slideshare.net/giuseppedn/the-scientific-impact-of-italy (dati tratti da www.scimagojr.com)

 

Non sono questi i numeri con cui si deve confrontare l'univerista' italiana con quella estera, perche' tra i ~200 Stati esistenti al mondo l'Italia, oltre ad essere ~20o come PIL pro-capite ha anche un elevato numero di abitanti, che pur pubblicando e venendo citati relativamente poco possono superare Stati molto piu' avanzati ed efficienti come Olanda e Svizzera solo grazie alla forza del numero.  Il confronto corretto che si deve fare e' sul numero di pubblicazioni / citazioni per milione di  abitanti.

Credo di dover dissentire nel merito e nel metodo. Il numero di pubblicazioni/citazioni per milione di  abitanti misura un risultato ma non tiene conto delle risorse che sono state impiegate per ottenerlo. Appare più corretto svolgere un'analisi ingresso-uscita, ovvero misurare i risultati (articoli oppure, ancora meglio, citazioni) a fronte delle risorse investite. Di seguito riporto i risultati di 4 analisi simili tra loro.

A. Rizzuto & Rochow.
Carlo Rizzuto, Università di Genova, e Regina Rochow, "Quale è il rendimento della spesa di ricerca nelle Università (e nella ricerca pubblica):qualche evidenza dai dati statistici", Conferenza CRUI 12/6/03, www.miur.it/UserFiles/3249.pdf
 
Nel documento citato (usando dati Eurostat), si mostra che l'Italia è in posizione 13 come numero di ricercatori (Full Time Equivalent) per milione di abitanti (attivi) (Figura 2.a)  e posizione 14 come numero di pubblicazioni per milione di abitanti (attivi) (Figura 4.a presa da KeyFigures UE del 2002). Il primo numero è un dato di input (risorse umane normalizzate per la popolazione e dimostra che non spendiamo molto. Il secondo numero è un dato di output (risultati) e mostra che non brillliamo come risultati normalizzati per la popolazione. Aggiungo che sarebbe difficile aspettarsi il contrario, viste le poche risorse impegnate. Se però valutiamo l'efficienza dividendo la seconda cifra per la prima saliamo in posizione 6 (Figura 4.b). Per essere ancora più corretti, gli autori ripetono il calcolo usando come come denominatore solo i ricercatori pubblici e universitari. In tal caso l'Italia è in posizione 10 con efficienza 14.8, poco sotto la Germania (15.1) e davanti a Francia, Finlandia, Spagna, Giappone, Grecia e Portogallo (Fig. 6.b). Rizzuto e Rochow usano la metafora dei Km per litro di un automobile: la macchina della ricerca italiana macina un numero di chilometri (pubblicazioni) commisurato ai litri di benzina (ricercatori) messi nel motore. Io aggiungerei che scaricare la colpa sul motore e lesinare ulteriormente la benzina non porta lontano.
Da notare che le nazioni più efficienti di noi sono nell'ordine: USA, NL, UK, Svezia, Danimarca, Irlanda, Belgio, Austria, Germania. A parte USA, UK e Germania, le altre hanno sistemi della ricerca di dimensioni più piccole del nostro. Per un sistema di grandi dimensioni è più difficile essere più efficiente di sistemi più piccoli e agili. Un quasi pareggio con la Germania e far meglio di Francia, Spagna e del Giappone appare un risultato decoroso. Per affinare questo tipo di analisi, bisognerebbe perfezionare il conteggio del numero di ricercatori che producono letteratura scientifica. In particolare, gli stessi autori evidenziano anche "elementi interessanti, che emergono da una analisi delle posizioni degli altri Paesi. Ad esempio, la posizione sempre alta del Regno Unito, che è collegabile, come abbiamo detto, all’alto numero di dottorandi, la posizione molto alta degli USA nella figura 6b), che indica come si abbia una forte attività pubblicistica anche da parte dei ricercatori privati (a differenza degli altri Paesi)". Lungo questa direzione di approfondimento, segnalo anche il seguente articolo relativo al "caso svedese":

Jacobsson, Staffan & Rickne, Annika, "How large is the Swedish 'academic' sector really?: A critical analysis of the use of science and technology indicators," Research Policy, Elsevier, vol. 33(9), pages 1355-1372, November 2004. http://linkinghub.elsevier.com/retrieve/pii/S0048733304001209

B. King.
D.W. King “The scientific impact of nations: what countries get for their research spending”. Nature, vol. 403, 15 jul. 2004, pp. 311-316, http://www.nature.com/uidfinder/10.1038/430311a

King mostra che in termini di efficienza (articoli per ricercatore oppure citazioni per ricercatore) l'Italia viene dopo UK e Canada ma prima di USA, Francia, Germania e Giappone (Fig. 5). Rispetto allo studio di Rizzuto, nel calcolo dell'efficienza si considerano tutti i ricercatori (non solo quelli pubblici e universitari) e credo che questo spieghi le differenze ed in particolare la diversa posizione in classifica degli USA.

C. Leydesdorff & Wagner. Per aggiornare l'analisi di Rizzuto e Rochow ed evitare i problemi relativi alla determinazione del numero di ricercatori, può convenire usare come input la spesa invece che il numero dei ricercatori. Ciò ha un duplice vantaggio:

1. Diventa possibile valutare l'efficienza del sistema della ricerca dal punto di vista del contribuente: cosa ottengo a fronte dei soldi che vengono spesi?
2. Da un ricercatore ben pagato e con maggiori fondi di ricerca è giusto aspettarsi maggiori risultati.

Questo tipo di analisi può essere trovato nel seguente studio:

Loet Leydesdorff & Caroline Wagner, Research Funding and Research Output: A Bibliometric Contribution to the US Federal Research Roadmap,Science and Development Bulletin, Issue No.50 – April 2009, http://www.sciencedev.net/Docs/uss.PDF

Come variabile di input, viene usato l'HERD (Higher Education expenditure in R&D). Viene mostrato (Table 1) che per l'Italia il costo per pubblicazione è relativamente basso (fonti: ISI: Web-of-Science e  OCSE). Infatti, ci sono 14 nazioni che hanno un costo per pubblicazione maggiore di quello italiano (tra cui Giappone, Canada, USA, Francia, Svezia, Germania, Australia):

Japan* 237,973 ($ ppp/publication)
Austria 209,165
Norway 193,157
Canada 191,004
Singapore* 179,017
USA 175,284
EU-27* 163,216
France 156,271
Turkey* 154,728
Sweden 154,456
Germany 153,373
Denmark 148,556
Finland 141,476
Argentina 137,901
Australia* 137,798
Italy* 132,441
Portugal 137,362
Korea* 132,019
Spain* 128,119
Netherlands 124,708
UK* 123,110
Romania 115,938
Belgium 115,328
Taiwan* 111,104
Israel 108,408
Ireland 106,923
Greece 100,054
CzechRep 97,939
China* 89,638
Luxembourg 89,202
Hungary 87,047
Poland* 70,954
Russian Federation 62,763
Slovenia 58,081
SlovakRep 55,320

D. De Nicolao. Qualche tempo fa, ho cercato di verificare questa analisi modificando tre punti:

1. Utilizzare come  indice di risultato le citazioni invece dei lavori scientifici per evitare di premiare la quantità invece della qualità.
2. Usare i dati bibliometrici di SCOPUS che coprono un maggior numero di sedi di pubblicazione ed hanno il vantaggio di essere liberamente consultabili e scaricabili sul sito di SCImago:

http://www.scimagojr.com/countryrank.php?area=0&category=0&region=all&year=2008&order=ci&min=0&min_type=it

3. Limitare l'analisi ad un campione relativamente omogeneo costituito dalle prime 15 nazioni nel ranking scientifico costituito dalle citazioni dei papers 2008: USA, UK, Germania, Cina, Francia, Giappone, Canada, Italia, Australia, Spagna, NL, Svizzera, Svezia, Corea del Sud.

La mia analisi è reperibile su:

  http://www.slideshare.net/giuseppedn/the-scientific-impact-of-italy

I fatti salienti sono:

1. Come citazioni l'Italia si colloca all'ottavo posto
2. Come intensità di R&D (spesa globale in R&D su PIL) siamo ultimi nel campione
3. Come HERD siamo ottavi
4. Come efficienza (citazioni/HERD) siamo noni davanti a Germania, Francia, USA, Canada, Corea del Sud e Giappone che erano meno efficienti di noi anche secondo Leydesdorff e Wagner (da tener conto che io ho usato le citazioni prese da SCOPUS mentre Leydesdorff e Wagner si sono basati sul numero di papers presi da ISI Web of Science).

Alla luce di queste 4 analisi, la ricerca italiana esce bene dal confronto internazionale. A fronte della benzina messa nel motore, macina i suoi chilometri. Criticare la ricerca italiana perché il numero di pubblicazioni (o citazioni) per abitante è inferiore a Olanda e Svizzera, sarebbe come prendersela con il Chievo perché non vince la Champions League.

 Immagino che l'Italia graviti intorno alla 20a posizione, come per PIL pro-capite e indice di sviluppo umano.  La retorica del 7o o 5o paese piu' industrializzato del mondo va lasciata ai politicanti e al circo mediatico:

I dati aggregati servono per calcolare i km/litro, ma sono importanti anche per avere una percezione più realistica delle dimensioni del sistema dell'università e della ricerca. Questo non è irrilevante, perché è diffusa l'idea che l'università e la ricerca italiana siano un granellino di sabbia residuale e di pessima qualità, una vergogna per la nazione.
Come PIL siamo settimi/ottavi. In quanto a spese in R&S siamo noni (ottavi come spese in R&D nel settore Higher Education), http://www.slideshare.net/giuseppedn/the-scientific-impact-of-italy. La quota della ricerca italiana rispetto alla ricerca mondiale è ottava. Per essere precisi, produciamo più del  3% della ricerca mondiale, rimanendo stabili nel tempo e nel periodo 1996-2008 siamo passati dall'11% al 12% della ricerca europea, come illustrato dal grafico "Relative Production" nel seguente link:

http://www.scimagojr.com/countrysearch.php?country=IT

 Mi sembrano dati che fanno capire anche ai non esperti alcuni fatti importanti:

1. La ricerca italiana nel suo complesso rappresenta una quota non irrilevante della ricerca mondiale sia per articoli che citazioni (più avanti discuteremo anche gli indici di qualità).
2.  Dal punto di vista delle dimensioni, i risultati della nostra ricerca (ottavi) sono allineati con quelli della nostra economia (settimi/ottavi ma noni, ottavi come HERD).
3. Non è in atto un declino o un crollo.  Abbiamo guadagnato terreno (dall'11% al 12%) nella nostra quota europea. Inoltre, la stabilità della nostra quota mondiale è un dato positivo, visto che molte altre nazioni stanno arretrando nella loro quota a causa della Cina che aumenta la sua quota di ricerca mondiale.

Sono fatti che ridimensionano la metafora del "sacco bucato" che ha avuto indubbiamente una notevole rilevanza nel dibatttito sullo stato dell'università e sulla riforma. Ovviamente, stiamo parlando di quella parte di ricerca italiana che pubblica su riviste internazionali ed è pertanto misurabile tramite gli strumenti bibliometrici. E' possibile (e certamente da investigare) lo stato di salute dei settori "invisibili" a questi indicatori bibliometrici. Tuttavia, anche se questi altri settori fossero in grave crisi, l'esistenza di una parte di università che compete bene a livello internazionale, in particolare nei settori scientifici  e tecnologici, sarebbe un dato importante che è stato trascurato nel dibattito pubblico.

I laureati sono pochi sia per lo storico ritardo di alfabetizzazione dell'Italia, sia per l'inefficienza degli Atenei dove in passato il 66% degli studenti non riusciva ad ottenere una laurea, e molte lauree sono conseguite con molti anni fuori corso, oltre i 25 anni, contrariamente agli altri Paesi avanzati.
Fra l'altro se calcoliamo il costo per laureato del sistema universitario italiano secondo me troviamo costi ai vertici mondiali, piu' ancora dei costi calcolati da Perotti per studente equivalente.

Svolgo la risposta in 3 punti.

1. Costo cumulativo per studente. I costi per studente equivalente calcolati da Perotti (L'Università truccata, Einaudi) mi sembrano controversi: non è fornita la fonte del coefficiente di correzione (0.483, relativo all’anno 2003)  e correggere il dato OCSE di una sola nazione rende impropri i confronti internazionali. Esiste un indicatore che è insensibile alla percentuale di fuori corso: si tratta della spesa per studente, calcolata cumulativamente nel corso della sua carriera. Infatti, come precisato dall’OCSE http://www.oecd.org/edu/eag2010:

“Austria and Italy: No distinction is made between part-time and full-time studies at the university level. However, for expenditure over the duration of studies the effect balances out, since reporting  part-time students as full-time students leads both to an underestimate of annual expenditure and to an  overestimate of the duration of studies.”

In quanto a spesa cumulativa per studente, l’Italia si colloca al sedicesimo posto su 24 nazioni considerate [Education at a Glance 2010 - OECD Indicators, Tabella B1.3b, pag. 205, http://www.oecd.org/edu/eag2010]. Non sembra un costo ai vertici mondiali.

2. Tasso di (in)successo. La scarsa efficienza intesa come rapporto tra immatricolati è laureati è un problema autentico (e storico), vedi Fig. 8 di www.miur.it/UserFiles/3249.pdf. Se facciamo riferimento alla Fig 7.a dello stesso studio, vediamo che per  numero di Annual Graduations/Million Active Population, l'Italia e 14-esima seguita solo da Austria e Grecia. Tuttavia, se cerchiamo di valutare i "Km/litro" calcolando il rapporto Annual Graduations/Teachers, si vede che l'Italia diventa nona, davanti a Spagna, Danimarca, Belgio, Grecia, Germania, Svezia, Austria (Fig. 7.b). Un risultato per nulla disastroso. Inoltre, come discusso al punto seguente, sembrano esserci segnali di miglioramento riguardo al completamento degli studi.

3. Gli esiti del 3+2. E' appena uscito un'articolo che analizza gli effetti del 3+2 sulla base dei dati raccolti da Alma Laurea:

Andrea Cammelli Perché la riforma universitaria non è fallita,“il Mulino”, n. 5/2010, pp. 767-776.

Riporto alcuni passaggi che contengono dati e valutazioni interessanti, in controtendenza rispetto alle valutazioni oltremodo pessimiste che circolano con poco o nessun supporto di dati statistici.

"l’età alla laurea scende da 27,2 a 25 anni dal 2001 al 2009: 23,9 per i laureati di primo livello; 25 per gli specialistici; 26,1 per gli specialistici a ciclo unico. Quasi 29 laureati di primo livello su cento concludono gli studi prima di avere compiuto 23 anni.

 La regolarità, la capacità cioè di concludere gli studi nei tempi previsti (comprendendo, come di consueto,la sessione di esami invernale, diversamente da quanto viene fatto dal Cnvsu), si è dilatatata complessivamente quattro volte nell’intervallo: da 9,5% nel 2001 al 39,2% di laureati nel 2009 (su valori ancora più confortanti quella dei laureati di secondo livello: 50,1%), mentre un ulteriore 25% conclude entro un anno di ritardo.

La consistenza degli abbandoni che si verificano già nel primo anno d’iscrizione all’università è un segnale, rilevante, del tanto che resta ancora da fare, soprattutto sul terreno dell’orientamento. Ad esserne coinvolti è, infatti, poco meno di un quinto degli immatricolati, in misura perfino più consistente lungo i percorsi di studio, quelli scientifici, nei quali il Paese ha un grave ritardo anche nel confronto internazionale.

Al di là del numero consistente di titoli di studio universitario rilasciati (da 172.000 del 2001 a 293.000 del 2009, +71%), in parte rilevante dovuto alla duplicazione dei titoli, è significativo l’incr mento degli anni di formazione universitaria portati a termine (+22,5%), con un miglioramento dell’efficienza delle università. Nel periodo post-riforma (2001- 2007), mentre le spese (rivalutate) sostenute dalle università (statali) sono cresciute del 23%, le annualità di formazione raggiunta (dal sistema universitario statale) sono aumentate del 36%.

Il fatto che fra i giovani più freschi di laurea quasi 55 su cento (61 fra i laureati di primo livello) concludano i propri studi vantando nel proprio bagaglio formativo un periodo di stage in azienda, riconosciuto dal corso di studi (un numero triplo di quello registrato fino al 2000, prima dell’avvio della riforma), è il segnale importante di una nuova stagione confronto, di riconoscimento reciproco e di collaborazione fra le forze più attente e sensibili del mondo universitario e del mondo del lavoro e delle professioni

ciò che emerge con chiarezza anche nel confronto con i risultati dei migliori laureati pre-riforma nel 2001 (la comparazione è stata fatta con i laureati pre-riforma che avevano concluso gli studi con al massimo un anno di ritardo; poco più di un quarto dell’intera popolazione dei laureati). Il 50,1% dei laureati specialistici 2009 ha concluso gli studi in corso; durante gli studi, il 53,3% ha svolto stage (contro il 25%); oltre il 14% è andato al- l’estero con programmi europei (contro l’11%); il 71% dichiara di conoscere bene l’inglese (contro il 64%)."

 

 

  E ci sono studi che mostrano che il livello medio dei laureati italiani e' anche scadente nel confronto internazionale.

Mi interesserebbe avere la citazione.

 

I numeri corretti da confrontare sono: spesa per studente equivalente (e qui io conterei esclusivamente quelli in regola, escludendo il numero   abnorme italiano di fuori-corso) e percentuale dei 18enni o dei diplomati che si iscrivono all'universita'.

Ho già riportato il costo cumulativo per studente (posizione 16 su 24 nazioni) che non risente dei fuori corso. Per quanto riguarda la spesa in rapporto al PIL, siamo in posizione 30-32 (a pari merito) su 33 paesi considerati. Pur con tutte le correzioni del caso è un dato indicativo di una nazione che scommette molto poco sulle sue università.

Riguardo ai costi dell'universita', non si puo' negare che gli stipendi lordi degli ordinari di elevata anzianita' sono spropositati nel confronto internazionale, con l'aggravante dell'assenza di ogni controllo reale sulla qualita' di detti ordinari, e questa anomalia si combina con compensi miserabili delle posizioni non strutturate e dei giovani strutturati specie al livello di ricercatore.

Mi sembra giusto notare che le tabelle teoriche degli stipendi lordi degli ordinari di elevata anzianità non riflettono la realtà. Per raggiungere i limiti della progressione stipendiale, bisogna diventare ordinari in giovane età e questa non è la norma. Tra i migliori dati recenti a disposizione riguardo alle retribuzioni reali, citerei quelli del rapporto della Commissione Europea Remuneration of Researchers in the Public and Private sectors (Aprile 2007) http://ec.europa.eu/eracareers/pdf/final_report.pdf.
E' uno studio dettagliato di oltre 200 pagine che descrive la metodologia adottata e fornisce una mole di statistiche. In particolare dalla Tabella 17 è possibile recuperare la classifica delle remunerazioni dei ricercatori italiani in funzione degli anni di esperienza:

0-4 years Ranking: 25
5-7 years Ranking 22
7-10 years Ranking: 21
11-15 years Ranking:  20
 > 15 years Ranking: 17

Mi sembra di poter dire che i ricercatori italiani non se la passano bene. E' vero che classifica della retribuzione migliora con l'aumentare dell'esperienza, ma non vanno oltre  la diciassettesima posizione (in Europa).

Riguardo la produttivita' della spesa per universita' e ricerca dell'Italia, in un passato intervento ho esaminato le stime di produttivita' dei ricercatori italiani a partire dai dati di King e le elaborazioni di Perotti.  A me risulta che gli italiani abbiano molte pubblicazioni e molte citazioni, ma con impatto inferiore a quello di altri Paesi (es Germania, UK) come qualita' (citazioni/pubblicazione).  Aggiungo il link quando ho tempo, e' su nFA, "la produttivita' scientifica dell'Italia".

Ho qualche perplessità sull'uso del rapporto citazioni/pubblicazione nella compilazione di classifiche sia a livello individuale che collettivo. Mi spiego attraverso due paradossi:

1. Lo scienziato A scrive 10 articoli che ricevono globalmente 100 citazioni a testa. Lo scienziato B scrive 20 articoli. I primi 10 articoli di B ricevono 100 citazioni a testa mentre i secondi 10 ne ricevono 50 a testa. Se uso come criterio di qualità il rapporto citazioni/pubblicazione A risulta migliore di B pur avendo scritto meno articoli ed avendo ricevuto meno citazioni. Un evidente paradosso, reso ancora più evidente se ipotizziamo che i dieci articoli di A siano scritti in collaborazione con B. In tal caso A è completamente dominato da B perché l'insieme degli articoli di A è un sottoinsieme di quelli di B.

2. Proviamo a compilare una classifica delle nazioni usando come criterio il rapporto citazioni/articolo. La classifica è disponibile al seguente link (ho considerato il periodo 1996-2008):

http://www.scimagojr.com/countryrank.php?area=0&category=0&region=all&year=2008&order=cd&min=0&min_type=it

Per comodità riporto la classifica:

1. Virgin Islands (British)
2. Andorra
3. Comoros
4. Tonga
5. American Samoa
6. Virgin Islands (U.S.)
7. Cape Verde
8. Haiti
9. Gambia
10. Bermuda
11. Gibraltar
12. Faroe Islands
13. San Marino
14. Switzerland
15. Denmark
16. Mozambique
17. Iceland
18. Tuvalu
19. Samoa
20. Panama
...
E' chiaro che così non funziona. Bisogna inserire una soglia minima sul numero di papers o sul numero di citazioni, ma con quale criterio? E' chiaro che la classifica dipenderà dalla soglia selezionata.

In effetti, esiste una proprietà che deve essere soddisfatta da ogni "indice di qualità" sensato. Dato un insieme A di articoli (ognuno corredato del suo numero di citazioni), un indice di qualità Q(A) è una formula di calcolo che restituisce un numero reale che misura la qualità dell'insieme A. Per evitare esiti paradossali, la logica impone che un indice di qualità soddisfi il seguente criterio.

Criterio di Ammissibilità. Un indice di qualità è ammissibile se Q(A) ≤ Q(B) ogni qual volta l'insieme A è incluso in B.

Si vede facilmente che il rapporto citazioni/pubblicazione non soddisfa il criterio di ammissibilità. Pertanto, può essere riportato a scopo informativo, ma non dovrebbe essere adottato per classificare individui, istituti di ricerca o nazioni. Per fare un esempio, l'impossibilità di un uso a scopo di valutazione concorsuale è evidente. Si noti che anche una parte delle valutazioni di Perotti nel Capitolo III.2 dell'Università Truccata (Einaudi) sono inficiate dall'uso di un indice di qualità  (il fattore di impatto normalizzato) che non soddisfa il Criterio di Ammissibilità.  Di seguito, esamino alcuni indici di qualità alternativi che invece soddisfano il Criterio di ammissibilità

1. Highly cited papers. Per esempio, è possibile contare il numero "Top 1% highly cited publications" come  riportato nella Table 1 di

D.W. King “The scientific impact of nations: what countries get for their research spending”. Nature, vol. 403, 15 jul. 2004, pp. 311-316, http://www.nature.com/uidfinder/10.1038/430311a

Vengono considerati due periodi: 1993-1997 e 1997-2001. Inoltre,vengono riportati tre dati:

- numero di papers
- numero di citazioni
- numero di "Top 1% highly cited publications"

Fatti salienti per l'Italia:

a) Nel tempo, i papers passano da 3.67 a 4.05% (mondiale)
b) Le citazioni passano da 3.71% a 4.39% (mondiale)
c) "Top 1% highly cited publications" passano da 3.32% a 4.31% (nel gruppo di confronto)
d) L'Italia è settima in tutti i casi tranne che per "Top 1% highly cited publications"  nel periodo 1993-1997 (ottava preceduta dalla Svizzera). Le nazioni che precedono l'Italia sono: USA, UK, Germania, Giappone, Francia, Canada. Sono nazioni che hanno sempre speso più dell'Italia in R&D e HERD (R&D "accademica")  e non c'è da attendersi di poter ottenere risultati migliori a con minor spesa a meno di non essere molto più efficienti. Non veniamo superati da nessuno che spenda meno di noi.

In conclusione, nella Tabella di King questo indice di qualità pone l'Italia al settimo posto, la stessa posizione che occupa per numero di papers e numero di citazioni. Siamo superati da nazioni che mettono più benzina nel motore della ricerca (fondi, numero dei ricercatori, retribuzioni). Non siamo superati da chi mette meno benzina di noi.

2. H-index nazionale. E' possibile calcolare l'H-index di un istituto di ricerca o di una nazione con la stessa procedura usata per gli individui. E' un modo per premiare la produzione di articoli eccellenti largamente citati e di penalizzare la produzione di una moltitudine di articoli che raccolgono ciascuno poche citazioni. Al seguente link, è disponibile la classifica degli H-index nazionali nel periodo 1996-2008 (come sempre SCImago usa i dati bibliometrici di SCOPUS):

http://www.scimagojr.com/countryrank.php?area=0&category=0&region=all&year=all&order=h&min=0&min_type=it

Per comodità riporto le prime nazioni in classifica:

1. USA
2. UK
3. Germania
4. Francia
5. Canada
6. Giappone
7. Italia
8. Svizzera
...

La Cina è solo 18-esima perché questa finestra temporale include la fase iniziale di crescita in cui prevaleva la quantità sulla qualità. E' sicuramente destinata a scalare posizioni anche nella classifica dell'H-index. Mi sembra interessante che prima cresca la quantità e poi la qualità. Potrebbe essere un pedaggio inevitabile ma temporaneo quando si decide di espandere le proprie attività di R&D. 

Conclusione: entrambi gli indici di qualità che soddisfano il Criterio di Ammissibilità non evidenziano particolari ritardi da parte della ricerca italiana. La collocazione al settimo/ottavo posto mondiale sembra un invariante sia per gli indici aggregati (pubblicazioni, citazioni) che per gli indici di qualità (Top 1% cited papers, H-index).

Il problema piu' grave dell'Italia e' che le imprese private investono circa 4 volte in meno in ricerca rispetto ai Paesi avanzati. Lo Stato, secondo stime spannometriche che ho fatto in passato, investe in ricerca il ~25% in meno rispetto alla media UE15.  Questo e' un problema, ma non e' il solo ne' il piu' grave problema, secondo me prima ancora di chiedere piu' soldi l'universita' italiana dovrebbe emendarsi almeno degli scandali piu' evidenti, come quella dei parenti fatti professori dal barone capo nello stesso corridoio o dipartimento o facolta'.  Poi ci sono molte altre cose, come l'inbreeding, la scarsa internazionalizzazione, l'assenza quasi totale di valutazioni di consuntivo, i concorsi barzelletta...

Sono certamente d'accordo che la parentopoli, l'imbreeding e i concorsi truffa vadano combattuti (con i fatti, però). Inoltre, chi lavora bene (e i dati dimostrano che non sono pochi) ha tutto il diritto di non essere penalizzato.

Cordialmente

GDN

Vedo con piacere che, quando l'argomento ti riguarda, sei molto attento alle "sottigliezze", tipo come vengono misurate le cose, come e quanto vengono finanziate e se ci sono trucchi che alterano i risultati.

Mi astengo da qualsiasi commento nel merito dato che non conosco la materia.

Voglio solo mettere in evidenza questa tua frase:

... la stabilità della nostra quota mondiale è un dato positivo, visto che molte altre nazioni stanno arretrando nella loro quota a causa della Cina che aumenta la sua quota di ricerca mondiale.

Mi risulta (vado a memoria) che si possa applicare pari pari all'export dell'Italia.

Sarà tutto merito del low cost...

Che ci vuoi fare, Beppe, trattasi solo di banale spocchia ..... ben miscelata con un pizzico di consueta cultura anti-industriale italiota, e con l'approccio - peraltro notoriamente molto diffuso - secondo il quale un'opinione differente dalla propria può derivare solamente da:

  • ignoranza

  • incapacità di comprendere

  • interesse personale

Il tutto coincide esattamente con i comportamenti tipici della politica – che, in fondo, fotografa la realtà - come il raffinatissimo epiteto berlusconiano - "coglioni" - rivolto agli elettori della parte avversa e la spiegazione che la sinistra abitualmente fornisce per le sconfitte elettorali, che sarebbero dovute all'incapacità dell'elettorato di comprendere e non all'inadeguatezza della proposta .....

A me, francamente, non piace confrontarmi in simili condizioni: non me l'ha ordinato il medico, dunque ho chiuso .....

Franco dissento sul tuo "ho chiuso": ho partecipato poco a questo interessante dibattito, De Nicolao ha portato degli argomenti a suo sotegno sulla "qualità della ricerca", io gli chiederei un ultimo, vero sforzo:

Quanti brevetti e/o disegni di utilità industriale porta questo, secondo lei, elevato livello della ricerca ?

Come siamo posizionati nel mondo in questo ? Perchè ricercare l'essenza dei peli di gatto e scoprire che i peli stessi portino allergie in individui geneticamente predisposti può essere gratificante per il ricercatore, può portare a un paper di alto livello, ma non servire lo stesso...

[...] Quanti brevetti e/o disegni di utilità industriale porta questo, secondo lei, elevato livello della ricerca ?

Come siamo posizionati nel mondo in questo ? [...]

Questa mi sembra una buona domanda: riguarda il problema del trasferimento tecnologico, ovvero un campo a cavallo tra universita' e impresa.

Non ho una risposta, e faccio un'ulteriore domanda: esistono in Italia delle best practices al riguardo?

Quali sono le realta' che funzionano?
Dove le cose non funzionano, di cosa sentono la mancanza le imprese?

Il 3+2 era (nominalmente) inteso come uno sforzo nel verso della professionalizzazione; ma mi sembra che mediamente non piaccia: quali sono le critiche delle imprese?

Criterio di Ammissibilità. Un indice di qualità è ammissibile se Q(A) ≤ Q(B) ogni qual volta l'insieme A è incluso in B.

Dubito che questo sia un criterio intuitivamente accettabile, a meno che non si voglia imporre che il funzionale Q(.) debba essere del tipo "max", "min", "sum of absolute values" .... insomma misuri valori estremi o totali, che sono pessimi indicatori della qualità di un insieme perché non tengono in conto l'effetto size, la varianza, le code della distribuzione, eccetera.

In generale tale assioma produce risultati assurdi perché esclude gli indici più ovvi di qualità, come la media, per esempio.

Infatti: Sia Q(A) la media aritmetica dei valori degli elementi di A, idem per Q(B). Se A è quel sottoinsieme di B che contiene i due elementi di B con i valori più alti dell'indice in questione, e B ha più di due elementi, allora per certo Q(B) ≤ Q(A). Infatti, l'insieme A è, in media, composto di elementi migliori dell'insieme B (nel caso di specie questo vale "pointwise", ma questo è perché ho costruito un esempio particolarmente semplice).

In termini banali: il criterio che GdeN suggerisce (e che utilizza per far classifiche oltre che per squalificare le analisi di Roberto Perotti) è assurdo. E, come ci insegnarono, ex absurdum sequitur quod libet.

P.S. Non ho tempo in rete per controllare i dettagli dei dati ... per cui mi soffermo al momento sulla logica. Che mi sembra faulty, quando diventa precisa ed estremamente imprecisa otherwise.

In un concorso universitario ho due candidati. Il candidato A ha un solo lavoro con 100 citazioni. Il candidato B è coautore di A  e ha scritto un secondo lavoro che ha ricevuto 80 citazioni. Risulta che le citazioni medie sono

 

A: 100/1=100 citazioni/paper

B: 180/2= 90 citazioni/paper

 

Se uso la media come criterio di ranking faccio vincere il candidato A che ha prodotto meno (1 solo paper contro 2) ottenendo anche meno riconoscimenti internazionali (100 citazioni contro 180).

Paradossalmente, il candidato B dovrebbe occultare il suo secondo paper in modo da essere almeno alla pari con A. Non ha senso usare criteri di ranking secondo i quali posso salire in classifica occultando parte del mio output valutabile. Il Criterio di ammissibilità impedisce che si verifichi questo paradosso: essere superato da qualcuno che ha un sottoinsieme delle mie pubblicazioni. Un criterio di ranking che rende possibile questo sorpasso appare inconsistente.

Ovviamente, la media (e altri indicatori) sono utilissimi per caratterizzare la tipologia di produzione ma non per fare classifiche. L'H-index nasce proprio dalla volontà di introdurre un ranking che non fosse solo quantitativo (citazioni totali) ma che tenesse conto anche della qualità (si premia chi pubblica lavori ad alta visibilità). Non dico che l'H-index sia la bacchetta magica della valutazione bibliometrica, ma almeno non è soggetto a inconsistenze logiche.

Cordialmente

GDN

A me non pare giusto che le citazioni di pubblicazioni con più autori siano accreditate ad ogni coautore come se il paper fosse suo al 100%.

Nel tuo esempio fossero divise equamente fra i due coautori vincerebbe B.

Più intelligente sarebbe dare un peso decrescente e predeterminato agli autori secondo l'ordine di firma.

Ho visto lavori di medicina con più di dieci autori e sempre con la firma del "capo".

In ogni caso il sistema si presta ad un interessato scambio delle citazioni che in qualche modo lo snatura.

Ho lavorato per anni nel privato e la cosidetta "valutazione oggettiva" ha sempre prodotto il solo risultato di arricchire gli studi di consulenza che l'avevano ideata e proposta.

Io penso che la cosa migliore sia valutare i risultati di tutta la struttura ; risultati negativi dovrebbero comportare la rimozione dei vertici e questo dovrebbe garantire che questi valutino in modo corretto e meritocratico i collaboratori.

Ho lavorato per anni nel privato e la cosidetta "valutazione oggettiva" ha sempre prodotto il solo risultato di arricchire gli studi di consulenza che l'avevano ideata e proposta.

that's very interesting

qualche dettaglio in piu`? (se possibile)

 

 

un esempio : il Management By Objectives ( M.B.O.) annuale.

se lo applichi ad un capo divisione funziona

come scendi ai livelli funzionali nascono i conflitti 

produttività ( Operation Manager ) vs qualità ( Q.A. Manager )

puntualità di consegne ( Production Control Manager ) vs volume vendite ( tramite lead times attraenti - Sales Manager )

Volume di vendite ( Sales Manager ) vs Sales Margin ( Business Manager )

ecc.

Senza contare che azioni e risultati non sono quasi mai sincroni : un nuovo Manager bravo può pagare errori di chi lo ha preceduto , uno mediocre godere di azioni del suo predecessore.

Per porre un obiettivo proprio ad ognuna di queste funzioni , affinché non venga massimizzato a scapito di obiettivi di altri , devi fare un trattato pieno di "purché" ed il tutto diviene praticamente ingestibile. 

La cosa più ragionevole è fissare gli obiettivi al capo divisione che avrà il compito di bilanciare correttamente gli ingredienti del successo e l'interesse a giudicare in modo meritocratico i managers che a lui riportano.

grazie, interessante, si direbbe ``o pesce fete d'a capa''

ti segnalo la relazione ``Citation Statistics'' (A report from the International Mathematical Union (IMU) in cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS) ) e anche la discussione svolta su questo sito a commento dell'articolo ``perche' la riforma Gelmini non era (e`) tutta da buttare''

Sembra esserci una difficoltà ad intendere l'argomento altrui. Ci riprovo.

1) Io  NON ho proposto la media come unico criterio di valutazione. Io ho solo provato che il criterio suggerito da GdeN porta a conclusioni assurde perché esclude la media, che mi sembra una statistica da prendere in considerazione quando si cerca di valutare performances, o no?

2) Fosse per me, sia chiaro, le valutazioni le lascerei fare al mercato che, come l'evidenza mostra, le fa meglio di tutti i sistemini burocratici che vi andate inventando. Ma questo è un altro discorso.

3) Nel caso specifico dell'esempio considerato nel commento precedente è OVVIO che si sta applicando in modo distorto il funzionale "media". La pubblicazione con 100 citazioni ha due autori. Quindi la media di A è 50, quella di B è 65, vince giustamente B.

Morale 1: il criterio suggerito da GdeN rimane assurdo e le sue implicazioni vuote di senso.

Morale 2: gli indici occorre capirli prima di usarli.

marcomariotti (http://www.noisefromamerika.org/index.php?module=comments&func=display&cid=59301&objectid=2111&modid=151&itemtype=1&thread=1#d59301) ha afferrato perfettamente il ragionamento:

Sul punto specifico, personalmente la proprieta' proposta da Denicolao mi sembra piu' che accettabile, mentre la media mi sembra inaccettabile (intesa come indice di qualita').

Pensaci Michele: sei Francis Crick e hai scritto due dei papers piu' fondamentali della storia della scienza, sulla struttura del DNA (oppure sei proprio Michele Boldrin e hai scritto due noti lavori sull'accumulazione del capitale). A questo punto scrivi altri papers, sempre fantastici, citatissimi e ben sopra alla media nazionale, ma non al livello quasi irraggiungibile degli altri due: se un moloch valutativo usa la media come criterio per giudicarti, devi immolare quegli altri tuoi pur bellissimi lavori per non 'abbassare la tua qualita'!

 

 

Per quanto riguarda l'osservazione sul numero degli autori dei papers, non basta dividere le citazioni per il numero di coautori per evitare il paradosso. Nell'esempio specifico, basta ipotizzare che  il secondo paper di B sia in collaborazione con un terzo studioso C. Pur di introdurre i cambiamenti in grassetto, il paradosso rimane tale e quale:

 

In un concorso universitario ho due candidati. Il candidato A ha un solo lavoro con 100 citazioni. Il candidato B è coautore di A  e ha scritto un secondo lavoro (insieme ad un altro autore C diverso da A) che ha ricevuto 80 citazioni. Risulta che le citazioni pro capite medie sono

 

A: 100/2/1=50 citazioni/persona/paper

B: 180/2/2= 45 citazioni/persona/paper

 

Se uso la media come criterio di ranking faccio vincere il candidato A che ha prodotto meno (1 solo paper contro 2) ottenendo anche meno riconoscimenti internazionali (50 citazioni pro capite contro 90 citazioni pro capite).

Paradossalmente, il candidato B dovrebbe occultare il suo secondo paper in modo da essere almeno alla pari con A. Non ha senso usare criteri di ranking secondo i quali posso salire in classifica occultando parte del mio output valutabile. Il Criterio di ammissibilità impedisce che si verifichi questo paradosso: essere superato da qualcuno che ha un sottoinsieme delle mie pubblicazioni. Un criterio di ranking che rende possibile questo sorpasso appare inconsistente.

 

 

 

Per quanto riguarda l'osservazione sul numero degli autori dei papers .........

a me pare che il baco sia considerare la media delle citazioni invece del numero assoluto

autore A 1 pubblicazione 100 citazioni : media 100 ; valore assoluto 100

autore B 10 pubblicazioni 8 con100 citazioni , 2 con 50 : media 90 ; valore assoluto 900

e qui non ci sono dubbi che , accettato il criterio delle citazioni , con la media B soccomberebbe pur essendo il più valido.

Così nell'esempio :

A : con la media 50 ; valore assoluto 50

B : con la media 45 ; valore assoluto 90

ciò detto io non credo che se una istituzione è marcia possa essere bonificata applicando algoritmi automatici

è come credere che il tanto sbandierato federalismo possa "smarcire" la società italiana.

Auguri

Avete mai pensato alla dipendenza del numero di citazioni dal numero degli articoli pubblicati sullo stesso argomento? Leggo ora un articolo su Notices of the American Mathematical Society, Dicembre 2010, pag. 1421, che non parla di citazioni, ma che riferisce, ad esempio, che nell'ambito della "group theory" sono usciti nell'ultimo decennio un numero di articoli pari al 2,63 % di tutti gli articoli pubblicati (e recensiti da MathSciNet) di matematica. Per contro, ad esempio, si deduce da un grafico che sono classificati come "partial differential equations" l'8,8% degli articoli pubblicati nello stesso periodo. Ci si dovrebbe aspettare la stessa proporzione per le citazioni. Anche qui dovremmo "normalizzare"? Aggiungo che non basterebbe normalizzare per "settore scientifico disciplinare" perché, ad esempio "partial differential equations" e "abstract harmonic analysis" appartengono allo stesso settore scientifico-disciplinare italiano (MAT05 Analisi matematica), ma la sproporzione tra numero di articoli pubblicati è ancora maggiore: (approssimativamente lo 0,5% dei lavori di matematica pubblicati è classificato come "abstract harmonic analysis").

Mi sembra ragionevole, ma non facile da implementare.

Lo stesso fenomeno si osserva considerando la lista dei matematici "top", come ho osservato qui

Non facile da implementare, ma nemmeno troppo difficile per la matematica. E' facile contare gli articoli pubblicati in ognuno dei settori associati alle prime due cifre della classificazione di MathReviews, mettiamo per un certo numero di anni, ad esempio pubblicati in un triennio non troppo vicino al 2011 e posteriore al 2001. Più difficile è contare le citazioni di questi articoli. Ma per una stima del numero di citazioni si potrebbe considerare, invece dell'universo dei lavori recensiti da MathReviews, un campione aleatorio stratificato per settore. All'interno di questo campione aleatorio, molto più ridotto,  si potrebbero contare direttamente le citazioni di tutti gli articoli.  La mia congettura è che il numero di citazioni medio in ciascuno dei settori determinati dalle prime due cifre della classificazione, sia proporzionale al numero degli articoli pubblicati nello stesso settore. Se questa congettura fosse verificata in questo contesto, aiuterebbe a comprendere il significato che possiamo dare al numero di citazioni come misura della qualità, anche in altri campi dove non abbiamo banche dati complete come quella di MathReviews. Naturalmente il numero delle citazioni influenza tutti gli altri indici "bibliometrici" dall'indice H allo Impact Factor. Infine è bene osservare che è anche possibile sostenere che gli articoli di migliore qualità sono quelli che si occupano di problemi ai quali si interessa il maggior numero di studiosi. Non è una opinione da scartare a priori. Si può anche ritenere però che chi segue le mode o le grandi scuole finisca per rinunciare ad essere particolarmente originale. La mia opinione è più orientata su quest'ultimo versante e temo che l'enfasi sul numero delle citazioni abbia conseguenze negative sule scelte dei giovani (matematici) che, quando sono bravi, dovrebbero cercare di arrivare a risultati veramente nuovi ed originali, invece di svolgere esercizi di ricerca al seguito delle grandi scuole.

Avete mai pensato alla dipendenza del numero di citazioni dal numero degli articoli pubblicati sullo stesso argomento?

Assai. È fenomeno noto. In economia, per esempio, i migliori papers di teoria hanno un numero miserrimo di citazioni rispetto anche (mediocri) papers di cose "applicate", specialmente microeconometria dell'area cosidetta di "labor" ...

Un'altra ragione per cui indicatori monotoni lasciano molto a desiderare.

Valutare un ricercatore sulla base del numero medio di citazioni lo indurrebbe a pubblicare solo quando ritenesse di fare meglio che in passato: non mi sembra il migliore incentivo possibile. Se invece il ricercatore può scegliere quali pubblicazioni mettere in gioco, allora lo si sta valutando sulla base del numero di citazioni ricevute dal suo articolo migliore: mi sembra più utile ad assegnare un posto nella storia che ad attribuire uno stipendio. All'altro estremo c'è il semplice conteggio delle pubblicazioni (che tiene conto solo della quantità e ignora completamente la qualità). In medio stat virtus? Con tutti i limiti, si intende, che l'uso delle citazioni per misurare l'importanza di un articolo porta con sé.

marcomariotti (http://www.noisefromamerika.org/index.php?module=comments&func=display&cid=59301&objectid=2111&modid=151&itemtype=1&thread=1#d59301) ha afferrato perfettamente il ragionamento:

[...]

Mi dispiace, siete in due ora a non capire. Comincio ad avere dubbi ...

Ci provo, per l'ultima volta.

Il criterio che suggerite ha svariati difetti perché, ripeto, è un criterio MONOTONO rispetto alla dimensione dell'insieme. Questo implica che è un criterio che valuta la QUALITA' di un ricercatore (o, ancor meglio, gruppo di ricercatori) concentrandosi sui valori massimi raggiunti da questi e tralasciando tutte le bad performances. Questo è platealmente assurdo. Si considerino due casi, frequenti.

- Una persona ha un random hit, con tantissimi citazioni e tutto il resto, e poi scrive solo cazzate il resto della sua vita. Anzi, scrive cose sbagliate, non lavora più, ha idee assurde, rovina gli studenti, e via dicendo. Esempi del genere abbondano. Secondo il vostro criterio questo soggetto dovrebbe essere valutato solo perché, per un qualche caso, un giorno ha scritto una cosa buona. Assurdo: scrivere puttanate è socialmente negativo e va "punito" da un criterio di valutazione appropriato.

- Lo stesso vale per un gruppo. Il vostro criterio nemmeno controlla per la dimensione dell'insieme: chi scrive tanto ha per definizione tanti punti, assurdo. Dipartimenti o gruppi grandi hanno indici più alti semplicemente perché mettendo assieme tanta gente aumenta la probabilità di avere un qualche paper che ha avuto successo. Gli incentivi che questo criterio induce, per la selezione del personale, sono estremamente distorti. Direi pessimi. Induce a costruire centri enormi i cui membri, dopo aver fatto un lavoro decente, hanno tutto l'interesse a non fare mai niente.

- Soprattutto, non sembrate cogliere l'aspetto "incentivi": ogni meccanismo di valutazione induce incentivi di un certo tipo. Quello che suggerite induce, a livello di gruppo, l'incentivo che ho appena descritto. Ossia alla creazione di gruppi pletorici alla ricerca del colpo di genio casuale, senza alcuna penalizzazione all'inattività o, peggio ancora, alla produzione di cazzate! Se avessi seguito questo criterio non avrei mai scritto più nulla dopo la mia tesi di PhD: un paper contenuto in essa è di gran lunga la cosa, dal punto di vista strettamente teorico, più importante che abbia mai scritto! Bell'incentivo del menga avrei avuto.

Infine, ripeto per l'ennesima volta, io NON ho detto che le valutazioni si fanno SOLO in base alla media. Ho solo detto che il criterio suggerito da GdeN è assurdo (e lo ribadisco) e che ANCHE la perfomance media deve far parte di un criterio socialmente ammissibile di valutazione.

OVVIAMENTE un funzionale di valutazione della qualità non può non essere composto di svariati indici, con differenti pesi (e qui sta la complicazione oltre che la ragione per cui sono a favore del mercato). Infatti, personalmente lo trovo un problema molto complicato e, per questa ragione, rifuggo dalle soluzioni semplici e chiaramente incongrue come quella che ci e' stata qui suggerita.

Sul mercato sono d'accordo con te (proprio perche' i criteri 'oggetivi' sono soggettivi, come questa discussione ben dimostra).

Sul punto in questione continuo ad essere d'accordo con Denicolao. Se X scrive un top paper e poi cose leggere, e Y un top paper e poi niente, la proprieta' non vieta di dare lo stesso punteggio ad entrambi (sto identificando i due top papers come lo stesso oggetto per evitare discussioni sul coautoraggio, che e' yet another issue). La tua obiezione e' che tu vuoi che X sia attivamente punito, non semplicemente che la sua pubblicazione leggera non conti nulla. Boh, cosa vuoi che ti dica, a me questo sembra francamente assurdo, ma let's agree to disagree.

Sugli incentivi, non vedo come

Induce a costruire centri enormi i cui membri, dopo aver fatto un lavoro decente, hanno tutto l'interesse a non fare mai niente.

o

Se avessi seguito questo criterio non avrei mai scritto più nulla dopo la mia tesi di PhD:

risulti dalla Denicolao-monotonicity. Mi sembra che ti dia la zappa sui piedi con questi esempi perche' (come sottolineato da un altro lettore) e' proprio la media ad avere questo effetto di incentivo: una volta fatto lo hit, ogni cosa abbassa la media.

Secondo me nella foga della discussione stai forse dando una rappresentazione un po' caricaturale di come funziona la ricerca e i gruppi di ricerca, e stai trascurando le motivazioni intrinseche. In Italia c'e' ogni tipo di perversione perche' nel sistema si e' infiltrato un numero enorme di persone che sono motivate da cose che non sono la ricerca, e per eliminarle puoi pescare un indice a caso, media, moda, massimo, che tanto va bene, tanto sono scarsi.

Secondo me nella foga della discussione stai forse dando una rappresentazione un po' caricaturale di come funziona la ricerca e i gruppi di ricerca, e stai trascurando le motivazioni intrinseche. In Italia c'e' ogni tipo di perversione perche' nel sistema si e' infiltrato un numero enorme di persone che sono motivate da cose che non sono la ricerca, e per eliminarle puoi pescare un indice a caso, media, moda, massimo, che tanto va bene: tanto sono scarsi.

Ecco, questo mi sembra il punto chiave.

Incaponirsi a cercare il metodo perfetto rischia di generare discussioni interminabili, finendo per portare acqua al mulino di chi, temendo la valutazione, vuole spostarla oltre la linea dell'orizzonte: questa strategia dilatoria ricorda l'astuzia di Bertoldo, il quale riusci' ad ottenere di scegliere la pianta alla quale venir impiccato... :)

Marco, rispondo per l'ultima volta perché mi sembra che "nella foga della discussione" anche tu abbia preso l'abitudine di non leggere quello che uno scrive. Rileggiti (sulla media e sui criteri di valutazione) il mio commento a cui rispondi. Non so che farci se né tu, né "l'altro lettore", non riuscite a capire la differenza fra

(A) Usare un criterio che ESCLUDE la media come indice di qualità (la negazione di questa proposizione è usare criteri che AMMETTONO la media come uno degli indici di qualità.)

(B) Usare un criterio che IMPONE la media come indice di qualità (la negazione di questa proposizione è usare un criterio che NON IMPONE la media come indice di qualità).

Il dibattito è (A), mentre sia tu che il lettore continuate a far finta che sia (B).

Sul resto, sembri non ricordare cose che credevo chiare e limpide fra chi si occupa di questi argomenti. Le riassumo brevemente:

- Un mostrare che un assioma è "cattivo" basta mostrare che porta a risultati assurdi in istanze ragionevoli. Il fatto che in altre istanze funziona, prova nulla.

- L'idea che la qualità di un insieme sia funzione crescente della sua dimensione è platealmente assurda sul piano intuitivo. Confonde, banalmente, quantità e qualità!

- Se tu leggessi quanto ho scritto capiresti che le mie affermazioni sugli incentivi "distorti" sono una critica al TUO esempio, ossia al caso del signore che scrive una cosa geniale e poi valanghe di minchiate e che, secondo te, dovrebbe essere valutato in base alla cosa geniale. In generale, il criterio del max, che sembra piacerti, induce la seguente stopping rule: once you hit a home run do not write anything anymore. Non so come tu non possa cogliere questa banale implicazione

Infine, nota che gli esempi del genio che scrive un grande paper e poi una sequenza di mediocrità soddisfano solo "debolmente" il criterio di GdeN. Infatti, di per se, il criterio che GdeN si è inventato, con l'unico e plateale scopo di poter così evitare di confrontarsi con i risultati del lavoro di Roberto Perotti, è un criterio utile per definire un indice di QUANTITA', non di QUALITA'!

Non so ragazzi, mi sembrate davvero partiti per la tangente ideologica. Siete, apparentemente, dell'opinione che il sottoinsieme dei 10 migliori giocatori di scacchi del paese debba avere una qualità inferiore (nel gioco degli scacchi) dell'insieme di tutti i cittadini del paese X!

Caro Michele, al contrario, leggo con molta attenzione quel che scrivi. Riassumendo:

DeNicolao cercava un indice di valutazione individuale (i tuoi esempi sui gruppi, scacchisti, eccetera fanno solo confusione in una discussione gia' difficile, perche' l'aggregazione delle valutazioni individuali e' un problema ulteriore), e ha proposto una proprieta' per questo indice.

Tu hai detto che la proprieta' e' assurda perche' 'esclude la media'.

Io e altri abbiamo detto che la media e' un cattivo indice e che la proprieta' e' sensata.

Tu hai a questo punto hai specificato che non hai mai proposto SOLO la media, ma che la media deve far parte di un (fantomatico) insieme di criteri. (Non hai perso l'occasione per accusarmi di non capire la logica elementare ne' cosa significa un assioma).

Rassegnati: io continuo serenamente a pensare che, per la ricerca individuale, la media sia un indice cattivo e vada escluso.  Per il semplice motivo che se (nel periodo di valutazione) scrivo un paper con 100 citazioni non mi sembra giusto che il mio indice cada se ne scrivo un altro con 50 citazioni, e che starei meglio se non facessi nulla. Non mi sembra un concetto difficile da capire ne' un'idea strampalata.

Tre chiarimenti finali:

1) La 'tangente ideologica' per cui sarei/emmo partiti esiste, per quel che mi riguarda, solo nella tua testa perche', non inizio neanche a capire di quale ideologia stai parlando: sto parlando di monotonicita', punto.

2) Tu dici che a me piace il max, cosa che non e' vera. Di nuovo, se scrivo un paper con 100 citazioni e uno con 50 secondo me e' meglio che se ne scrivo solo uno con 100, e se ne scrivo due da 100 e' meglio che se ne scrivo uno solo. Mi cadono le braccia a dover chiarire queste cose.

3) Per me e' una discussione puramente teorica: non sono un fan degli indici; non sono un fan delle citazioni; credo come Fausto e gli altri matematici che gli indici siano soggettivi e che solo chi e' abbagliato dai numeri possa considerarli oggettivi; credo infine che per quanto riguarda l'Italia, come ho gia' detto piu' volte, la discussione sia ancora piu' irrilevante, per i motivi spiegati da GF.

 

E' una discussione astratta anche per il semplice motivo che assume che io possa prevedere a priori il numero di citazioni che un paper può ricevere. Ovviamente questo è impossibile. E' già difficile prevedere in quale rivista sarà accettato e dopo quanto tempo e quante faticose revisioni.

Son d'accordo - ma a me le discussioni astratte, anche se portano poche citazioni, piacciono :)

A rischio di dire stupidaggini, e denigratemi senza pietà se lo sto facendo, a me sembra che l'incentivo a scrivere un paper in più sia più forte per la media che per il max. Ammesso che ci sia un costo marginale positivo, un ricercatore scrive un paper solo se aumenta il ritorno in termini di valutazione (aumenta l'indice di valutazione). Nel caso della media, il ritorno aumenta se si aspetta di ottenere più citazioni dal paper della sua media attuale, nel caso del max se si aspetta di ottenere più citazioni del miglior paper. Tutti i papers che si scrivono col criterio del max si scrivono col criterio della media, mentre non è vero il contrario. O no?

Yup. Grazie Luigi.

Caro Luigi, quello che scrivi e' vero anche se purtroppo non ci vincerai il Nobel....

Chiarisco che io non ho proposto il max come criterio: quello era solo l'uso da parte di Michele di un noto artificio retorico (attribuire all'interlocutore  una cosa X che non ha detto e poi attaccare X per denigrare l'interlocutore). Comunque, nel contesto di esempi estremi (parti con una cosa geniale e poi solo minchiate), ogni articolo successivo a quello geniale abbassa la media.

anche se purtroppo non ci vincerai il Nobel....

c'ho rinunciato da tempo, punto sullo scudetto del Napoli come soddisfazione personale.

Nel caso della media (e non in quello del max) il ritorno può essere negativo.

Direi dunque che la validità della tua affermazione dipende dalla maggiore o minore propensione al rischio del ricercatore.

È vero l'opposto visto che mean(A) ≤ max(A) ... se il payoff è positivo rispetto a max, lo sarà di certo rispetto a mean

Nel caso della media, se il ritorno è incerto e la prospettiva di abbassarla mi spaventa più di quanto mi lusinghi la prospettiva di aumentarla, sceglierò di non pubblicare; con il massimo, invece, pubblicando non corro alcun rischio (pago solo il costo di pubblicare).

Credo che possiamo concordare sia sull'incertezza del ritorno che sul ragionamento (eventualmente formalizzandolo) così come credo concordiamo sul fatto che le motivazioni importanti per scrivere o non scrivere sono altre (e altre devono rimanere).

Ai fini pratici, poi, ma lo scrivo solo perché ho voglia di scriverlo, mi pare ci voglia poco per mettere le cose a posto: si può considerare la media delle migliori 10 pubblicazioni, dove 10 è un arbitrario numero scritto in base se stesso e proporzionale alla durata dell'attività di ricerca... usiamo una sorta di media, abbiamo la proprietà di monotonia, bilanciamo quantità e qualità (con un po' di clemenza nei confronti delle fesserie "a margine") e non permettiamo ad alcuno di sedersi sugli allori; certo, non lo nego, abbiamo bisogno di un'opinione esperta per stabilire quanto vale 10... ma davvero se ne può fare a meno?

accettando le citazioni come misura della preparazione di una persona le varianti fin qui proposte non mi rislvono un dubbio

immaginiamo A e B attivi da 15 anni

citazioni di A primo quinquennio 100 secondo 50 terzo 20

citazioni di B primo quinquennio 20 secondo 50 terzo 100

dovendo promuovere , assumere o quanto altro A o B tutti gli indici fin qui elaborati direbbero che sono pari

io invece , integrando l'automatismo con un mio giudizio soggettivo , preferirei B

sbaglio? Oppure gli indici automatici da soli non funzionano ( sempre ammesso che siano costruiti su misure valide : e penso sempre alle pubblicazioni di medicina con 10 coautori fra i quali sempre il "capo").

Caro Lallo, dipende per cosa usi gli indicatori bibliometrici, e come li usi. Ti faccio un esempio pratico.

Attualmente  da noi (ogni anno, per la ripartizione dei fondi d'ateneo) ciascuno viene giudicato  considerando la produzione scientifica che cade nella finestra degli ultimi 5 anni (ovvero l'attivita' recente): questo dovrebbe mitigare l'inconveniente che segnali.

Tra l'altro, il fatto di lavorare con una "finestra mobile" garantisce  che non basti fare un lavoro ottimo per vivere poi di rendita.

Certo: se questo criterio dovesse essere l'unico strumento di un'ipotetica valutazione che deve decidere se e' meglio A o B,  l'inconveniente che segnali (e molti altri) non potrebbero essere trascurati.

l'incertezza non la stavo proprio considerando a dire il vero, assumevo che il ricercatore sa esattamente quante citazioni ottiene dall'articolo in più.

E' bellissimo che nella ricerca dei chimerici indici 'oggettivi' di qualita' questa discussione sottolinei cosi' bene la loro totale soggetivita': due persone ragionevoli non sono d'accordo nemmeno sulle proprieta' fondamentali che un indice di qualita' deve possedere! 

Sul punto specifico, personalmente la proprieta' proposta da Denicolao mi sembra piu' che accettabile, mentre la media mi sembra inaccettabile (intesa come indice di qualita').

Pensaci Michele: sei Francis Crick e hai scritto due dei papers piu' fondamentali della storia della scienza, sulla struttura del DNA (oppure sei proprio Michele Boldrin e hai scritto due noti lavori sull'accumulazione del capitale). A questo punto scrivi altri papers, sempre fantastici, citatissimi e ben sopra alla media nazionale, ma non al livello quasi irraggiungibile degli altri due: se un moloch valutativo usa la media come criterio per giudicarti, devi immolare quegli altri tuoi pur bellissimi lavori per non 'abbassare la tua qualita'! 

Sulla questione di base della valutazione della ricerca in Italia, poi, concordo con la filosofia espressa mi sembra da Giovanni Federico: la situazione e' talmente patetica che anche mettendo paletti bassissimi, e usando criteri/indici qualsivoglia, si farebbe comunque una selezione mostruosa (stiamo parlando di gente che ha zero papers nell'universo di riviste che hanno, con qualsiasi possibile e soggettivo ma sensato criterio, un minimo di credibilita' internazionale).

 

 

[...] Sulla questione di base della valutazione della ricerca in Italia, poi, concordo con la filosofia espressa mi sembra da Giovanni Federico: la situazione e' talmente patetica che anche mettendo paletti bassissimi, e usando criteri/indici qualsivoglia, si farebbe comunque una selezione mostruosa (stiamo parlando di gente che ha zero papers nell'universo di riviste che hanno, con qualsiasi possibile e soggettivo ma sensato criterio, un minimo di credibilita' internazionale).

Cio' che dici mi sembra abbastanza saggio. Del resto non ha molto senso rincorrere l'indicatore perfetto: meglio usare indicatori sensati ma imperfetti, tarati con un po' di tolleranza.

Puoi usare il metodo automatico  quando c'e' da prendere una decisione binaria (tipo: scatto di stipendio meritocratico, eleggibilita' come commissario, etc.), o per valutazioni aggregate (anche se qui le cose diventano piu' delicate).

Se invece devi decidere chi vince un concorso, puoi usare il metodo automatico al massimo per fare una scrematura, non per determinare il vincitore.

Puoi usare il metodo automatico  quando c'e' da prendere una decisione binaria (tipo: scatto di stipendio meritocratico, eleggibilita' come commissario, etc.), o per valutazioni aggregate (anche se qui le cose diventano piu' delicate).

Quindi siamo d'accordo. Ho sempre parlato di indicatori  automatici per la distribuzione dei fondi fra Università o  Università + settori disciplinari (la soluzione da me preferita) o per la valutazione di produttivtà scientifica indivuale (la legge Gelmini, che è una soluzione inferiore ma comunque meglio dell'arbitrio)- mai per i concorsi.

Se invece devi decidere chi vince un concorso, puoi usare il metodo automatico al massimo per fare una scrematura, non per determinare il vincitore.

Guardi che il concorso  è stato abolito dalla legge Gelmini. RIP. Devo dire che non provo alcuna nostalgia. Ho visto  troppe porcate (non a Matematica, ovviamente, e neppure a Fisica Teorica) in nome della valutazione personale da parte dei commissari Ora si parla di abilitazione nazionale (scrematura) più selezione locale.

RIP

Carlo Carminati 4/1/2011 - 18:52

Guardi che il concorso  è stato abolito dalla legge Gelmini. RIP.

Hai perfettamente ragione, mi sono espresso male (e chi parla male, pensa male :).

Io stavo pensando al cosiddetto "concorsone" o, meglio, alla idoneità nazionale aperta.

Devo dire che non provo alcuna nostalgia. Ho visto  troppe porcate (non a Matematica, ovviamente, e neppure a Fisica Teorica) in nome della valutazione personale da parte dei commissari Ora si parla di abilitazione nazionale (scrematura) più selezione locale.

Scrematura? Mi sembri molto ottimista.

Non mi è poi chiaro che le selezioni locali non saranno ancora peggio degli attuali concorsi locali, ma a questo punto, concordo con te, è tutto nelle mani del Ministro. Il che, forse, è parte del problema.

Guardi che il concorso  è stato abolito dalla legge Gelmini.

Veramente?  Non ho letto l'ultima versione del DDLD Gelmini, ma a me tornava che:

  1. rimane il concorso per ricercatore, che sara' ancora piu' importante di quelli esistenti perche' mediante abilitazione nazionale dopo 6 anni dovrebbe garantire il posto permanente al livello di associato
  2. rimane il concorso per passare da associato ad ordinario, e il concorso per trasferimento da un Ateneo all'altro
  3. rimangono i concorsi locali per associato, per i ricercatori in esaurimento, anche se abilitati nazionalimente

No il concorso tradizionale, con commissari rappresentanti la disciplina a livello nazionale (eletti o estratti) è stato abolito. E' stato sostituito da una abilitazione nazionale a numero aperto (giudizio di idoneità). A regime, ci sarà una valutazione comparativa puramente locale, con membri interni, riservata agli idonei. Sono meccanismi totalmente diversi.

??

Carlo Carminati 4/1/2011 - 23:31

Comincio ad essere confuso.

Due domande:

1) I famosi concorsi da associato (if any :) che dovrebbero svolgersi in attesa che vada a regime il meccanismo della tenure come si svolgeranno?

2) Seconda domanda   (che, personalmente, mi interessa ancor di piu'): si sa gia' quale sara' il meccanismo di ricostruzione della cariera?

Con il nuovo metodo (art 29): abilitazione e chiamata

"A valere sulle risorse previste dalla
legge di stabilita` per il 2011 per il fondo
per il finanziamento ordinario delle universita`,
e` riservata una quota non superiore
a 13 milioni di euro per l’anno 2011,
93 milioni di euro per l’anno 2012 e 173
milioni di euro annui a decorrere dall’anno
2013, per la chiamata di professori di seconda
fascia, secondo le procedure di cui
agli articoli 18 e 24, comma 6, della presente
legge"

Per la ricostruzione della carriera, studiati la legge. Io sono gà ricostruito da tempo. Anzi fra poco me ne vado in pensione :-)

 

[...] secondo le procedure di cui agli articoli 18 e 24, comma 6, della presente legge

quindi ci dovrebbero essere concorsoni nazionali di abilitazione all'associatura, e poi ciascuna sede chiama gli idonei che preferisce, vero?

Per la ricostruzione della carriera, studiati la legge. Io sono gà ricostruito da tempo. Anzi fra poco me ne vado in pensione :-)

L'ultima volta che avevo letto la legge mi sembrava che la cosa non fosse cosi' chiara (forse rimandava a qualche regolamento futuro). Ad ogni modo non c'e' fretta: prima del prossimo concorsone passeranno moltio mesi.

Comunque, anche al di la' dell'interesse personale, penso sia una questione non secondaria per valutare gli effetti del provvedimento nel suo complesso.

Se i regolamenti si conformeranno alle intenzioni d chi ha proposto l'abolizione della ricostruzione di carriera, il salario di ingresso nel ruolo dovrebbe essere quello che si ottiene ora con il massimo della ricostruzione della carriera. Questo eliminerebbe l'attuale discriminazione tra chi entra in ruolo forte di una carriera pregressa e chi "viene da fuori". Sarebbe allora forse più facile reclutare esterni al sistema. Il costo di questa operazione sarebbe minimo perché attualmente la stragrande maggioranza di chi entra in ruolo (di prima o seconda fascia) ricostruisce al massimo la carriera (i matematici sono un'eccezione trascurabile). Lo scopo quindi di questa abolizione è di eliminare una discrminazione e favorire il reclutamento di esterni al sistema universitario

Grazie della notizia. Anzi, delle notizie, una buona, una cattiva.

La buona e' evidente, la cattiva e' che i regolamenti ancora non ci sono.

Qualcuno ha idea dei tempi necessari all'emanazione?

Se i regolamenti si conformeranno alle intenzioni d chi ha proposto l'abolizione della ricostruzione di carriera, il salario di ingresso nel ruolo dovrebbe essere quello che si ottiene ora con il massimo della ricostruzione della carriera. Questo eliminerebbe l'attuale discriminazione tra chi entra in ruolo forte di una carriera pregressa e chi "viene da fuori". Sarebbe allora forse più facile reclutare esterni al sistema.

Non vorrei fare l'ucccello del malaugurio ma la discriminazione (sbagliata e provinciale) contro "chi viene da fuori" viene eliminata anche inquadrando tutti i nuovi assunti ad anzianita' zero. Per l'inquadramento alla massima anzianita' ricostruibile la vera giustificazione sarebbe rendere decentemente comparabile con l'estero il compenso dei candidati provenienti da Paesi avanzati fuori dall'Italia. Spero che ci sia questa sensibilita' nei legislatori, ma non ci scommetterei troppo.

Non vorrei fare l'ucccello del malaugurio ma la discriminazione (sbagliata e provinciale) contro "chi viene da fuori" viene eliminata anche inquadrando tutti i nuovi assunti ad anzianita' zero. Per l'inquadramento alla massima anzianita' ricostruibile la vera giustificazione sarebbe rendere decentemente comparabile con l'estero il compenso dei candidati provenienti da Paesi avanzati fuori dall'Italia. Spero che ci sia questa sensibilita' nei legislatori, ma non ci scommetterei troppo.

Caro Alberto, circa un mese fa ne avevo parlato col nostro direttore di dipartimento (Marco Abate, persona estremamente preparata e meticolosa) il quale mi aveva detto che la ratio del provvedimento era quello di diminuire la pendenza della curva della progressione salariale (come peraltro da te auspicato).

Ma, ovviamente, stiamo facendo il processo alle intenzioni: se il governo finisce a carnevale, dubito che MSG riesca a combinar alcunche' (e il successore avra' buon gioco a scaricar tutte le responsabilita' su di lei in caso di eventuali inadempienze o pasticci).

P.S. [precisazione successiva al commento di Alberto]
qui sopra intendevo dire:
"la ratio del provvedimento era quello di diminuire la pendenza della curva della progressione salariale mantenendo pero' invariata la remunerazione complessiva lungo la carriera lavorativa media" (la parte in grassetto  sopra mancava).

 

Caro Alberto, circa un mese fa ne avevo parlato col nostro direttore di dipartimento (Marco Abate, persona estremamente preparata e meticolosa) il quale mi aveva detto che la ratio del provvedimento era quello di diminuire la pendenza della curva della progressione salariale (come peraltro da te auspicato).

Bene, ottima premessa. Peraltro, scusandomi per essere monotono, osservo che la pendenza si riduce diminuendo gli scatti di anzianita', non alzando il salario di prima assunzione...

Il salario di prima assunzione puo' essere alzato per due ragioni: 1) per mantenere invariata la remunerazione complessiva lungo la carriera lavorativa media, compensando la riduzione della progressione economica di anzianita' e 2) per rendere i compensi italiani piu' simili ed appetibili rispetto a quelli degli altri Paesi avanzati nel reclutamento dei giovani. La struttura dei salari italiani e' tale che solo accademici stranieri vicini alla pensione hanno interesse alle posizioni italiane, almeno dai Paesi avanzati. Un incentivo ridicolo e nocivo, come spesso accade in Italia. AFT scrive che attrarre stranieri ed esterni era motivazione sentita da chi ha scritto l'articolato: bene, adesso speriamo che alle intenzioni corrispondano i fatti.

Non ho dubbi che chi ha scritto la norma pensasse proprio al reclutamento di personale all'estero. La norma si trova nel DDL originale e chi l'ha scritta è un consigliere della ministra con una ampia esperienza di insegnamento universitario all'estero.

Interessante. Avete appena finito di argomentare che, su un paio di questioni importanti, qualcosa di buono ed utile, nella legge appena approvata, c'è ...

Certo: su molte questioni importanti (anzi, essenziali) ci sono amplissimi margini di manovra.

Il problema e' il seguente: chi manovra e' ora solo MSG, e quel che abbiam visto finora non induce all'ottimismo.

(BTW: qualcuno ha notizie del "PRIN 2009"? :)

 

Caro Michele, mi semba che "ex" regga l'ablativo e non l'accusativo. Comunque "ex falso quodlibet sequitur" come prescritto dalle tavole di verità della implicazione.

Sandro, hai ragione. La memoria ha fatto un brutto scherzo!

Premetto ringraziando per la replica densa di dati e collegamenti.

Non sono questi i numeri con cui si deve confrontare l'univerista' italiana con quella estera [...]  Il confronto corretto che si deve fare e' sul numero di pubblicazioni / citazioni per milione di  abitanti.

Credo di dover dissentire nel merito e nel metodo. Il numero di pubblicazioni/citazioni per milione di  abitanti misura un risultato ma non tiene conto delle risorse che sono state impiegate per ottenerlo. Appare più corretto svolgere un'analisi ingresso-uscita, ovvero misurare i risultati (articoli oppure, ancora meglio, citazioni) a fronte delle risorse investite. Di seguito riporto i risultati di 4 analisi simili tra loro.

Se dissenti sull'utilita' di considerare indicatori come "pubblicazioni per milione di abitanti" allora dovresti dissentire ancora di piu' sull'utilita' di considerare indicatori come "pubblicazioni di uno Stato", che oltre ad essere distorti dall'ammontare di risorse iniettate, sono anche distorti, e molto di piu', dal diverso numero di abitanti degli Stati considerati.

In realta' ogni indicatore onestamente interpretato rivela qualcosa.  Pubblicazioni/Stato misura [numero di abitanti] * [PIL pro-capite PPP] * [frazione di PIL in ricerca] * [efficienza del comparto universita-ricerca] , mentre "pubblicazioni per milione di abitanti" misura lo stesso prodotto senza il numero degli abitanti, e quindi e' un indicatore - a mio parere - piu' onesto e utile del primo, per caratterizzare la posizione dell'Italia nel mondo. Non vedo alcun merito, tantomeno scientifico, nell'avere un grande numero di abitanti in Italia. Va bene comunque obiettare che se l'Italia fa male su "pubblicazioni per milione di abitanti" va comunque investigato se questo dipende da scarsa efficienza dei ricercatori o da poche risorse comparativamente investite nel settore.

Appare più corretto svolgere un'analisi ingresso-uscita, ovvero misurare i risultati (articoli oppure, ancora meglio, citazioni) a fronte delle risorse investite. Di seguito riporto i risultati di 4 analisi simili tra loro.

Sono d'accordo, se l'obiettivo e' misurare l'efficienza del comparto universita'-ricerca.  Se invece si vuole confrontare l'Italia come societa', come Paese, allora il parametro piu' corretto e' pubblicazioni o citazioni per milione di abitanti.

A. Rizzuto & Rochow.
Carlo Rizzuto, Università di Genova, e Regina Rochow, "Quale è il rendimento della spesa di ricerca nelle Università (e nella ricerca pubblica):qualche evidenza dai dati statistici", Conferenza CRUI 12/6/03, www.miur.it/UserFiles/3249.pdf

Grazie per il riferimento, che non conoscevo.  Un link piu' diretto e' http://www.philos.unifi.it/upload/sub/Home/133_crui.pdf.

Per essere ancora più corretti, gli autori ripetono il calcolo usando come come denominatore solo i ricercatori pubblici e universitari. In tal caso l'Italia è in posizione 10 con efficienza 14.8, poco sotto la Germania (15.1) e davanti a Francia, Finlandia, Spagna, Giappone, Grecia e Portogallo (Fig. 6.b). Rizzuto e Rochow usano la metafora dei Km per litro di un automobile: la macchina della ricerca italiana macina un numero di chilometri (pubblicazioni) commisurato ai litri di benzina (ricercatori) messi nel motore.

OK questo e' un confronto corretto come premesse, che misura bene la posizione dell'Italia rispetto ai Paesi piu' confrontabili con noi (Stati dell'Europa continentale).  Riporto la classifica:

  Fig. 6b. Highly Cited Papers / 1000 Academic Researchers
USA 50.2
Netherlands 29
UK 25.8
Sweden 23.2
Denmark 22
Ireland 19.8
Belgium 18.6
Austria 16.4
EU 15.7
Germany 15.1
Italy 14.8
France 12.8
Finland 12.8
Spain 5.3
Japan 4.8
Greece 2.9
Portugal 1.7

Io aggiungerei che scaricare la colpa sul motore e lesinare ulteriormente la benzina non porta lontano.
Da notare che le nazioni più efficienti di noi sono nell'ordine: USA, NL, UK, Svezia, Danimarca, Irlanda, Belgio, Austria, Germania. A parte USA, UK e Germania, le altre hanno sistemi della ricerca di dimensioni più piccole del nostro. Per un sistema di grandi dimensioni è più difficile essere più efficiente di sistemi più piccoli e agili.

Non sono d'accordo con questa considerazione.  L'Italia supera Spagna, Portogallo, Finlandia e Grecia che sono piu' piccoli, e gli USA non risentono per nulla delle loro dimensioni.  Invece, la classifica riportata misura secondo me, oltre all'efficienza del comparto accademia-ricerca, le condizioni di alfabetizzazione dei diversi Paesi, e la loro vicinanza alla lingua inglese e allo Stato leader per dimensioni e potenza, gli USA. I Paesi con alfabetizzazione storicamente precoce sono nelle posizioni alte, i Paesi con alfabetizzazione di massa tardiva, tra cui l'Italia, sono nella parte bassa della classifica.  Detto questo, e' vero che il comparto accademico italiano, nel settore scientifico, non sfigura, date le risorse assegnate e lo stato di avanzamento della societa' italiana in generale. Francamente, date le mie conoscenze aneddotiche dell'universita' italiana e degli altri Paesi (USA, Germania, Francia, Svizzera), temevo molto peggio.

B. King.
D.W. King “The scientific impact of nations: what countries get for their research spending”. Nature, vol. 403, 15 jul. 2004, pp. 311-316, http://www.nature.com/uidfinder/10.1038/430311a

King mostra che in termini di efficienza (articoli per ricercatore oppure citazioni per ricercatore) l'Italia viene dopo UK e Canada ma prima di USA, Francia, Germania e Giappone (Fig. 5). Rispetto allo studio di Rizzuto, nel calcolo dell'efficienza si considerano tutti i ricercatori (non solo quelli pubblici e universitari) e credo che questo spieghi le differenze ed in particolare la diversa posizione in classifica degli USA.

Questo studio e' stato ricalibrato da R.Perotti seguento criteri simili a Rizzuto-Rochow sopra, e, come cito nel mio intervento nFA:La_produttivit%C3%A0_scientifica_dell%27Italia, le conclusioni di R.Perotti sono piu' critiche rispetto al tuo riassunto:

R. Perotti e altri continuano il loro studio rapportando quindi le pubblicazioni ai soli ricercatori accademici, e concludono (il riassunto è mio):

  • per numero di citazioni diviso numero di ricercatori accademici l'Italia supera Portogallo, Spagna, Francia e Germania ma è inferiore tutti gli altri paesi considerati (nord-europei e anglosassoni).
  • come impact factor medio (numero citazioni diviso numero articoli) degli articoli prodotti, l'Italia precede solo Spagna e Portogallo tra i 10 paesi presi in considerazione.
  • i due risultati precedenti risentono della ripartizione dei lavori pubblicati nelle diverse discipline, che hanno un numero di citazioni diverso. Rapportando le citazioni disciplina per disciplina alla media di disciplina, si può ottenere un impact factor standardizzato degli articoli pubblicati dai ricercatori accademici italiani, e questo risulta ancora una volta terz'ultimo tra i paesi considerati e superiore solo a Spagna e Portogallo. Si noti che anche King arriva ad una conclusione simile, accomunando però l'Italia anche alla Francia.

Sostanzialmente, i ricercatori italiani producono un numero elevato di articoli, di qualità media però non elevata. Tuttavia moltiplicando i due numeri, il numero di citazioni totali per ricercatore supera Francia e Germania, e questo non è un risultato disprezzabile.

Questo confronto mostra che l'Italia e' superata dai Paesi nord-europei, di pochissimo dalla Francia, e supera a sua volta Spagna e Portogallo, per qualita' di produzione scientifica.  Questa e' la mia elaborazione, dove uso come input la frazione di PIL spesa dallo Stato in ricerca:

 

top1% popol. ricerca prod
Italia 1630 60 0.55 49.4
Germania 3932 80 0.77 63.8
Francia 2591 60 0.83 52.0
Spagna 785 40 0.47 41.8

top1% = numero di articoli di scienze e ingegneria nel 1997-2001 per paese
popol. = popolazione in milioni (approssimata)
ricerca = spesa statale per ricerca in % del PIL
prod = numero di articoli molto citati rapportato alla spesa pubblica relativa al PIL nazionale

Questa tabella mostra che la produttività della spesa pubblica italiana in ricerca è inferiore alla Germania e (di poco) alla Francia, ma supera (1997-2001, non so ora) la Spagna. Personalmente ritengo questi dati più indicativi della realtà.

Aggiungo anche la mia modesta elaborazione sui brevetti, sempre da quell'intervento:

Aggiungo a tutti i dati precedenti alcuni dati che ho raccolto nel 2006 sulla spesa in ricerca e sulla produttività tecnologica dei paesi avanzati, si riferiscono probabilmente ad anni tra il 2001 e il 2004.

 

paese laureati* sp.statale** sp.priv.** brev.hi-tech*** brev.***
USA 10.2 0.86 1.90 48.4 154.5
Giappone 13.0 0.80 2.32 40.4 166.7
Germania 8.1 0.77 1.73 45.5 301.0
Spagna 12.2 0.47 0.56 3.5 25.5
Francia 20.2 0.83 1.36 31.8 147.2
UK 19.5 0.61 1.26 32.0 128.7
Italia 6.1 0.55 0.55 7.1 74.7
UE15 12.5 0.69 1.30 30.9 158.5

* laureati in materie scientifiche in perc. della pop. da 20 a 29 anni
** spesa in ricerca in percentuale del PIL
*** domande all'EPO per milione di abitanti

Qui l'Italia e' superata nettamente anche dalla Francia, che ha un settore privato molto piu' attivo.

Riprendo a commentare quanto hai scritto:

Loet Leydesdorff & Caroline Wagner, Research Funding and Research Output: A Bibliometric Contribution to the US Federal Research Roadmap,Science and Development Bulletin, Issue No.50 – April 2009, http://www.sciencedev.net/Docs/uss.PDF

Come variabile di input, viene usato l'HERD (Higher Education expenditure in R&D). Viene mostrato (Table 1) che per l'Italia il costo per pubblicazione è relativamente basso (fonti: ISI: Web-of-Science e  OCSE). Infatti, ci sono 14 nazioni che hanno un costo per pubblicazione maggiore di quello italiano (tra cui Giappone, Canada, USA, Francia, Svezia, Germania, Australia):

Siccome pero' gli italiani tendono a pubblicare molto, ma con relativamente basso impatto, meno lavori molto citati, meno citazioni, sarebbe opportuno usare al numeratore altri indicatori, e credo ritorneremmo nelle vicinanze dei dati di Rizzuto-Rochow e di King rielaborato da Perotti.  Insomma risultati non esaltanti, ma nemmeno disastrosi, e in linea o meglio con la collocazione dell'Italia nel mondo.

Ora mi devo fermare, cerco di fare una seconda replica sul resto nel prossimo futuro.