Mission: Impossible! Come valutare i professori

/ Articolo / Mission: Impossible! Come valutare i professori
  • Condividi

Ormai tutti parlano di "meritocrazia". Ma come si fa valutare la produttività di un docente universitario? Proviamo a seguire insieme le "Linee Guida" del Ministero per l'Università e la Ricerca.

La recente "riforma Gelmini" ha posto, almeno per il momento, il sistema universitario al centro dell'attenzione mediatica. Commentatori di professione dalle colonne dei maggiori giornali si sono da tempo lanciati all'attacco dell'attuale sistema universitario, nell'ottica di riformarlo e introdurre criteri meritocratici nei meccanismi di gestione.

Criticare è molto facile: e criticare un'istituzione decrepita, inefficiente, in moltissimi e documentatissimi casi teatro di malcostume e malversazioni da parte dei cosidetti "baroni", è particolarmente facile. Quando però si arriva al momento di mettere sul tavolo concrete proposte di riforma, il caos e il dilettantismo sembrano farla da padrone. Mentre tutti concordano sulla necessità di introdurre un astratto concetto di meritocrazia, passare poi ai provvedimenti da attuare concretamente è tutto un altro paio di maniche.

Una delle proposte che sta sul tavolo da tempo, ormai stabilmente nei desiderata del ministero, è quella di legare lo stipendio di ogni docente alla sua "produttività". Ne parlano, ad esempio, i colleghi Jappelli e Checchi su Lavoce.info:

Andrebbe una volta per tutte definito lo stato giuridico dei docenti, con indicazioni precise sul carico didattico e verifiche periodiche della produttività scientifica, cui condizionare la progressione economica, adesso solo basata sull'anzianità di servizio.

Ne parlano illustri docenti e ne parlano gli studenti (vedi la puntata di Annozero sull'Università di qualche giorno fa). Soprattutto, tale proposta si trova nelle Linee Guida del governo per l'università:

D.1 rivedere il meccanismo degli automatismi stipendiali, che non necessariamente premia la qualità della ricerca e l'impegno nella didattica, sostituendolo gradualmente con valutazioni periodiche dell'attività svolta;

D.2 elaborare parametri condivisi di qualificazione scientifica per l'accesso ai diversi ruoli della docenza, anche con l'utilizzo, ove possibile, di indicatori di qualità scientifica internazionalmente riconosciuti (impact factor; citation index): il CUN è già al lavoro in questo senso;"

Tutti d'accordo, quindi: gli scatti di anzianità automatici verranno presto sostituiti da verifiche periodiche centralizzate, al cui risultato legare la progressione di stipendio (incidentalmente, vi prego di notare che queste valutazioni periodiche sarebbero in aggiunta alle valutazioni periodiche delle università e dei dipartimenti: mentre con le prime si controlla lo stipendio dei docenti, con le seconde si controlla la quantità di fondi da destinare a ciascuna Università).

Siamo sicuri che sia una buona idea? Roberto Perotti pensa di no:

 

[...] molti perseguono in forme più o meno esplicite, una differenziazione degli stipendi diretta dal centro, sulla base di parametri rigidamente definiti. Ma una differenziazione centralizzata non può funzionare: è impossibile stabilire a priori quanto vale un ricercatore in ogni possibile situazione e circostanza. Anche l'unico criterio minimamente oggettivo, quello bibliometrico, può essere un utile aiuto, ma sarebbe insensato e pericoloso utilizzarlo meccanicamente come unica determinante degli stipendi.

Roberto Perotti, L'Università truccata, Gli struzzi Einaudi, 2008, pag 112

Forse Perotti esagera. Preso dal suo furore liberista, vuole liberalizzare financo l'ultimo caposaldo dell'università statale, ovvero la centralizzazione degli stipendi? In fondo se così tanti autorevoli personaggi ci dicono che è la soluzione giusta, e sta nelle linee guida del governo...

Poichè mi hanno insegnato a non fidarmi troppo di quello che mi dicono, proverò comunque a fare qui un piccolo esercizio di stile. Supponiamo che il ministro Gelmini mi chiami domani come consulente del ministero:

"Giuseppe, trovami il modo di implementare la linea guida D1!" (della D2 se ne occupa già il CUN).

"Ok, ministro, ma è un lavoro difficile e pericoloso, mi attirerò le critiche di tutti!"

"In cambio ti ricoprirò d'oro."

"Allora, accetto!". Per il bene della patria, naturalmente.

OBIETTIVO DELLA MISSIONE

Nelle linee guida, in effetti, c'è scritto pochino. Allora facciamo che gli obiettivi e le specifiche me li scrivo da solo, saranno forse più facili da raggiungere!

A che serve questa riforma? Ad aumentare la produttività dei docenti italiani, inserendo un meccanismo premiante direttamente sullo stipendio. Sarà quindi questo il principale parametro di valutazione delle nostre regolette: dovremo controllare alla fine se la produttività sarà aumentata.

Di quanti soldi stiamo parlando? Qui si va a senso. Direi che se l'obiettivo è di sostituire gradualmente il meccanismo degli scatti di anzianità con un meccanismo basato sulla valutazione (come recitano le linee guida), più o meno stiamo parlando dello stesso ordine di grandezza: invece di darteli automaticamente con il passare del tempo, ti sottopongo a una valutazione.

Si va solo a salire o anche a scendere? Se dobbiamo sostituire l'anzianità "as it is", convengono scatti piccoli solo a salire. Non mi sembra però una grande idea. Infatti, se l'incremento fosse in percentuale sullo stipendio, come è adesso lo scatto di anzianità, l'età giocherebbe comunque un fattore determinante: premierebbe chi da tempo fa ricerca, mentre il giovane ricercatore dopo la prima valutazione avrebbe comunque con uno stipendio limitato, anche se si trattasse di un novello Einstein.

Forse, per stimolare maggiormente la qualità, sarebbe meglio legare una parte sostanziale dello stipendio alla valutazione e prevedere che si possa anche scendere la volta dopo. Ad esempio, ogni 3 anni ti valuto: se vali, ti do un bel po' di stipendio in più per i prossimi 3 anni (per esempio il 30%-40% in più); se non vali, niente. Dopo altri 3 anni, però si ricomincia da zero. E si possono naturalmente avere sistemi misti. Inoltre, conviene che l'incremento di stipendio sia proporzionale al risultato. Si potrebbe assegnare ad ogni docente un voto da 1 a 10, da utilizzare poi per calcolare l'ammontare dell'aumento.

Naturalmente, il sistema deve essere "fair", cioè quanto più possibile equo. Devo effettivamente evitare di invertire la scala di valori fra due ricercatori, onde evitare ingiustizie, recriminazioni, faide. Stiamo andando a mettere le mani nelle tasche dei docenti italiani, dopo tutto (chissà perché, questa frase mi sembra di averla già sentita). Non dico che debba essere perfetto, ma insomma, quasi.

Dopo cinque minuti mi richiama il ministro: "dimenticavo di dirti che, qualunque cosa tu decida di fare, deve essere a costo zero per il paese: ogni euro speso nella valutazione verrà preso dal Fondo di Finanziamento Ordinario (FFO)".

Chissà perché, me l'aspettavo.

VALUTARE UN DOCENTE

Un docente viene valutato in base a tre attività fondamentali:

1) Qualità e quantità della didattica.
2) Ricerca.
3) Attività organizzative.

Nell'ultimo punto, per comodità, metteremo tutte quelle attività non direttamente classificabili nei punti 1 e 2, come ad esempio coordinamento di progetti di ricerca, fund raising, editing di riviste internazionali, peer review, organizzazione di conferenze, partecipazione agli organi decisionali dell'Università (riunioni di facoltà, ecc.).

Tutti e tre gli aspetti sono importanti, naturalmente. Per quanto riguarda la didattica, c'è chi dice (ad esempio Perotti, ibidem) che in un sistema universitario funzionante non tocca alle istituzioni valutare puntualmente la didattica, perché il mercato degli studenti valuterebbe da se. Non so quanto questo sia vero, ma il tema è decisamente dibattuto e lo lascerò da parte per il momento.

Il punto 3 è il più controverso. Per esperienza personale si arriva a lotte intestine piuttosto aspre tra dipartimenti scientifici e tecnici (ingegneria in primis) da una parte, che riescono ad attirare fondi in gran quantità da enti pubblici e privati, e dipartimenti umanistici sempre cronicamente a corto di fondi dall'altra. Inserire la voce quantità di fondi di ricerca raccolti nella valutazione di ogni singolo docente potrebbe portare a notevoli distorsioni, oltre che ad asprissime polemiche. Eviterò quindi di prendere per ora in considerazione questa voce.

Concentriamoci quindi sulla ricerca.

LA VALUTAZIONE DELLA RICERCA

"Ci sono ormai metodi accettati a livello internazionale per misurare la produttività scientifica di un ricercatore".

Questa frase è stabilmente sulla bocca di tutti i fautori della meritocrazia (quindi praticamente di tutti). Sembrerebbe quindi un compito banale: usiamo questi benedetti indicatori. Purtroppo pochi di quelli che la pronunciano ne hanno mai visto in faccia uno.

Sostanzialmente, si misurano il numero di articoli pubblicati da un ricercatore su riviste o su atti di conferenze, e il numero di volte che ciascuno di questi articoli è stato citato in articoli simili da altri ricercatori. Il semplice numero di articoli è una mera misura quantitativa, che non dice niente sulla qualità; il numero di citazioni invece indica (o dovrebbe indicare) indirettamente il "gradimento" che ha ricevuto l'articolo nella comunità scientifica internazionale. A partire da queste due misure, si costruiscono indici bibliometrici più o meno complicati. Eccone alcuni qui.

I limiti di questi indici sono notevoli e ben conosciuti. Innanzitutto, la base di dati su cui fare le misurazioni non è univoca. Nelle materie scientifiche c'è ISI. Un altro è Scopus. In economia hanno Econlit. Purtroppo nessuno di questi copre bene Scienze dell'Informazione e Ingegneria. Esistono sistemi "liberi" come Google Scholar o Citeseer. Ma nessuno copre tutto lo scibile umano. E in tutti ci sono errori, omissioni, zone d'ombra. Se due database coprono lo stesso campo, la probabilità che diano la stessa misura sullo stesso ricercatore è praticamente nulla.

Inoltre, campi scientifico/disciplinari diversi hanno regole diverse: in alcuni campi si pubblicano di solito articoli con pochi autori, in altri il numero di autori è di solito elevatissimo. Ci sono campi per cui hanno valore soprattutto le riviste (vedi Economia, ma anche Scienze), mentre in altri campi certe conferenze hanno un prestigio a volte superiore alle riviste (vedi Computer Science & Engineering). Insomma, districarsi è complicato. Si potrebbe pensare un sistema diverso per ogni settore. Già mi immagino il disciplinare: centinaia o addirittura migliaia di pagine di regolamenti! (solo per scriverli ci vorranno anni di lavoro...)

Anche concentrandosi su un campo specifico, ci sono delle difficoltà tecniche non indifferenti. Supponiamo ad esempio di valutare un docente ogni tre anni per gli ultimi 3 anni di pubblicazioni. Se cominciassimo a valutare le mie pubblicazioni a febbraio 2009, prendendo in considerazione il triennio 2005-2008, quasi sicuramente la maggior parte degli articoli avrà un numero di citazioni praticamente prossimo allo zero. Lo so, sono un ricercatore scarso. Ma magari dipende anche dal fatto che, se ho pubblicato un articolo nel 2008, le probabilità che qualcuno lo abbia letto, lo abbia citato in un suo articolo che sia stato poi accettato da un processo di peer-review su un altra rivista e sia stato pubblicato e messo nel database, è praticamente nulla. In genere passano almeno 5-6 mesi dalla scrittura dell'articolo alla sua pubblicazione (e in certi casi si supera abbondantemente l'anno). Peggio: il processo di reviewing ha tempo variabile a seconda del settore! In Fisica sono di solito velocissimi; in Ingegneria sono di solito lentissimi (anche 2 anni).

Bisognerà quindi valutare ricerca più vecchia. Ma così facendo si riduce l'effetto del "premio". Essere premiato oggi per un articolo di 5-10 anni prima può fare piacere, ma forse non funziona tanto bene come meccanismo premiante. Più che altro premierebbe la carriera.

Anche contare il numero di citazioni può essere fuorviante. In alcuni rari casi succede che un articolo riceva un enorme numero di citazioni perché contiene un errore, che tutti citano come da correggere. Non è certo un articolo da premiare. In molti casi, un articolo riceve citazioni "negative" da ricercatori che contestano aspramente il metodo seguito. È molto comune il caso di articoli che riassumono lo stato dell'arte in un campo: sono citatissimi da tutti, ma non contengono alcun contributo originale.

Inoltre, certi indici si possono in qualche modo manipolare artificialmente. Per esempio mettendosi d'accordo fra due gruppi per citarsi tutti gli articoli a vicenda. È poi pratica comune (e scorretta) in molti dipartimenti che il "capo" firmi comunque gli articoli di tutti i suoi sottoposti, anche se non li ha mai neanche letti. Egli si beccherebbe gli onori (e gli incrementi di stipendio) al pari dei suoi sottoposti, anche non facendo ricerca da decenni. Oppure, un lavoro importante potrebbe essere diviso in più articoli, ognuno propone un piccolo incremento rispetto al precedente. Con un lavoro vengono fuori 5-6 articoli minimo.

L'utilizzo esclusivo di sistemi automatici di misurazione è quindi da sconsigliare. David Parnas lo dice molto francamente in un suo recente articolo ("Stop the numbers game: Counting papers slows the rate of scientific progress.", Communications of the ACM, Volume 50, Number 11 (2007), Pages 19-21, web link):

Paper-count-based ranking schemes are often defended as "objective." They are also less time-consuming and less expensive than procedures that involve careful reading. Unfortunately, an objective measure of contribution is frequently contribution-independent.

e ancora:

The widespread practice of counting publications without reading and judging them is fundamentally flawed for a number of reasons: It encourages superficial research [...] It encourages repetition [...] It encourages small, insignificant studies [...]

e infine:

Evaluation by counting the number of published papers corrupts our scientists; they learn to "play the game by the rules." [...] Those who want to see computer science progress and contribute to the society that pays for it must object to rating-by-counting schemes every time they see one being applied.

In pratica: se utilizziamo esclusivamente sistemi automatici di misurazione, invece di incoraggiare la ricerca di eccellenza rischiamo di incoraggiare ricerca mediocre, o addirittura sporchi trucchetti per manipolare i numeri. Non è certo quello che vogliamo.

Due note prima di passare oltre. Primo: non si sta qui sostenendo che la bibliometria sia una disciplina inutile. Tutt'altro: essa ci da un enorme ed utilissimo supporto per rilevazioni statistiche a livello di paese, o per confrontare istituzioni anche di altri paesi. Anche nella valutazione del curriculum di un docente gli indici bibliografici danno un primo inquadramento, una valutazione di massima. Tale valutazione va però sempre e comunque integrata da un'attenta lettura delle pubblicazioni da parte di esperti del settore, proprio per evitare di prendere cantonate e per scremare il grano dal loglio. Un utilizzo scorretto degli indici bibliografici avrebbe alla lunga effetti negativi sulla valutazione stessa.

Seconda nota: non sembra che al ministero siano al corrente del pensiero di Parnas, dato che hanno incaricato il CUN di studiare modalità per inserire gli indici bibliometrici nei regolamenti dei concorsi!

Con gli indici ci è andata male. Rimane solo il peer-review. Ovvero la valutazione da parte dei "pari". Per ogni docente facciamo una commissione di tre esperti del settore che valutano la produzione scientifica. Mi sembra già di sentirvi: "una commissione per ogni docente? composta da docenti? finirà che tutti valuteranno tutti gli altri! I docenti italiani si valuteranno tutti da soli a vicenda! E quale sarà il risultato più probabile? Si auto-promuoveranno tutti!". Ammetto che il rischio è molto concreto. Potremmo inserire degli esperti stranieri... ma quelli non vengono a fare i valutatori in Italia in cambio di un semplice "grazie tante". Bisognerà pagarli. E poi chi ci assicura che questi stranieri siano bravi valutatori? Dite che bisogna chiamare i migliori? Comincia a diventare troppo costoso.

E poi la valutazione non sarebbe uniforme e oggettiva: ci sono valutatori buoni che tendono a dare sempre buoni voti e valutatori carogna che scarterebbero anche Shannon (è successo veramente!). L'equità andrebbe a farsi benedire. Tanto vale tirare dei dadi.

E allora come si fa? Forse che aveva ragione Perotti?

EPILOGO

"Caro Ministro. L'unica cosa che può funzionare è che ogni docente venga valutato dalla sua stessa Università. Se l'Università riceve i fondi soprattutto in base alla valutazione scientifica della ricerca; e se ogni Università ha libertà di stabilire il livello del compenso dei suoi docenti; i docenti migliori andranno naturalmente dove c'è più possibilità di veder riconosciuta la loro professionalità, e riceveranno naturalmente uno stipendio più alto. L'Università potrà decidere se valutare di più le capacità di fund-raising, o la capacità di creare un gruppo, oppure la produzione scientifica. Il sistema si autoregola."

"Caro Giuseppe, avrai pure ragione, non dico di no, ma se propongo questa cosa qui mi mangiano viva".

"Capisco. E allora lasci cadere la cosa. In fondo sono delle linee guida, no? Non c'è alcun obbligo di trasformarle in legge. Il paese è in recessione, fra un po' se ne scorderanno tutti. Piuttosto, se fossi in lei, spingerei sul pedale della valutazione delle Università. Su quella cosa lì, vedrà, potete farcela."

"Hai ragione, probabilmente lasceremo cadere la cosa. Un sentito ringraziamento per l'ottimo lavoro svolto per il paese e arrivederci!"

"Ehm, mi scusi ministro, ci sarebbe quella cosa del farsi ricoprire d'oro ..."

"Ah, già dimenticavo. Facciamo così, telefona a Giulio, dì che ti mando io."

Mmm, mi sa che butta male. Sarà per la prossima volta.

ULTIM'ORA

Sembra che al ministero lavorino alacremente (dal Corriere.it):

 

NORME ANTI-«BARONI» - Tra le novità introdotte in commissione al Senato, le norme anti-baroni: è prevista la costituzione di una anagrafe (aggiornata annualmente) presso il ministero con i nomi di docenti e ricercatori e le relative pubblicazioni. Per ottenere gli scatti biennali di stipendio i docenti dovranno provare di aver fatto ricerca e ottenuto pubblicazioni. Se per due anni non ce n’è traccia lo scatto stipendiale è dimezzato e i docenti non possono far parte delle commissioni che assumono nuovo personale. I professori e i ricercatori che non pubblicano per tre anni restano esclusi anche dai bandi Prin, quelli di rilevanza nazionale nella ricerca.

 

Chissà che ne penserebbe David Parnas...

Indietro

Commenti

Ci sono 91 commenti

Parole sante! Il grande mistero della scienza è che si sa sempre chi è un grande studioso e chi non lo è. Si tratta di valutazioni imponderabili, ma oggettive, in quanto condivise dalla comunità degli studiosi. Il difficile è monetizzare questa cosa.

-------------------- 

Il bello delle riforme universitarie italiane è che sembrano fatte da persone che non sanno nulla della materia che stanno riformando. Prendiamo la citazione dal Corriere di cui sopra:

 

Tra le novità introdotte in commissione al Senato, le norme anti-baroni: è prevista la costituzione di una anagrafe (aggiornata annualmente) presso il ministero con i nomi di docenti e ricercatori e le relative pubblicazioni

 

Peccato che un tale sistema di valutazione esiste, e funziona, già da anni. Il consorzio CINECA, per conto del MIUR, esegue la raccolta dati sulle pubblicazioni dei docenti e ricercatori. Se non hai scritto nulla non ti danno i soldi per i tuoi progetti. Semplice ed efficace. La commissione del Senato però è convinta di introdurre una "novità"...

I dati si raccolgono qui:

http://sitouniversitario.cineca.it/

I risultati di questa raccolta dati, della valutazione dei progetti e della conseguente concessione o meno dei fondi risultano su questo sito:

http://www.ricercaitaliana.it/index.htm

 

I dati del sito docente del CINECA non sono pubblici. E' necessario entrare nel sito individuale con una "password". Credo che l'idea del ministro sia di rendere pubblici gli elenchi delle pubblicazioni contenuti in questi siti. Non mi sembra un'idea completamente sbagliata. Un individuo curioso, sufficientemente esperto, potrebbe trarne un giudizio più informato sui suoi colleghi. E' quello che già succede in matematica dove esiste una banca dati completamente affidabile delle pubblicazioni matematiche e, in parte, del loro contenuto (MathSciNet della American Mathematical Society). Questo consente, ad esempio, di farsi un'idea veloce del livello dei concorrenti di cui si parla per un concorso, o dei commissari proposti. Purtroppo il problema è che il potere accademico è in grado di generare curricula esemplari. E' quello che avviene a Medicina (e in questo ambito succede purtroppo anche negli Stati Uniti) e che finirebbe per succedere in tutte le altre discipline: il capo mette il suo nome su articoli cui ha (forse) contribuito solo trovando i finanziamenti per la ricerca, e che non sarebbe in grado di illustrare con competenza. E' per questo che la apertura al pubblico della banca dati CINECA, utilissima alla comunità scientifica, e alle sue dinamiche interne (quando esistono) sarebbe poco efficace nell'attribuire o negare premi stipendiali agli anziani potenti.   

 

Fantastico! Era da tempo che volevo leggere un articolo simile.

Putroppo non solo al ministero, ma neppure al Corriere sembrano essere al corrente di quello che il buon Parnas va predicando (oppure l'autore dell'articolo e' in malafede). Non ci vuole un genio a capire che e' semplice farsi aggiungere come autore di un paper, soprattutto se sei un "barone"!

 

Ecco che cosa pensa la Commissione Scientifica dell'Unione Matematica Italiana, sui "parametri" per valutare la ricerca. (Mozione approvata il 22 novembre 2008)

"La Commissione Scientifica dell'Unione Matematica Italiana esprime il suo apprezzamento per il progetto del Ministero dell'Istruzione, dell'Università e della Ricerca di individuare criteri internazionalmente riconosciuti per la valutazione dei titoli e delle pubblicazioni nelle procedure comparative per il reclutamento deiricercatori e dei professori universitari. Nel recente passato criteri di questo genere erano già stati adottati in maniera autonoma dalla stragrande maggioranza delle commissioni dei settori MAT/*. Rileva però che nessun criterio basato unicamente su indicatori

 numerici di tipo statistico può sostituirsi al giudizio scientifico motivato da parte di un gruppo di esperti. In una pubblicazione esauriente e ben documentata, l'International Mathematical Union, l'International Council of Industrial and Applied Mathematics e l'Institute for Mathematical Statistics, massimi organi scientificidella comunità matematica a livello mondiale, hanno sostenuto di recente che nessun gruppo di parametri basati esclusivamente su dati bibliometrici (numero di citazioni, indice H, impact factor delle riviste su cui compaiono le pubblicazioni) può, da solo, dare risultati affidabili nella valutazione dell'attività scientifica, pur costituendo un utile elemento di giudizio.

 La Commissione Scientifica dell'Unione Matematica Italiana auspica quindi che tra i parametri che verranno individuati dal Ministero figurino, in posizione predominante, la qualità , l'originalità , il rilievo e la persistenza dei risultati scientifici ottenuti dai candidati. Sulla base dell'esperienza internazionale, tali parametri non possono essere calcolati automaticamente a partire da dati statistici, ma possono essere determinati soltanto sulla base del parere di un gruppo di esperti della materia, che si assume la responsabilità del giudizio scientifico. Nel caso delle valutazioni

 comparative per il reclutamento dei ricercatori, la soluzione più naturale è affidare questo compito alla stessa commissione giudicatrice, che potrebbe, ove lo ritenesse opportuno, richiedere il parere di riconosciuti esperti internazionali."

La pensano allo stesso modo gli informatici, ma non è detto che il Ministro segua le opinioni di matematici, informatici e statistici. E' possibile che ci troveremo tra poco invischiati in "Impact Factor" e, quel che è peggio in ricorsi al TAR per negarne la validità

 

Concordo in pieno con il documento dei matematici e con il contenuto dell'articolo. Aggiungo solo che, a quanto mi consta, anche l'area 13 (scienze sociali) dovrebbe esprimersi in tal senso.

L'unico rischio, caro AFT, è che prevalgano a livello ministeriale le posizioni non ben ponderate dei "talebani" dell'IF. Tra i quali figura, oltre a qualcuno degli abituali frequentatori di questo blog ;-), anche quel borioso senatore (o deputato?) Marino che infesta le trasmissioni televisive sull'Università vantandosi sempre del proprio IF, come se, appunto, l'IF servisse a misurare il valore individuale di uno studioso, e non semplicemente la platea dei fruitori di una rivista, al mero scopo di orientare gli acquisti delle biblioteche.

 

Per quanto riguarda la ricerca l'articolo e' esaustivo, aggiungerei qualcosa riguardo alla didattica. Purtroppo che il mercato degli studenti si autoregoli in Italia e' un miraggio. Non c'e' mobilita', la cultura e' quella delle grandi famiglie allargate.  Nel ricco nord non c'e' esigenza di spostarsi (per ora), in altri casi farlo appare costoso (conviene rimanere). Alcuni non hanno soldi per vivere da soli (o credono di non averli), altri non ne hanno la mentalita' e preferiscono comprarsi un BMW da 30.000 euro restando a casa coi genitori e risparmiando su mutuo o affitto. I genitori pure hanno severe responsabilita' nel foraggiare questo sistema (seppure in buona fede). Il risultato e' che quasi tutti vanno nell'universita' piu' vicina.  Il moltiplicarsi di atenei (che hanno dato parecchi posti di lavoro) ha amplificato questo processo. Una conseguenza e' la scarsa crescita umana, l 'altra e' il fatto che il mercato e' fasullo - e fra l'altro le universita' fanno cartello quanto a qualita'. Ho studiato a Bologna, la gente si e' lamentata per anni di certi docenti o strutture. Qualcuno ha cambiato facolta' ma nessuno ha mai cambiato universita' (per non dire nazione). La Gelmini ha ragione quando dice "Diritto allo studio non e' avere l'universita' sotto casa!"

 

Per la cronaca: a Firenze un posto letto in camera doppia in una casa con altri 6-7 studenti ha un costo medio di 500 Euro mensili. In queste condizioni è così fuori di testa che uno studente cerchi di andare all'università più vicina a casa?

Magari frequento le compagnie sbagliate ma di studenti universitari col BMW da 30 KEuro ne ho conosciuti pochini (facciamo nessuno). La stragrande maggioranza si barcamena alla meno peggio.

Il vero problema non è la mentalità mammona (che pure esiste e fa la sua parte) ma la carenza cronica di alloggi per gli studenti e di borse di studio per i meritevoli.

Si, bene - concordo all'80% con quanto scritto nell'articolo.

Alcune osservazioni e dati di informazione.

1. Una volta, prima dell'Auditel, gli Italiani avevano ben chiara la differenza fra Indice d'Ascolto e Indice di Gradimento. Oggi, mi pare che mala tempora currunt. La valutazione dell'impatto non e' la valutazione della qualità, e perdippiu' la valutazione dell'impatto di un articolo non ha la stessa robustezza della valutazione dell'impatto di una rivista.

L'impact factor nacque come misura della valutazione d'impatto di una rivista, ad uso degli editori. La valutazione dell'impatto di un articolo mediante la misura delle citazioni di quell'articolo e' pertanto un proxy molto debole per la qualità dell'articolo medesimo. Ecco cosa afferma, in via ufficiale, l'associazione Europea degli editori di riviste scientifiche (EASE).

2. Il 18 dicembre prossimo sarà una data topica, quello della pubblicazione degli esiti del RAE 2008, il Research Assessment Exercise condotto dagli Enti finanziatori del sistema dell'istruzione superiore britannico, che distribuiscono il Fondo di Finanziamento Ordinario per conto del Governo.

Ora, tutte le valutazioni di quei prodotti di ricerca sono state fatte in forma di giudizi esperti da parte dei Pari della comunità scientifica (secondo i diversi settori). Qualcuno dei superficiali giornalisti tagliani se ne verrà fuori scrivendo che è già stato deciso che il successore del RAE, il REF, utilizzerà in gran parte criteri bibliometrici. Vero, ma bisogna spiegare bene la cosa, e soprattutto sapere a cosa serve il RAE.

Quegli Empiristi figli di Empiristi degl'Inglesi hanno fatto un esercizio di comparazione fra gli esiti delle valutazioni "umane" dell'ultimo RAE e quelli risultanti da una interpolazione dei risultati ottenuti attraverso i dati bibliometrici. Ci hanno trovato una convergenza del 97-98%. Ma qui si sta parlando di Unità di Valutazione che corrispondono ad aggregati di parecchie pubblicazioni, corrispondenti alle diverse Aree di Ricerca sotto esame per ogni istituzione (per i settori scientifici stiamo parlando di 4 pubblicazioni per persona....), e quindi il ragionamento fatto è stato, in modo utilitaristico: chi ce lo fa fare di continuare a spendere tempo e soldi in questo modo se per i settori scientifici l'esito è più o meno uguale, e noi siamo interessati solamente a valutare le Aree di ricerca per ripartire i finanziamenti fra le varie istituzioni?

Insomma, per la valutazione dei singoli ricercatori/docenti lin UK la prerogativa di ciascuna Università è fuori discussione, e qualunque imposizione dall'alto sarebbe non solo impensabile ma anche risibile, in base all'autonomia e alla concorrenza fra le singole istituzioni.

3. Tuttavia, qui nel continente lo statuto giuridico di funzionario pubblico (bleaah!) e la mancanza di responsabilità e di cultura della valutazione nelle singole Università fa sì che ogni tentativo di introdurre metodi e criteri di valutazione vada visto con benevolenza. Naturalmente sarebbe preferibile (a) cercare di mettere in campo un RAE/REF fatto bene, il che significa anche tutta una serie di misure al contorno, (b) ricordarsi che deve esistere non solo il finanziamento alle istituzioni, ma anche quello ai progetti di ricerca, da organizzare e finanziare per bene, anch'esso.

Per una specie di "accreditamento" a livello nazionale che può essere preso a modello eventualmente in Italia, consiglio il modello catalano

RR

 

 

 

Questo articolo è contenuto nel DDL di conversione del Decreto Gelmini, stamane approvato dal Senato ed ora in viaggio verso la Camera.

Art. 1-bis.

(Disposizioni in materia di chiamata diretta e per chiara fama nelle università)

        1. Il comma 9 dell'articolo 1 della legge 4 novembre 2005, n. 230, è sostituito dal seguente:

        «9. Nell'ambito delle relative disponibilità di bilancio, le università possono procedere alla copertura di posti di professore ordinario e associato e di ricercatore mediante chiamata diretta di studiosi stabilmente impegnati all'estero in attività di ricerca o insegnamento a livello universitario da almeno un triennio, che ricoprono una posizione accademica equipollente in istituzioni universitarie estere, ovvero che abbiano già svolto per chiamata diretta autorizzata dal Ministero dell'istruzione, dell'università e della ricerca nell'ambito del Programma di rientro dei cervelli un periodo di almeno tre anni di ricerca e di docenza nelle università italiane e conseguito risultati scientifici congrui rispetto al posto per il quale ne viene proposta la chiamata. A tali fini le università formulano specifiche proposte al Ministro dell'istruzione, dell'università e della ricerca il quale concede o rifiuta il nulla osta alla nomina previo parere del Consiglio universitario nazionale. Nell'ambito delle relative disponibilità di bilancio, le università possono altresì procedere alla copertura dei posti di professore ordinario mediante chiamata diretta di studiosi di chiara fama. A tal fine le università formulano specifiche proposte al Ministro dell'istruzione, dell'università e della ricerca il quale concede o rifiuta il nulla osta alla nomina, previo parere di una commissione, nominata dal Consiglio universitario nazionale, composta da tre professori ordinari appartenenti al settore scientifico disciplinare in riferimento al quale è proposta la chiamata. Il rettore, con proprio decreto, dispone la nomina determinando la relativa classe di stipendio sulla base della eventuale anzianità di servizio e di valutazioni di merito».

        «9-bis. Dalle disposizioni di cui al comma 9 non devono derivare nuovi oneri a carico della finanza pubblica.».

 

Qui si trova il testo completo del provvedimento in discussione al senato. E' ribadito piu' volte che si tratta di una misura temporanea in attesa di una riforma seria. Non so ne' cosa si intenda per riforma seria, ne' perche' ci sia bisogno di queste misure temporanee.

Caro Ministro. L'unica cosa che può funzionare è che ogni docente venga valutato dalla sua stessa Università. Se l'Università riceve i fondi soprattutto in base alla valutazione scientifica della ricerca; e se ogni Università ha libertà di stabilire il livello del compenso dei suoi docenti; i docenti migliori andranno naturalmente dove c'è più possibilità di veder riconosciuta la loro professionalità, e riceveranno naturalmente uno stipendio più alto. L'Università potrà decidere se valutare di più le capacità di fund-raising, o la capacità di creare un gruppo, oppure la produzione scientifica. Il sistema si autoregol

sebbe questa sia la situazione logisticamente piu' semplice perche' permette di fare valutazioni sulla carta una volta anziche' due, non sposta il problema di una virgola: rimani sempre col problema di dover giudicare chi ha fatto cosa e di decidere il flusso di soldi e risorse in base a quel giudizio. Semplicemente giudichi un dipartimento invece che il singolo ma il succo non cambia e non cambiano i possibili sotterfugi per aggirare la legge.

Al momento la commissione al senato ha aggiunto tre emendamenti:

 

  1. il rettore deve scrivere un rapporto annuale che dimostri che l'universita' ha fatto qualcosa. Fuffa pura. Assolutamente inutile. Una burocratata demagogica.
  2. Si istituisce l'anagrafe dei ricercatori. C'e' gia'. Come sopra.
  3. si aggancia il 50% degli scatti di anzianita' alla produttivita'.

Sul punto 3 secondo me c'e' una base per fare qualcosa di buono. All'interno di un sistema centralizzato, e' assolutamente e moralmente necessaria una cosa del genere. Certo, bisognera' controllare che venga fatta con criterio e non con demagogia. Prendiamo il campo medico/biologico (che e' quello che incide di piu' in termine di pecunia, mi sa).

 

Nel campo medico/biologico, ogni pubblicazione e' firmata da un numero imprecisato di autori. E' prassi accettata in tutto il mondo che gli autori che contano di piu' siano 2: quello che si firma per prima e quello che si firma in ultima posizione. Il primo di solito e' quello che ha fatto tutto il lavoro, l'ultimo ha avuto l'idea iniziale/trovato i fondi. Gli altri in mezzo hanno contribuito molto/poco/tanto/si sono imbucati. Si potrebbe quindi contare, ai fini degli aumenti di stipendio, soltanto i lavori in cui il professore figura come ultimo nome e non contare tutti gli altri lavori. Inoltre, si potrebbero contare soltanto i lavori che sono usciti su riviste con un impact factor (*) che superi una certa soglia limite. tutto questo, almeno nel campo medico/biologico quasi ridurrebbe a zero il rischio di avere classifiche truccate. Nota bene che questi sono i criteri che vengono utilizzati dalle grandi organizzazioni internazionali quando devono assegnare borse e fondi. non si tratterebbe di re-inventare la ruota.

Insomma le misure bibliometriche possono essere uno strumento eccellente se utilizzate con criterio. 

 

(*) nota che se tieni in considerazione l'IF di una rivista invece che del singolo lavoro, di fatto stai delegando alla rivista il compito di stimare l'IF futuro di quel lavoro (perche' le riviste cercano di non accettare lavori che a loro giudizio avranno un IF inferiore alla loro media). Questo ti risolve il problema di avere lavori recenti senza citazioni.

 

 

Guarda Giorgio che il Senato ha già licenziato definitivamente il ddl, da stamane! L'hanno detto pure al TG! Ora passa alla Camera.

Non mi diventerai mica come il Corriere della Sera??

 

 

Caro Giorgio, utilizzare indici bibliometrici su una istituzione nel suo compleso è molto più sensato che utilizzarli per rilevazioni puntuali su un singolo ricercatore. In qualche modo, i problemi che ho elencato nell'articolo tendono a essere meno rilevanti su un grande numero di pubblicazioni su settori anche diversi e di diversi ricercatori, perché vengono mediati da tanti altri fattori. Difficile che i trucchi di cui sopra si riescano ad effettuare su larga scala (per esempio a livello di dipartimento). 

Inoltre, quasi nessuno al mondo fa valutazione di un dipartimento intero utilizzando esclusivamente indici bibliometrici. Semmai in molte università (anche in alcuni dipartimenti di Università italiane, come ad esempio al Politecnico di Milano, o a Scienze dell'Informazione a Pisa) si mette su un "panel" di esperti internazionali che valuta la ricerca dell'intero dipartimento, magari anche utilizzando e integrando gli indici bibliometrici.Tali esperti saranno sicuramente in grado di valutare se sono stati utilizzati mediocri trucchi, e se la ricerca è di alto, medio o basso livello.

Il già citatissimo RAE inglese è un esempio di valutazione di questo tipo a livello nazionale (se non sbaglio viene fatto ogni 5 anni).

E comunque, uno dei punti focali del mio articolo è il fatto che valutare la ricerca di un singolo professore in questo modo è controproducente, oltre che inutile. Pensa a questo: dato che devo portare la pagnotta a casa, che ho una famiglia da sfamare, il mio primo pensiero da docente sarà pubblicare qualcosa. Qualunque cosa che mi permetta di raggiungere l'obiettivo di ottenere lo scatto. Se ho un bellissimo lavoro che potrei inviare su Nature, ma ad altissimo rischio (perché ci devo buttare sangue per un anno, e poi magari me lo segano), sicuramente preferirò prima portare a casa il risultato dello scatto di stipendio, pubblicando cavolatine incrementali, e poi semmai mi metterei a lavorare al lavoro della mia vita. 

Così facendo si incoraggia la produzione di ricerca mediocre. Per colpire (forse) qualche barone (a cui magari basterà firmare una cavolata qualsiasi per raggiungere lo stesso lo scopo), rischio di "rovinare" l'attitudine degli altri bravi ricercatori. Non mi sembra una buona mossa.

 

dimenticavo: purtroppo l'IF di una rivista è un indice significativo solo in alcuni campi (ad esempio scienze biologiche) ma non in tutti.

Non oso immaginare come faranno con giurisprudenza o scienze politiche.

 

I miei 2 centesimi sul tema.

Se la domanda è come valutare i professori, la risposta per me è semplice: "come si valuta qualsiasi altro lavoratore".

I sistemi di valutazione in azienda sono basati sulla definizione di obiettivi da raggiungere, concordati e discussi con l'interessato, e sul grado di raggiungimento degli stessi nel periodo prefissato. La valutazione è quindi un processo locale che parte dal basso e sale lungo la catena gerarchica (anche i capi saranno valutati dai loro capi) dipartimento per dipartimento.

Compito di un ministero, se vogliono sistemi di valutazione dei loro dipendenti, sarebbe quello di stabilire criteri comuni e gli opportuni controlli.

Dubito che il criterio unico sia quello di valutare la produzione bibliografica. Puo' essere uno dei tanti criteri ma il cardine di tutto è che una organizzazione (privata o pubblica che sia) per essere tale ha degli obiettivi e deve raggiungerli con l'intervento di tutti coloro facenti parte l'organizzazione stessa. A tutti i collaboratori devono essere assegnati obiettivi (oggettivi e raggiungibili, ovviamente questo va concordato) e poi occorre verificare periodicamente in che misura sono stati raggiunti. In caso negativo occorre capire se questo è dovuto al singolo lavoratore oppure a disfunzioni del team o dell'organizzazione e vedere come si è cercato di risolvere questi problemi.

Questo meccanismo ha il pregio di migliorare sia il singolo (che scopre le sue carenze e cerca di superarle) sia l'organizazione intera. Credo che con opportuni adattamenti possa andare bene in una fabbrica di automobili, in una banca, in una università.

Ciao,

Francesco

 

 

 

 

Quello che proponi tu è esattamente quello che propone Roberto Perotti (e il sottoscritto con lui): il ministero valuti le università secondo i suoi obiettivi. Le università valutino i professori secondo i loro obiettivi. Perotti dice anche che oltre al ministero dovrebbero essere gli studenti a valutare le università: alzando le rette, uno studente ci penserà di più prima di scegliere una università, e le università si metteranno in competizione per attirare buoni studenti (e così si valuta anche la didattica). Insomma, facciamo che sia il mercato a valutare le università dal punto di vista della didattica, e il ministero e i privati per quanto riguarda la ricerca.

In ogni caso, sembra davvero assurdo che il ministero valuti direttamente i professori. Perché non ha senso, perché non possono essere tutti Einstein, perché non sono chiari gli obiettivi  che si perseguono, perché si introducono distorsioni notevoli, perché per farlo bene sarebbe troppo costoso, e chi più ne ha più ne metta.

Evidentemente, al ministero la pensano diversamente da noi. 

 

 COncordo con lo spirito dell'articolo di Lipari. Meglio giudicare i dipartimenti. Ma meglio che niente anche la valutazione individuale. Ciò detto, tre punti

i) in Italia abbiamo un simil-RAE, il CIVR. Ha funzionato benino perchè non è stato preso sul serio. Potremmo iniziare ad usarlo - e magari rifarne uno nuovo

ii) in Spagna fanno le valutazioni individuali per gli scatti di stipendio, con una commissione nazionale e valutazioni biennali. Io mi occupo di storia economica, materia notoriamente bastarda. Alcuni dei miei amici si presentano alla commissione di storia ed altri a quella di economia. Risultato: a storia passa il 90% ad economia il 25% ...

iii) almeno alcuni "letterati" italiani stanno provando a fare un ranking di riviste e case editrici (italiane). So per certo della SISSCO (storici contemporanei), ma anche altri settori ci stanno lavorando. Sempre meglio che il puro arbitrio.. 

 

 

Finalmente!!!!! Grazie per questo intervento, era ora di dire cose sensate! finiamola di contare paper inutili, ci sono stato anch'io alle riunioni degli editor dove si dice citiamoci! è facile applicare la critica di Lucas alle politiche monetarie, ma a se stessi.... e se uno è avanti di trent'anni -e ne conosco- nessuno lo cita, e magari nemmeno lo pubblica, è colpa sua se è un genio??? se un matematico sta 10 anni a dimostrare un teorema, e magari non ce la fa, che deve fare? è socialmente inutile? lo sbattiamo in mezzo a una strada? per carità, senza nessun controllo si generano le distorsioni che conosciamo bene, ma la violenza integralista con cui si portano avanti certi argomenti è insopportabile. francamente vedere l'on. Cota sventolare il libro di Perotti mi ha fatto venire i brividi. 

 

 

Com'è 'sta storia di tale MP Cota? E' qualcosa che va saputo o è meglio evitare per non innervosirsi?

 

 

se un matematico sta 10 anni a dimostrare un teorema, e magari non ce la fa, che deve fare? [...] lo sbattiamo in mezzo a una strada?

 

Direi di sì. La mia esperienza di ricerca scientifica mi dice che se qualcuno passa 10 anni su un dato argomento senza produrre risultati intermedi allora c'è qualcosa che non va. Certo, quando Andrew Wiles ha passato 7 anni in clausura a dimostrare l'ultimo teorema di Fermat ha deciso (decisione sua) di tenere segrete tutte le scoperte intermedie fatte. Tuttavia i risultati intermedi c'erano e, se avesse voluto, avrebbe potuto ottenere delle ottime pubblicazioni.

Sebbene io sia relativamente "giovane" di vicoli ciechi ne ho beccati parecchi (come tutti del resto). Ci perdi due o tre mesi, ti arrabbi perché l'idea sembrava buona, impari quello che c'è da imparare e non pubblichi niente perché non c'è nessun risultato da pubblicare. Poi vai avanti. Se ti ci incastri per 10 anni senza risultati allora i soldi per la tua ricerca fanno bene a darli a qualcun altro.

Prima cosa: ogni sistema di valutazione soffre di qualche difetto. Alcuni sono peggio di altri, non vi è dubbio alcuno e tutti i sistemi di valutazione possono essere manipolati. Questo implica, forse, che è meglio rinunciare a qualsiasi forma di valutazione e lasciare che tutto proceda come procede ora? Non credo. Alcuni interventi, puramente negativi, sembrano suggerire questo e la cosa mi rende sospetto. Condivido le critiche fatte al "impact factor" puro e semplice, è altamente manipolabile e misura quantità invece che qualità, oltre a creare incentivi per scrivere tanto ed un po' a caso, cercando di farsi citare. Ma, di nuovo, non sarebbe il caso di usare un insieme di criteri diversi, prendendo poi delle ragionevoli medie? Insisto: chi critica l'idea di usare classifiche, ha qualche proposta alternativa?

Seconda cosa: questo dibattito, come altri, suggerisce che voler imitare il "mercato" (non nel senso del mercato dove si compra e si vende ma del mercato dove la gente compete e gli adetti ai lavori giudicano con criteri di merito e rischiando in proprio nel momento in cui esprimono un giudizi) attraverso commissioni più o meno burocratiche non porta molto lontano. Condivido. Lasciamo quindi fare al mercato. Perché non riconoscere che, alla fin fine, il metodo più ragionevole è quello che lascia che le università competano per le risorse (sia pubbliche che private) e che all'interno delle università i dipartimenti e le scuole competano a loro volta? Perché la soluzione deve sempre e per forza essere un altro regolamento, un'altra commissione, un altro conteggio/esame/concorso amministrati più o meno centralmente? Cosa c'è di fondamentalmente sbagliato con la pura e semplice competizione scientifica? Non capisco.

 

 

Insisto: chi critica l'idea di usare classifiche, ha qualche proposta alternativa?

 

Intanto: le classifiche si possono fare - con tutta una serie di warning e caveat. Bisogna capire di che cosa, da chi, con quali scopi,... insomma il concetto di classifica non è di per sè - ovviamente - da buttare nella pattumiera della Storia (come altri concetti, invece).

Quello che si fa presente è che il giudizio esperto rimane, oggi e in futuro, la strada maestra per costruire delle classifiche che abbiano rilevanza pubblica (o con simile responsabilità verso terzi), e che non esiste un sostituto matematico per la giustizia (o la bellezza, e nemmeno per la verità). Poi, con calma, vi racconto anche quello che abbiamo deciso di fare in Europa.

 

Perché la soluzione deve sempre e per forza essere un altro regolamento, un'altra commissione, un altro conteggio/esame/concorso amministrati più o meno centralmente? Cosa c'è di fondamentalmente sbagliato con la pura e semplice competizione scientifica? Non capisco.

 

Anch'io mi sono chiesto spesso come mai la comprensione del concetto di regola o norma sia così scarsa da parte dei liberisti-mercatisti. Ad esempio leggendo il libro di Perotti questa cosa veniva fuori in maniera drammatica, direi quasi angosciante. Non è vero che il mondo anglosassone sia scevro di regolamenti, commissioni, conteggi/esami/concorsi come talvolta si vaneggia - quello che cambia sono i ruoli, le responsabilità, gli ambiti, le attribuzioni, l'entità promulgatrice e ANCHE il senso etico.

Un solo esempio, ora: il concetto di concorso: le cose ridicole che si scrivono in Italia sull'"abolizione dei concorsi" fanno tenerezza. Cum-curro vuole dire correre assieme, cioè competere, gareggiare, per un certo risultato che selezionerà un vincitore (o più, con gradi) fra i concorrenti. In questo senso in Italia i veri concorsi sono pochi: si sa già in partenza chi dovrà essere il vincitore. Invece nel modo anglosassone se si fa una opening, una selection procedure, è appunto perchè non si sa chi sarà il vincitore, e si vuole scoprire chi possa essere il migliore, il più adatto fra gli applicants per una posizione. Quindi chi vuole copiare il mondo anglosassone dovrà chiedere più concorsi, non meno.

Non so se ben mi spiego. Purtroppo noi abbiamo i Giavazzi e gli economisti Bocconiani, ad opporsi al sistema...

RR

 

 

 

il metodo più ragionevole è quello che lascia che le università competano per le risorse

 

Un solo, piccolo, appunto: è necessario prevedere meccanismi che devolgano una parte (magari piccola ma non nulla) delle risorse a ricerche che non siano "all'ultima moda". Altrimenti rischiamo che tutti i soldi vadano a ricerche in campo nano-bio-medicale e venga completamente abbandonata la geologia.

N.B. non mi occupo né di ricerche bio-mediche né di geologia. Gli esempi sono solo esempi.

 

Lasciamo quindi fare al mercato. Perché non riconoscere che, alla fin

fine, il metodo più ragionevole è quello che lascia che le università

competano per le risorse (sia pubbliche che private) e che all'interno

delle università i dipartimenti e le scuole competano a loro volta?

Perché la soluzione deve sempre e per forza essere un altro

regolamento, un'altra commissione, un altro conteggio/esame/concorso

amministrati più o meno centralmente? Cosa c'è di fondamentalmente

sbagliato con la pura e semplice competizione scientifica?

 

 

Per le risorse private sono d'accordo. Il privato decide come investire i suoi soldi dove e come gli pare. Sceglierà una o piu' università ed il criterio sarà basato su vari fattori, anche arbitrari. Deve renderne conto eventualmente ad un consiglio di amministrazione, agli azionisti. Se sbaglia qualcuno verrà rimosso (forse).

Nel pubblico le cose non sono proprio cosi'. Dovendo elargire risorse ad una sessantina di università, dovrebbe cercare un criterio oggettivo, per evitare abusi dei funzionari o critiche di parzialità. Ecco che spuntano criteri, analsi, commissioni e tutto l'armamentario. Soprattutto se l'ente pubblco erogatore è unico in tutto il territorio e questo è vasto.

Io ritengo pero' che una via di fuga ci sia, suddividendo il territorio e sottraendo quindi al livello centrale il compito di elargire fondi alla scuola ed all'università. Piu' piccolo è un territorio (diciamo provinciale o comunale per le città piu' gandi) e minore è la possibilità che due università uguali risiedano nella stessa giurisizione. Dovendo finanziare, per esempio, una università di psicologia (e non 27) il compito per l'ente pubblico locale è piu' semplice. Stabilirà una chiave, sulla base delle sue risorse fiscali ma difficilmente l'ente pubblico potrà essere accusato di parzalità, visto che c'è un solo oggetto di quel tipo da finanziare. Se i soldi non bastano aumenta le imposte o sottofinanzia l'università, imponendo loro risparmi o il ricorso ai fondi privati. In ambito federalistico se una giurisdizione aumenta troppo le imposte, per finanziare progetti universitari faraonici, ricade nel concetto di mercato, perchè imprese e persone fisiche possono decidere di stabilirsi altrove, in un luogo vicino, dove si paga di meno. In Svizzera per esempio le università sono cantonali, tranne i due politecnici di Zurigo e Losanna, che sono federali. La decisione di finanziare le università quindi non è unica (presa nella capitale) ma plurima, condotta in 26 cantoni ed anche a livello federale.

Sembra piu' complesso ma non è cosi', tanto che in Svizzera, per chi non lo sapesse, non esiste il ministero della pubblica istruzione (non è un compito federale ma è espressamente assegnato ai cantoni nella Cost.) ma ci sono 26 "ministeri" cantonali che finanziano scuole ed università nel proprio cantone. Malgrado l'assenza del ministero (e ella rispettiva burocrazia) il sistema scolastico ed universitario svizzero è ben messo, sia per il PISA, sia come numero di università presenti nelle classifiche dei migliori atenei del mondo.

Ciao,

Francesco

 

 

 

Caro Ministro. L'unica cosa che può funzionare è che ogni docente venga valutato dalla sua stessa Università. 

 

Condivido sostanzialmente quello che hai scritto, tuttavia deve essere chiarito che nel contesto attuale questo avviene gia' e non funziona accettabilmente.  Occorre valutare gli Atenei in maniera piu' incisiva, ma nemmeno questo e' sufficiente, a mio parere, perche' nel contesto italiano gli organi di governo degli Atenei sono elettivi. Con organi elettivi, ci sono solo due possibili situazioni di equilibrio compatibili con la mentalita' italiana prevalente: la prima e' la distribuzione a pioggia dei giudizi positivi e relativi benefici, la seconda formazione di una cosca maggioritaria intorno alle facolta' col maggior numero di docenti che poi spartisce le risorse al suo interno in base a vincoli feudali di fedelta', sottraendole ai meno organizzati e/o perdenti senza alcun criterio di merito.

Ho l'impressione che negli USA ci sia la capacita' di valutare i singoli docenti perche' chi determina il loro stipendio in ultima analisi non sono organi elettivi di colleghi, ma un CdA sostanzialmente indipendente che si occupa di fare un'analisi dei costi e dei risultati dell'universita'.  Forse i nostri colleghi americani possono darci qualche dettaglio in piu', in particolare mi piacerebbe conoscere come vengono determinati gli organi di governo delle universita' statali, perche' questo e' il punto critico da esaminare in Italia: se il CdA per non essere in conflitto di interesse con gli accademici viene determinato dai politici mi aspetto un peggioramento rispetto al gia' non edificante livello attuale delle pratiche universitarie.

Sarebbe interessante inoltre sapere se in UK, dove il sistema universitario e' sostanzialmente statale, lo Stato si limita a valutare universita' (e forse dipartimenti) oppure arriva a valutare e differenziare la retribuizone dei singoli docenti.

 

 

 

 

Caro Ministro. L'unica cosa che può funzionare è che ogni docente venga valutato dalla sua stessa Università. 

 

Condivido sostanzialmente quello che hai scritto, tuttavia deve essere

chiarito che nel contesto attuale questo avviene gia' e non funziona

accettabilmente.

 

Caro Alberto, non ho capito cosa avviene già. Cioè se ti riferisci alle Università che valutano i docenti, oppure al governo che valuta le Università. In realtà avvengono già entrambe le cose, per lo meno in alcune Università più al passo con i tempi si fa valutazione interna, e si distribuiscono i fondi di ricerca interni in base ai risultati della valutazione (con tutte le limitazioni del caso). Naturalmente le università non possono ancora intervenire sugli stipendi dei professori (per fortuna direi). Anche a livello nazionale, il governo ha nel passato valutato le università con il CIVR, ancora una volta con tutti i limiti del caso, ma non ha poi avuto il coraggio di portare avanti la cosa fino alla conseguenza più ovvia (ovvero ditribuire l'FFO in base ai risultati). Quindi, non è che siamo a zero: qualcosa è stato fatto, e si può partire da li per andare avanti. Solo, è molto importante manovrare le leve giuste! Se fai la valutazione, ma poi non ha modo per dare il "feedback" giusto, la valutazione è inutile. Questo mio post voleva solo dire: state attenti a quali leve si manovrano; e, dato che è complicato valutare un docente, lasciamolo fare a chi può farlo meglio di tutti, ovvero alla sua stessa Università. Nel sistema che propone Perotti (e io sono d'accordo con lui) non c'è bisogno di una valutazione centralizzata di ogni docente, sarebbe anzi una inutile complicazione!

Riguardo agli organi di governo dell'Università, non sono un esperto e non sono sicuro di quali siano le interazioni tra il problema della governance e il problema della valutazione e dei premi collegati.

Quello che posso dire è che un modello senato accademico (con il rettore) affiancato da un CdA (con un Presidente) sembra, a un profano come me, essere abbastanza efficace.Il senato di occupa soprattutto degli aspetti accademici; il CdA si occupa dei piano di sviluppo a lungo termine, degli aspetti economici (budget consuntivo e preventivo, controllo delle attività "in the large", valutazione dei risultati economici). Insomma, a ognuno il suo lavoro. Secondo me i rettori in quanto accademici puri non sono necessariamente i più adatti a gestire i soldi. Senza contare che certe mafie (tipo quella dei medici) ottengono il rettore con sicurezza e facilità quasi disarmante. 

Poi sorge il problema di chi va nel CdA: secondo me il presidente deve essere comunque un accademico, e ci vogliono poi alcuni altri pochi accademici dentro (max altri 2). Ma poi ci vogliono altri elementi (per esempio un rappresentante dal ministero, anche un politico locale perché no, e volendo anche qualcuno da un'azienda o da un ente privato che magari finanzia già l'Università). Secondo me gli accademici devono stare in minoranza nel CdA.

Poi, il problema delle "pastette" politiche nella distribuzione dei fondi pubblici: secondo me sono inevitabili quando ci sono fondi pubblici da distribuire e interessi economici forti. Si possono mitigare, ma non evitare completamente, purtroppo. Non credo che inventeremo mai il sistema perfetto in questo senso! Un modo per mitigarli secondo me è la trasparenza e la pubblicazione di tutti le fasi della valutazione: quindi se una Università risaputa per essere molto scarsa becca un'ottima valutazione il sospetto di pastetta sarà molto evidente e facilmente verificabile andando a controllare tutti i documenti relativi, magari messi on-line.

 

 

Sarebbe interessante inoltre sapere se in UK, dove il sistema

universitario e' sostanzialmente statale, lo Stato si limita a valutare

universita' (e forse dipartimenti) oppure arriva a valutare e

differenziare la retribuizone dei singoli docenti.

 

A quanto mi dicevano tutte le università in UK sono fondazioni quindi ritengo piu' verosimile che ogni università valuti il proprio corpo docente con criteri simili a quelli che proponi. Sono pero' curioso di sapere in presa diretta come vanno le cose la e come sono organizzate queste fondazioni. Per esempio se sono di diritto privato o se sono di diritto pubblico.

Ciao Francesco

 

 

 

A quanto mi dicevano tutte le università in UK sono fondazioni quindi ritengo piu' verosimile che ogni università valuti il proprio corpo docente con criteri simili a quelli che proponi. Sono pero' curioso di sapere in presa diretta come vanno le cose la e come sono organizzate queste fondazioni. Per esempio se sono di diritto privato o se sono di diritto pubblico.

 

In UK non esiste distinzione fra diritto privato e diritto pubblico: c'è solo 1 diritto - privato, se vogliamo. Cioè: non c'è la Giustizia Amministrativa, distinta da quella Ordinaria, e anche un ente pubblico sta in giudizio con il proprio rappresentante legale come qualsiasi altra persona giuridica.

Le Università in UK sono tutte fondazioni: a nessuno verrebbe in mente di farne delle Pubbliche Amministrazioni, a pena di essere rincorso con i forconi da turbe inviperite di cittadini. Perfino nell'unico caso in cui fu lo Stato a decidere l'istituzione di una Università, l'OpenUniversity, nel 1973, la costituì come fondazione e non come Amministrazione Pubblica.

Un interessante esempio di come l'Università-Ente-fornitore-di-servizi sia sottoposta al giudizio di Corti indipendenti è quello relativo ai ricorsi degli studenti: vedasi il sito dell'Office of the Independent Adjudicator per tutte le spiegazioni, che ometto quivi.

RR

 

 

 

Non c'è dubbio che un sistema concorrenziale completamente decentralizzato produca i risultati migliori in questa materia.


Come non essere d'accordo con Perotti, Giuseppe, Michele e tanti altri. Assumete chi vi pare, promuovete chi volete, pagateli quanto volete: la concorreza per i fondi tra le università e tra i dipartimenti all'interno di un ateneo produrranno le scelte giuste e l'utilizzo/combinazione efficiente delle informazioni disponibili per valutare una persona. Un indice bibliometrico, il potenziale di un individuo, il contenuto dei suoi lavori, la sua simpatia e il colore dei suoi capelli saranno tutti opportunamente e, magia magia, efficientemente ponderati, sempre o quasi.


Funziona altrove, Stati Uniti in primis, e non c'è ragione per cui non debba funzionare da noi.


Questo sistema però richiede condizioni che in Italia sono ancora tabù. Alcuni esempi: la decurtabilità dello stipendio, la licenziabilità, la mobilità residenziale, la possibilità di chiudere interi dipartimenti e università senza che i dipendenti debbano essere "riassorbiti" all'interno del sistema pubblico. Si cambia mestiere, oppure si trasloca, o entrambi. Punto.


Poiché questo, il first best, non si può ottenere osserviamo tutte le inefficienze di un sistema centralizzato, capillarmente regolamentato ecc.

In un precedente commento, Nicola mi ha indirettamente (e scherzosamente, s'intende) definito un talebano della bibliometria e non c'è dubbio che David Parnas abbia ragione in proposito. Quello che penso, più modestamente rispetto a Parnas e i talebani, è che utilizzare indicatori di quel tipo (assieme ad altri criteri) in discipline dove esistono e in un sistema come quello italiano dove possono essere ignorati nelle decisioni di promozione sia un miglioramento rispetto allo status quo finché non sarà possibile rendere il sistema veramente competitivo.

D'altronde quando si scende negli inferi del second best ci sono cose

che diventano desiderabili anche se non lo sarebbero nel migliore dei

mondi possibili.

E magari aiutano anche a prepararne le condizioni. Un collega mi ha raccontato un aneddoto interessante. Quando qualche anno fa nel mio dipartimento (io ancora non c'ero, per questo lo prendo come aneddoto) si iniziarono a mettere in fila le pubblicazioni delle persone per il CIVR, successe che iniziarono a cambiare i rapporti interni perché improvvisamente diventò conoscenza comune chi erano quelli che facevano ricerca e chi erano quelli che non la facevano.

 

 

Quello che penso, più modestamente rispetto a Parnas e i talebani, è che utilizzare indicatori di quel tipo (assieme ad altri criteri) in discipline dove esistono e in un sistema come quello italiano dove possono essere ignorati nelle decisioni di promozione sia un miglioramento rispetto allo status quo finché non sarà possibile rendere il sistema veramente competitivo.

 

Condivido Giulio (prometto di non darti più del talebano...), ma il rischio, come già ti avevo segnalato, è che in un paese come il nostro si finisca per inserire, con norme regolamenti e pandette, elementi di rigidità burocratica (te l'immagini la quantità di ricorsi al TAR per "errori o irragionevolezza" del calcolo dell'IF?) proprio in quelle discipline che, per il fatto solo di avere l'IF, si presentano già ora come mediamente più "serie", e quindi meglio in grado di valutare a dovere le persone ed i progetti di ricerca, rispetto a tutte le altre, cioè a quelle prive di IF. E queste ultime, invece, continuerebbero ad essere terreno di conquista per "gli amici degli amici".

 

Scusate, ma per affinità di argomento mi inserisco qui. Uno studente mi ha segnalato questo relativamente ai criteri di valutazione dei singoli magistrati.

In particolare, notate il passaggio dove si dice che:

 

Nelle valutazioni dei provvedimenti il dirigente dell’ufficio e il C.G. devono tener conto esclusivamente dei profili tecnico-professionali relativi all’esposizione delle questioni e all’argomentazione della soluzione adottata, con esclusione di qualsiasi sindacato sul merito della soluzione stessa.

In conseguenza di ciò, e del fatto che la legge 111 del 2007 (c.d. riforma Mastella) prevede che i provvedimenti a campione utilizzati dai dirigenti per la valutazione dei magistrati siano trasmessi al CSM solo su espressa richiesta di quest'ultimo, il CSM stesso ordina che non gli si mandino più, salvo esplicita richiesta, né i provvedimenti a campione né, per analogia, quelli prodotti dal magistrato stesso.

Qualcuno mi sa spiegare la ratio di tutto ciò, da un punto di vista degli incentivi e/o di un'efficiente valutazione del lavoro dei magistrati? E' come se la commissione di un concorso universitario imponesse al candidato di non spedire le pubblicazioni ed allo stesso tempo chiedesse ai suoi colleghi anziani un parere sul candidato stesso, a patto però che tale parere non sia accompagnato da elementi oggettivi che lo corroborino. It sounds me crazy! Dove sbaglio?

Vorrei segnalare la proposta avanzata congiuntamente dall'Associazione italiana di sociologia, dall'Associazione italiana di filosofia politica e dall'Associazione italiana di scienza politica, in merito alla valutazione dell'attività scientifica dei docenti e ricercatori afferenti a queste discipline. Si dice che sono ritenuti requisiti minimi i seguenti:

Ricercatore: almeno 5 pubblicazioni prodotte nell’ultimo quadriennio di cui almeno una
monografia oppure 2 articoli sulle riviste rilevanti.
Associato: almeno 10 pubblicazioni di cui almeno due monografie, oppure una monografia e 4
articoli pubblicati sulle riviste rilevanti (negli ultimi 8 anni).
Ordinario: almeno 15 pubblicazioni di cui almeno 3 monografie oppure 2 monografie e 6 articoli
pubblicati sulle riviste rilevanti (negli ultimi 12 anni).

Qualcuno mi aiuta a capire perchè un ordinario viene valutato su un periodo triplo rispetto ad un ricercatore, e un associato doppio? Forse perchè molti di questi dopo essere diventati ordinari o associati non hanno più combinato niente?

IL CUN ora è al lavoro con lo scopo di identificare dei requisiti minimi di decenza. Ci sono varie commissioni suddivise per settore scientifico disciplinare. L'obiettivo è solo stabilire un minimo per poter accedere alle posizioni di ricercatore, associato ed ordinario. Oserei dire dei minimi di DECENZA (Questo termine l'ho sentito usare da uno studente che è momentaneamente nel CUN).

Quindi , va bene la critica ad un sistema totalmente bibliometrico, ma ora si sta solo introducendo un minimo requisito bibliometrico. Oserei dire, tanto perchè non diventino docenti degli emeriti sconosciuti ...

Caro metius: vada per i requisiti minimi di decenza. Appena saranno pubblicati, li valuteremo (non siamo forse esperti di valutazione?). D'altro canto, è già legge no? aspetteremo con cosa usciranno i colleghi del CUN.

Solo un commento, spero me lo permetterai: mi sembra di poter dire, a occhio, che se questi requisiti saranno veramente minimi, saranno anche facilmente aggirabili. Se saranno complessi, saranno anche difficilmente applicabili. Se saranno insensati (come mi aspetto) faranno più danno che bene. Insomma, sinceramente credo che lo spazio per fare una cosa fatta bene sia molto ma molto stretto.

Sulla situazione attuale del dibattito in merito ai provvedimenti dell'ultimo decreto Gelmini, ora a metà del guado fra Senato e Camera, segnalo questo articolo di Giliberto Capano su "Europa" di oggi: http://rassegnastampa.crui.it/minirass/esr_visualizza.asp?chkIm=9 ove si danno alcune informazioni e considerazioni sul tema.

RR

 

Il link che hai dato non mi funziona ma l'articolo che citi lo si può trovare qui (immagino che anche tu ci sia arrivato da lì).

Non sapevo (sono un po' "giovane") che fino al 2003 parte dei fondi alle università venisse assegnato con un qualche criterio meritocratico. Faccio notare che, allo stato attuale delle cose, è difficile se non impossibile per lo stato lasciar andare in bancarotta una università. Un po' per una mentalità distorta e localista ma un po' anche per problemi oggettivi. Se domani l'università di Firenze (dove io lavoro) chiudesse i battenti per via del suo enorme deficit a rimetterci sarebbero fondamentalmente gli studenti (in Italia non è per niente banale farsi riconoscere gli esami dati in un'altra università e comunque non esistono alloggi per studenti fuori sede che permettano una qualche mobilità).

Ho quasi la sensazione che la discussione si sia sviluppata sulla base sulla convinzione che universalmente la carriera universitaria derivi (dovrebbe derivare) dal giudizio ricevuto sui propri lavori. Scusate il cinismo della battuta, ma i professori sanno che è vero il contrario. Non sempre, per carità, ma in un numero considerevole di casi.

Fuori di battuta, in un sistema deteriorato esiste una circostanza peggiore rispetto alla non valutazione. E' infatti peggio una valutazione governata da logiche di potere. Se si introduce un processo di valutazione in un contesto deteriorato ci sono modeste probabilità di realizzare un contesto opportunamente orientato, ma considerevoli probabilità di realizzare un contesto inopportunamente orientato, che premia l'appartenenza e la conformità. Sono sistemi che tendono ad irrobustire i gruppi accademicamente forti e a indebolire i gruppi accademicamente deboli. Nel bene e nel male. Presa la stada peggiore non riesco ad immaginare come invertire la rotta.

 

prendo in prestito da un'altra discussione: "it takes a model to beat a model".

L'alternativa all'introduzione di un processo di valutazione e incentivazione basato (visto che il mercato puro sembra poco politicamente percorribile) sull'uso intelligente di qualche misura bibliometrika è lo status quo. Inoltre non capisco in che modo un sistema di valutazione basato diciamo su "IF" (facendo finta per un attimo che l'IF sia un robustissimo indice di qualità e produttività scientifica) possa avvantaggiare un gruppo (forte o non forte) che non lo meriti, soprattutto considerando che l'IF dei gruppi accademici dominanti (in italia e in economia) è di solito molto basso.  

 

"Fuori di battuta, in un sistema deteriorato esiste una circostanza peggiore rispetto alla non valutazione. E' infatti peggio una valutazione governata da logiche di potere. Se si introduce un processo di valutazione in un contesto deteriorato ci sono modeste probabilità di realizzare un contesto opportunamente orientato, ma considerevoli probabilità di realizzare un contesto inopportunamente orientato, che premia l'appartenenza e la conformità."


Caro Professore, hai azzeccato una giusta linea di pensiero. E' in buona parte per questo motivo che la valutazione ("di qualità") e' cosa poco diffusa nella societa' italiana - vds. tutte le carriere per anzianità, le distribuzioni "a pioggia" di finanziamenti, ecc.

La societa' italiana, fondata sul familismo amorale, e' repulsiva al merito e alla valutazione non solo per motivi "diretti" ma anche proprio per quelli "indiretti" dovuti al "pericolo" di non riuscire in ogni caso a gestite un sano (=eticamemnte accettabile) processo di selezione che non sia un mero gioco di potere, perfino quando si creerebbero le condizioni per metterlo in campo.

Quindi la medicina da somministrare al paziente, in fase acuta di malattia, non e' comunque banale, o "di trasposizione/implementazione" di regole-procedure altrimenti usate con successo.

RR 

Concordo con Filippo che certamente occorre muoversi nella direzione della valutazione. Ma sono convinto che un meccanismo di valutazione nuovo e in assestamento fornisca motivo di vantaggio ai gruppi accademici forti. Quelli dotati anche della caratteristica "merito" sovrappeseranno il loro risultato. Quelli non dotati di tale caratteristica distorceranno in buona misura il meccanismo in corso di introduzione. E ci riusciranno. Filippo non vede questo fenomeno e lo invidio veramente ... anche a me piacerebbe essere più idealista.

Per questo motivo preferisco che il meccanismo sia: a) tarato prevalentemente su algoritmi quantitativi e non qualitativi (pur rendendomi ben conto di quanto sia precario questo punto di vista); b) tarato ad individuare i casi di demerito ("professori fantasma" nella espressione recentemente utilizzata da Giacomo Rizzollati) piuttosto che tarato al più difficile compito di mettere in ordinamento i casi di merito.

Renzino è convinto che gli italiani siano un poco più farabutti della media. Chissà ? Ma questa è un'altra storia ...

Sono usciti i tanto attesi risultati del Research Assessment Exercise britannico, versione 2008, che serve per distribuire annualmente una quota (circa il 25%) del finanziamento ordinario alle università.

Per ognuna delle 67 Unità Evaluande (Unit of Assessment, corrispondenti ad aree di ricerca/settori scientifici) è stato ottenuto un profilo di qualità dei prodotti della ricerca (pubblicazioni, diciamo) sottomessi al giudizio dei Panel da parte delle diverse istituzioni universitarie. Le categorie di merito erano 4+1 - scopiazzato dall'italiano VTR 2001-2003, ma con ben diverso (e più chiaro) significato della rispettiva rubrica:

Definitions of quality levels

4* Quality that is world-leading in terms of originality, significance and rigour.

3* Quality that is internationally excellent in terms of originality, significance and rigour but which nonetheless falls short of the highest standards of excellence.

2* Quality that is recognised internationally in terms of originality, significance and rigour.

1* Quality that is recognised nationally in terms of originality, significance and rigour.

Unclassified Quality that falls below the standard of nationally recognised work. Or work which does not meet the published definition of research for the purposes of this assessment.

Per voi economisti, le pagine da guardare sono quelle delle UoA 34, 35 e 36, per me la fisica è la 19. Da notare, in questo settore, la sostanziale uniformità, dal mio punto di vista, della gran parte delle submissions, contro tutti i faciloni Maniaci delle Graduatoriede Noantri.

 

Buon Natale e felice 2009 con il RAE.

Renzino l'Europeo

 

 

Esco un po' dal merito della discussione per segnalare un' articolo di repubblica su un professore di Bari che pare avesse organizzato il suo giro di raccomandazioni fino a compilare un manualetto d' istruzioni per gli interessati.

Per i fanatici dello "impact factor" ecco una notizia su cui meditare a proposito di una rivista che raggiunge i vertici dello "impact factor" in ambito fisico-matematico.

 http://science.slashdot.org/article.pl?sid=08/12/23/1831225

 

Non sono un difensore a spada tratta dell'impact factor, tuttavia mi sembra opportuno 1) valutarne l'efficacia su basi statistiche piuttosto che aneddotiche 2) confrontarlo empiricamente con altre "ricette" per valutare progetti di ricerca e scienziati da reclutare, piuttosto che scartarlo a priori.

Casi come questi sono emblematici. E sono più comuni di quanto si pensi. Potrei citarne parecchi nel mio ambito. Basta contare il numero di conferenze e workshop peer-reviewed listate da ACM e IEEE.Molte di queste sono formate da gruppi piccoli e chiusi che si accettano a vicenda paper di qualità infima.

E' famosissimo il caso di una conferenza "scientifica" che accettò un paper generato automaticamente da un apposito algoritmo. Il paper fu accettato e gli autori (dei PhD student) si presentarono alla conferenza per svelare il bluff solo al momento della presentazione (naturalmente, generata automaticamente!) lasciando gli organizzatori nel più totale imbarazzo. Il programma è disponibile qui, provate voi stessi a generare il vostro paper in computer science, è molto divertente!

Il fatto è che l'editoria scientifica è un'industria il cui interesse è fare quattrini, non diffondere la conoscenza. Casi come questo elencato qui sopra sfuggono a un sistema completamente automatico di valutazione. Per fortuna sono una minoranza: quindi, nell'analizzare una grossa quantità di dati (per esempio quando si valuta un dipartimento medio/grande) tali "distorsioni" agiscono in maniera piuttosto relativa. Quando invece si valuta il singolo su un periodo breve, tali distorsioni risultano nella più grande ingiustizia. Infine, ripeto il mio punto: il sistema nel suo complesso è bacato perché spinge i ricercatori nella direzione sbagliata, cioè a pubblicare molti paper mediocri.

Sul sito "ricercatoriprecari.wordpress.com" è apparso un draft di un documento del CUN che stabilisce i criteri minimi di ammissione ai concorsi in base alle pubblicazioni. Eccolo qui. Si tratta di un draft, e si vede. Notare la babele di criteri difformi a seconda dell'area di appartenenza. Andatevi soprattutto a guardare i criteri dell'Area 03, Chimica. Io sinceramente resto esterrefatto. Spero che abbiano il tempo di meditarci su.

Personalmente sono molto più esterrefatto dei criteri di Lettere. Decodifico per i non iniziati: una monografia è un libro che può anche essere pubblicato in proprio (previo deposito di dieci copie in Prefettura) - siamo un paese libero, perbacco! In pratica, si legalizza l'arbitrio più assoluto. Mi sembra che i criteri di Economia siano solo poco più rigorosi - cf. l'ineffabile dizione di "riviste di grande rilievo scientifico, di cui almeno 2 a carattere internazionale, presso editori che applicano con trasparenza documentata il referaggio anonimo e indipendente". A questo punto, meglio i chimici. Il criterio sarà anche troppo rigido e meccanicistico, ma almeno è chiaro. 

Mah, dire "stampare in proprio" non è corretto, perchè messa così sembra che uno se le paghi da se le copie.

In realtà il meccanismo è un po' più sottile...allora si sceglie una casa editrice e poi si utilizzano i fondi di ricerca per pagare e sostenere la pubblicazione del testo da parte dell'editore; una volta stampato il testo, si usano ancora i fondi di ricerca per acquistarne un numero indefinito di copie che saranno poi gestite dal docente a totale discrezione. Finito, direte voi? Manco per nulla. Le biblioteche dei dipartimenti sono poi tenute, non so se per legge o per mafia, ad acquistare altre cinque copie del testo pubblicato dal docente. Alla fine di quel testo sono piene le biblioteche locali, gli scaffali dei corridoi, e gli uffici dei docenti.

Mi augufro abbiate notato l'"affaire" Gelmini, intorno alle domande di raccomandazioni, rivolte a chi e' accademico, ma oltremare...

 Abbiamo notato. E' sconfortante, anche se non sorprendente.  Ma questo dimostra che, contrariamente a quanto detto dalle anime belle, gli indicatori bibliometrici sono necessari per la valutazione in Italia.