Titolo

La Scuola Italiana, vista da un emigrato

13 commenti (espandi tutti)

il Country-specific overview PISA per il 2012 (ultimo disponibile)  per l'Italia aveva osservato fortissimi miglioramenti nelle performance degli studenti sia nella matematica, sia nelle scienze, evidenziando invece risultati stabili per la lettura. Al contrario degli Stati Uniti dove non si erano evidenziati progressi. Insomma se non sul piano dei risultati assoluti, sul piano dinamico, del miglioramento delle performance almeno sino al 2012, dai test PISA risulta proprio che l'Italia sia un esempio da seguire (in matematica e scienze, ma non nella lettura). Per il 2015, si deve ancora vedere, mi risulta. Ma insomma, fate tanto casino sull'importanza di avere test standardizzati per la scuola, e poi quando li avete non ve li volete studiare almeno un po' i documenti?

gode. L'Italia era 32 per la matematica e 27 per la lettura

perché una questione così importante non possa essere affrontata con un po' di serietà e di approfondimento. Ripeto, la prima cosa è leggerli, i risultati PISA. Non solo la classifichetta delle medie fra paesi, che fa tanto titolone del Corriere dello Sport, ma i tutti i risultati del PISA, che dicono cose assai più importanti. Ad esempio, l’indice di variabilità dei risultati tra istituti scolastici, la percentuale di studenti che dichiara di non essersi presentato ad almeno una lezione, la percentuale di studenti che si colloca nella fascia inferiore del punteggio (low performers), le differenze regionali, e soprattutto i progressi registrati nel corso degli anni (nel quale l'Italia in scienze e matematica a quanto pare stando ai PISA eccelleva, e mi dispiace se questo la disturba perché non coincide con il suo pregiudizio). E non è una questione di "accontentarsi" è una questione di capire di cosa si sta parlando. Se non si capisce, prima, qual è la reale situazione, come si possono presentare proposte per migliorare ulteriormente la qualità dell'istruzione italiana?

abbiamo fatto  parecchi post sulla scuola e due sui test PISA del 2009 e del 2012. In quest'ultimo  Andrea Moro ha discusso e criticato la tesi del miglioramento dei risultati.

Nel mio commento  il confronto fra Italia ed USA si giustificava visto che gli interventi paragonavano i due paesi (o più precisamente esperienze personali nei due paesi)

Andrea Moro, che comunque nel suo interessante intervento del 2012 secondo me si contraddiceva parecchio definendo  prima il miglioramenti in scienze e matematica "statisticamente significativi" e poi nelle conclusioni li derubricava a "piuttosto labili" comunque dicevo che il documento OCSE 2012 per l'Italia (l'OCSE è chi i PISA li fa, per capirci) è questo: http://www.oecd.org/pisa/keyfindings/PISA-2012-results-italy.pdf

Non esiste nessuna "tesi" del miglioramento, dato che il miglioramento  addirittura è stato inserito dall'OCSE al primo posto (lo sottolineo: al primo posto) dei "key findings" dei test PISA 2012, che per chi non avesse voglia di leggere l'intero documento, vi incollo in calce:

 

Key findings

 

• Mean performance in mathematics, reading and science is below the OECD average, but Italy is one of the countries that improved most markedly in both mathematics and science performance, particularly between 2006 and 2009.

• Between 2003 and 2012 between-school variation in performance remained stable and comparatively high while there was a decline in within-school variation in mathematics performance.

• While the proportion of immigrant students in Italy (7.5%) is below the OECD average (12%), it grew rapidly between 2003 and 2012.

• More than one in three students (35%) reported that they had skipped at least one class and nearly one in two students (48%) reported that they had skipped a day of school or more in the two weeks before the PISA test. Skipping classes or days of school is associated with lower performance.

 

 

 

e comunque essere

one of the countries that improved most markedly in both mathematics and science performance, particularly between 2006 and 2009.

ha lasciato l'Italia al 32 posto.  Come detto, chi si contenta gode

secondo me si contraddiceva parecchio definendo  prima il miglioramenti in scienze e matematica "statisticamente significativi" e poi nelle conclusioni li derubricava a "piuttosto labili"

"statisticamente significativi" e "piuttosto labili" non sono concetti che necessariamente si contraddicono. Il primo vuol dire che le differenze (labili o meno) non sono dovute al caso, il secondo è un giudizio relativo sulla differenza.

:)

michele boldrin 7/10/2016 - 23:07

Per un chiarimento, cercare sotto Deirdre (formerly Don) McCloskey.

Una nota a margine: il punto vero NON e' essere primo o 27esimo. In un ranking di N nazioni ci sara' sempre qualcuno che deve arrivare al posto N, a quello N-1, N-2, e cosi' via. Di per se possiamo anche essere ultimi se il livello medio e' poco lontano dal primo e perdiamo con onore e, soprattutto, se la grande massa dei nostri studenti risulta essere SOPRA a quei livelli ritenuti minimamente accettabili per poter competere e magari crescere nel mondo odierno. E' quando ti rendi conto che sei sostanzialmente sotto a quei livelli minimi e che in alcune regioni (praticamente tutto il Sud, buona parte del Centro e parecchio del Nord) va ancora peggio che ti preoccupi. E dovresti preoccuparti anche se tu fosti secondo o terzo perche', nel mondo della crescita che viene solo se te la sai creare, mal comune non e' per nulla mezzo gaudio. Tutto il contrario. 

So what?

michele boldrin 7/10/2016 - 23:13

Sulla mancata comprensione della, sostanziale, differenza fra "statistically significant" e "praticamente rilevante" ha gia' detto Francesco Lovecchio al cui commento (con corredo di reference nel mio seguente) rinvio.

Al medesimo commento rinvio anche per provare a capire che passare dalla posizione N-7 a quella N-10 o anche N-2 vuol dire poco se non si superano certi standard minimi e, soprattutto, se meta' del paese e' orrendamente sotto di essi e la varianza e' enorme.

I key findings che elenca sono tutti ovvi e noti e vogliono dire nulla, di per se. O, se vogliono dire qualcosa, sono conferma che le disfuzioni del sistema scuola sono tante e spuntano da tutti i lati.  

Detto questo, mi domando cosa sostenga il tono aggressivo dei suoi commenti in cui ci invita a leggere i documenti! I quali vanno non solo letti, anche compresi.

Ma osservazioni pedagogiche a parte: what's your point? Ossia, cosa di concreto vorrebbe comunicarci?

a me sembra che se tali miglioramenti non fossero "praticamente rilevanti" non sarebbero stati inseriti al primo punto dei key findings dall'OCSE o no?

Comunque io vedo un atteggiamento abbastanza generalizzato di pregiudizio nei confronti della scuola italiana (non nel post di Gagliardi, ma nei commenti e in generale nel modo in cui si tende ad affrontare l'argomento su questo sito). Il che è davvero un peccato e mi da francamente assai fastidio, non perché la scuola italiana sia perfetta (neanche lontanamente) ma perché se davvero si vuole ragionare di come migliorarla, si dovrebbero studiare i risultati PISA senza pregiudizi, non cercare in essi solo una conferma delle proprie idee precostituite, come mi sembra si stia facendo qui (e rifiutarsi di riconoscere i dati quando non vi si allineano).

Vuole un esempio? cito sempre dal rapporto OCSE:
"In some Italian regions, 15-year-old students are among the best-performing students in the world in mathematics. Specifically, students in Trento, Friuli Venezia Giulia and Veneto score well above the OECD average at 524, 523 and 523 score points, respectively"
Tanto per dire, l'eccellenza anche al livello di performance nella matematica, ce l'abbiamo in casa, nel nostro sistema (dice sempre l'OCSE sulla base dei PISA) per cui, invece di immaginare improbabili sconvolgimenti epocali, abolire il classico, abolire i licei, istituire un sistema di vaucher e di charter school etc (tutte cose peraltro molto controverse e per me neanche auspicabili), ma se invece, più modestamente, non si lavorasse su una mappatura delle buone prassi nel campo dell'insegnamento della matematica messe in atto in queste tre regioni, per poi cercare di estenderle a tutto il territorio nazionale? troppo banale? troppo sensato?

[di lavorare] su una mappatura delle buone prassi nel campo dell'insegnamento della matematica messe in atto in queste tre regioni [dove i risultati sono buoni], per poi cercare di estenderle a tutto il territorio nazionale

Eh, benissimo, ma come si fa? chi lo fa? mosso da quali incentivi? chi dovrebbe dare il via? e, dato il via (dal Ministero?), come potrebbe procedere la diffusione delle buone pratiche? come avverrebbe che insegnanti mediocri passerebbero da cattive a buone pratiche, trasformandosi in buoni insegnanti? Non sono domande retoriche, sono domande che richiedono risposte specifiche. Se ci riflette, legge con attenzione la proposta di Andrea Ichino e si informa su come è andata nei paesi in cui qualcosa del genere è stato sperimentato, troverà qualche risposta a tutte queste domande.

Naturalmente possono esserci proposte diverse e migliori. Ma devono essere altrettanto operative, cioè rispondere concretamente a quelle prosaiche domande. E si noti la modestia della proposta, che non prevede nessun cambiamento imposto dall'alto, ma mira solo a innescare un meccanismo virtuosamente competitivo che faciliti la spontanea diffusione anche delle buone pratiche didattiche giustamente menzionate da Rinaldi. In tempi non brevi, va da sé. E in modo del tutto compatibile con qualsiasi riforma o altri miglioramenti delle scuole tradizionali, inclusi quelli che Rinaldi potrebbe precisare in termini più operativi.

Sul significato dei risultati PISA per l'Italia mi sembra difficilmente contestabile quanto scritto nei commenti qui sotto da Federico, Boldrin, e prima ancora nell'articolo di Andrea Moro.

Concordo con Rinaldi sulla rilevanza dei risultati dei test, sia PISA che INVALSI, e le loro variazioni negli anni, specialmente -- aggiungo io -- nella prospettiva di una competizione fra istituti scolastici riguardo alle scelte delle famiglie su dove iscrivere i figli. Questo però richiederebbe che fossero divulgati i risultati delle singole scuole.

Da una rapida ricerca in Internet mi risulta che alcuni istituti hanno presentato i loro risultati nei test INVALSI rispetto alle medie nazionali e locali, anche riferite a istituti del medesimo tipo -- cioè i dati che potrebbero orientare le scelte delle famiglie. Ma gli istituti che hanno fatto questo sono, se ho visto bene, pochissimi, e questo non aiuta me come genitore a decidere a quale liceo o istituto tecnico iscrivere mia figlia. Però il fatto che qualche istituto (ad esempio il liceo Fermi di Bologna, vedi http://www.liceofermibo.net/docs/invalsi/relazione_esiti_2013_INVALSI.pdf ) abbia fatto una bella relazione sui propri risultati, abbastanza analitica ma facilmente comprensibile dal pubblico, con qualche informazione utile anche sulle singole classi, dimostra che la cosa è possibile.

Sarebbe quindi utile fare pressione sui singoli istituti scolastici perché producessero relazioni del genere. E fare pressione perché si consenta all'INVALSI di pubblicare direttamente i risultati scuola per scuola. Se non sbaglio, attualmente l'INVALSI non può farlo e può concedere l'accesso ai dati dei singoli istituti solo a persone accreditate. (Se invece sbaglio, correggetemi, il punto mi sembra importante.)

...che ho rilanciato qui nei giorni scorsi (consentire anche in Italia l'introduzione di free o charter schools e allestire i necessari e non gravosi controlli pubblici) ha questa notevole proprietà: questo tipo di scuola si propaga o si estingue da sé a seconda che dia buona o cattiva prova.

Non sarebbe male provare a dotare di questa proprietà qualsiasi progetto di cambiamento, ove possibile.