I dati emersi dalle ultime prove condotte dall’Invalsi – l’Istituto Nazionale per la Valutazione del Sistema Educativo di Istruzione e Formazione, che valuta annualmente la qualità della scuola italiana tentando di identificare le cause dell’insuccesso e della dispersione scolastica – evidenziano una situazione problematica, che deve essere necessariamente inserita e analizzata all’interno del più attuale e ampio contesto pandemico.
Le prove Invalsi 2021, le prime somministrate dopo lo scoppio della pandemia, che hanno visto oltre 2 milioni di studenti alle prese con quesiti di Italiano, Matematica e Inglese, restituiscono un’immagine a dir poco complessa del sistema scolastico italiano: mentre il confronto fra gli esiti della scuola primaria del 2019 e del 2021 mostra un quadro di sostanziale stabilità, nella scuola secondaria si registra un arretramento degli apprendimenti soprattutto in Italiano (4 punti percentuale nella scuola secondaria di primo grado, 10 nella scuola secondaria di secondo grado) e in Matematica (7 punti percentuale nella scuola secondaria di primo grado, 9 in quella di secondo grado).
Altro dato preoccupante è quello relativo alla dispersione scolastica implicita, che passa dal 7% del 2019 al 9,5% (vale a dire che il 9,5% degli studenti delle scuole italiane termina la scuola secondaria di secondo grado, ma con competenze di base fortemente inadeguate, ferme al livello del primo ciclo d’istruzione), presentando percentuali allarmanti nelle regioni meridionali (22% in Calabria, 20% in Campania, 16% in Sicilia), dove è rilevante anche il tasso di dispersione “esplicita”, cioè di chi abbandona la scuola prima del diploma.
Come contraltare a questi dati quasi apocalittici, sono sempre più numerose e critiche le voci che si levano da parte di sindacati, associazioni di genitori e studenti e aree della scuola, dell’università e della cultura italiane sull’effettiva validità di queste misurazioni. Il problema di queste prove sarebbe l’eccessivo nozionismo, l’assenza di un parametro di valutazione delle competenze verbali, la preferenza della velocità sul ragionamento, ma soprattutto la parzialità della rilevazione, concentrata solo su tre materie e su certi anni scolastici: William Ayers, professore di Pedagogia presso l’Università dell’Illinois a Chicago e autore di numerosi articoli e libri sull’educazione scolare, già diversi anni fa scriveva che «i test standardizzati non possono misurare l’intraprendenza, la creatività, l’immaginazione, il pensiero concettuale, la curiosità, lo sforzo, l’ironia, il giudizio, l’impegno, le sfumature, la buona volontà, la riflessione etica, o una serie di altre tendenze e attributi preziosi», mentre ad essere davvero valutati sono «abilità isolate, fatti e funzioni specifiche, cioè gli aspetti dell’apprendimento meno interessanti e meno significativi» (W. Ayers, “To teach: the journey of a teacher”, Columbia University, NY, Teachers College Press, 1993). Se da un lato è chiaro che nessun test computer-based può misurare la reale preparazione degli studenti o le loro effettive capacità, dall’altro sarebbe controproducente demonizzare tout court un sistema di rilevazione, l’unico peraltro, che consente di avere ogni anno dati aggiornati su scala nazionale. Sarebbe forse più utile che i dati raccolti mediante misurazioni come, per l’appunto, l’Invalsi o il Rapporto PISA (acronimo di “Programme for International Student Assessment”, un’indagine internazionale che con periodicità triennale misura le competenze degli studenti quindicenni dei Paesi aderenti) fossero analizzati e interpretati nella misura in cui servano a dare indicazioni nazionali, per esempio, sui contesti geografici, sociali ed economici su cui l’istruzione pubblica deve intervenire per migliorare la qualità del sistema scolastico.
Fonti
E. Rogora, “I test Invalsi sono scientificamente solidi?”
R. Alexander, “How accurate is the Pisa test?”, BBC News
AA.VV., “OECD and Pisa Tests Are Damaging Education Worldwide”, The Guardian, 6 maggio 2014