Il cacciavite che gira a vuoto
Una riflessione a partire dalla Direttiva ministeriale sull’attività Invalsi
Quando imparano a contare i bambini solitamente vengono
presi da un piacere voluttuoso per questa operazione: contano tutto. Scalini,
armadietti, piastrelle, bottoni, qualsiasi elemento della realtà che
li circonda nasconde numeri. Presto però questo piacere si riduce e
gli stessi bambini continuano a quantificare solamente ciò che è
pertinente ai problemi. Leggendo la confusa direttiva del Ministero all’Invalsi
per le attività 2006-07 pare di capire che questa prima fase, questo
caotico contare ciò che capita, sia ancora in pieno corso e che il
cambiamento di governo non abbia svitato gran ché. Vediamo nel dettaglio.
Il ministro Moratti due anni fa aveva predisposto e fatto somministrare batterie
di quiz a risposta multipla a tutta la popolazione scolastica di II, IV elementare
e I media nelle materie di italiano, matematica e scienze. Il costo era di
3,9 milioni di euro destinati alle imprese private che si sono garantite l’appalto.
L’obiettivo era di misurare nella scuola italiana la produttività
di sapere nozionistico e logico e il grado di adattamento alla didattica a
risposte chiuse. Inoltre si proponeva - con la forza persuasiva del bollino
di ‘accertata scientificità’ - una specie di nuovo libro
unico per tutti gli insegnanti del regno basato sulle nuove Indicazioni Nazionali
e con effetto retroattivo sulla didattica. Così facendo è stato
composto un data base delle classi e delle scuole italiane in ordine di ‘produttività’,
pronto per eventuali futuri processi di gerarchizzazione degli istituti e
degli insegnanti.
L’architettura di questo progetto era grandiosa e impegnativa, coerentemente
di destra, filosoficamente neopositivista e cognitivista.
Il nuovo ministero dopo alcuni mesi ha emesso una direttiva che non interrompe
questo processo ma lo riarticola. Vediamo come muta il progetto morattiano.
L’orizzonte degli elementi da valutare rimane quello delle Indicazioni
Nazionali (che la pratica del ‘cacciavite’ ha lasciato in vita).
La valutazione è ancora elaborata e imposta a livello nazionale a prescindere
dalle articolazioni locali delle programmazioni e dalla mutevole composizione
delle classi. Viene sottolineata la scientificità dell’elaborazione
delle prove (“sulla base di appropriate metodologie scientifiche di
validazione e taratura degli item”) come se fosse questo l’elemento
carente nelle batterie di test messi a punto in precedenza. I soggetti cui
imporre le prove, che anche questo governo indica come obbligatorie, rimangono
gli alunni di II e IV elementare; nella scuola media si passa dalla I alla
II, sono inoltre aggiunti gli allievi della I e III classe della scuola superiore.
La somministrazione però non è più universale ma a campione
e dovrà essere effettuata “mediante l’assistenza di rilevatori
esterni”. Rimane infine il proposito di valutare le scuole (“valutazione
di sistema”) anche in relazione alla collaborazione nella realizzazione
di queste rilevazioni e alle modifiche introdotte in base ai risultati (e
questo elemento comprende anche le rilevazioni morattiane degli anni passati).
Il nuovo ministero quindi ha deciso di intervenire e correggere il progetto
precedente su un unico elemento: la somministrazione universale dei test.
Questo aspetto era decisamente il più appariscente ed odioso della
gestione Moratti e presupponeva una scuola italiana supina alla didattica
nazionale degli ‘scienziati’ del ministero, una serie di elementi
di sapere nozionistico obbligatori per tutti da rilevare ogni due anni per
tutto il percorso di studi obbligatorio, una banca dati immensa di controllo
delle scuole, degli insegnanti, degli alunni che oltre ad essere inquietante,
non sappiamo quali sviluppi avrebbe potuto avere nel medio periodo. Tale enorme
progetto aveva anche in sé elementi debolissimi che sono immediatamente
emersi: forti resistenze dei genitori e degli insegnanti a questo disciplinamento
di stile autoritario, difficoltà di controllo dei risultati (ogni insegnante
dotato di senno aiutava i ragazzi). Il nuovo ministero ha probabilmente capito
che questa modalità di intervento non poteva essere gestita dall’apparato
delle dirigenze e tanto meno dall’Invalsi e dai suoi appaltatori: andava
sacrificata per mantenere in vita il progetto.
Infatti il progetto rimane vitale e, a mio parere, estremamente dannoso per
la scuola italiana.
Il tentativo è quello di ‘misurare l’efficienza e l’efficacia
di un sistema educativo con procedure standardizzate a livello nazionale’.
Viene sottolineata l’obbligatorietà, viene esteso l’arco
scolastico di riferimento, viene ribadita la continuità con i rilevamenti
passati, confermate le materie e la scelta dello strumento dei test. Quello
che ancora non si capisce bene è il fine di questo misurare.
Una prima motivazione, comprensibile ma non condivisibile, sarebbe il confronto
con efficienza ed efficacia dei sistemi educativi europei. Facile rispondere
che per questa esigenza esistono già ricerche che da anni suscitano
un mare di discussioni sulla loro attendibilità e sul senso in cui
è lecito leggerne i risultati. Perché aggiungerne un’altra?
Ma soprattutto: sono davvero confrontabili in astratto i risultati di un processo
complesso come quello dell’istruzione attraverso elementi così
poveri come le percentuali di risposte corrette o errate a domande secche?
E la creatività? E le competenze argomentative? E il sapere cooperativo?
E i tanti discorsi sul carattere processuale del sapere? Davvero sono confrontabili
i sistemi di istruzione sulla base di tanto labili e poveri elementi?
La seconda argomentazione, quella che spesso colleghi volenterosi e ben intenzionati
tendono a giudicare con troppa accondiscendenza, è che l’accumulo
di queste informazioni permetterebbe una riorganizzazione della pratica didattica
in modo da migliorare i risultati degli allievi. L’idea è quella
che se uno scienziato ci comunica che un bambino sbaglia 7 test su 12 di scienze,
poi l’insegnante ha in mano utili dati per riorganizzare la propria
attività e diminuire l’insuccesso dell’allievo. Il problema
è che questi dati non servono a nulla, se non a sapere che quell’allievo
ha sbagliato il compito.
Quando insieme ai colleghi riflettiamo sugli insuccessi scolastici che emergono
dalla pratica del nostro lavoro ricaviamo ben poco aiuto dalle prove di verifica,
che al massimo ci confermano tale insuccesso. Il percorso di comprensione
e di correzione, di autocritica, di aggiornamento e modifica delle pratiche
scolastiche e dei contesti di apprendimento parte da una rete ben più
complessa di osservazioni, confronti, sensazioni, comunicazioni che coinvolgono
in modo aperto noi e gli allievi e spesso arriva ai genitori e al contesto
sociale. Ciò che quindi rimane incomprensibile a chi lavora giorno
per giorno a scuola è come questa assurda idea di rilevare dati statistici
a livello nazionale possa innestare un feed back positivo con l’azione
quotidiana dell’insegnamento di ogni singola classe.
Ma se non ci permettono di confrontare in maniera attendibile e utile la scuola
italiana con le altre, se non ci aiutano a migliorare la pratica didattica,
perché bisogna continuare a contare questi items?
Forse perché la cultura di chi organizza la scuola rimane astratta
e burocratica, poco interessata a supportare i processi di autocorrezione
che ogni team, ogni scuola pratica giorno per giorno nella quotidianità.
Un numero più umano di alunni per classe, un numero di insegnanti che
risponda alle esigenze (come sostegno e Tempo Pieno), scuole vivibili con
giardini e mense e strumenti didattici nonché carta igienica a sufficienza
potrebbero farci salire in una mai formalizzata graduatoria internazionale
della civiltà scolastica. Ma di questo non si parla.
Forse, sotto sotto, anche nella versione di centro-sinistra dell’Invalsi
l’idea fissa è quella di riuscire, prima o poi, a gerarchizzare
le scuole e con esse alunni e insegnanti, in base a risultati che spesso poco
hanno a che fare con l’idea di un sapere critico e di cittadinanza ma
molto di più con l’idea confindustriale di “sapere”
da applicare in modo “efficiente ed efficace”, senza tutte quelle
inutili complicazioni collegate alla fatica e al piacere quotidiani di fare
scuola.
Gianluca Gabrielli (Cesp – Cobas)