Il cacciavite che gira a vuoto

Una riflessione a partire dalla Direttiva ministeriale sull’attività Invalsi

Quando imparano a contare i bambini solitamente vengono presi da un piacere voluttuoso per questa operazione: contano tutto. Scalini, armadietti, piastrelle, bottoni, qualsiasi elemento della realtà che li circonda nasconde numeri. Presto però questo piacere si riduce e gli stessi bambini continuano a quantificare solamente ciò che è pertinente ai problemi. Leggendo la confusa direttiva del Ministero all’Invalsi per le attività 2006-07 pare di capire che questa prima fase, questo caotico contare ciò che capita, sia ancora in pieno corso e che il cambiamento di governo non abbia svitato gran ché. Vediamo nel dettaglio.
Il ministro Moratti due anni fa aveva predisposto e fatto somministrare batterie di quiz a risposta multipla a tutta la popolazione scolastica di II, IV elementare e I media nelle materie di italiano, matematica e scienze. Il costo era di 3,9 milioni di euro destinati alle imprese private che si sono garantite l’appalto. L’obiettivo era di misurare nella scuola italiana la produttività di sapere nozionistico e logico e il grado di adattamento alla didattica a risposte chiuse. Inoltre si proponeva - con la forza persuasiva del bollino di ‘accertata scientificità’ - una specie di nuovo libro unico per tutti gli insegnanti del regno basato sulle nuove Indicazioni Nazionali e con effetto retroattivo sulla didattica. Così facendo è stato composto un data base delle classi e delle scuole italiane in ordine di ‘produttività’, pronto per eventuali futuri processi di gerarchizzazione degli istituti e degli insegnanti.
L’architettura di questo progetto era grandiosa e impegnativa, coerentemente di destra, filosoficamente neopositivista e cognitivista.
Il nuovo ministero dopo alcuni mesi ha emesso una direttiva che non interrompe questo processo ma lo riarticola. Vediamo come muta il progetto morattiano.
L’orizzonte degli elementi da valutare rimane quello delle Indicazioni Nazionali (che la pratica del ‘cacciavite’ ha lasciato in vita). La valutazione è ancora elaborata e imposta a livello nazionale a prescindere dalle articolazioni locali delle programmazioni e dalla mutevole composizione delle classi. Viene sottolineata la scientificità dell’elaborazione delle prove (“sulla base di appropriate metodologie scientifiche di validazione e taratura degli item”) come se fosse questo l’elemento carente nelle batterie di test messi a punto in precedenza. I soggetti cui imporre le prove, che anche questo governo indica come obbligatorie, rimangono gli alunni di II e IV elementare; nella scuola media si passa dalla I alla II, sono inoltre aggiunti gli allievi della I e III classe della scuola superiore. La somministrazione però non è più universale ma a campione e dovrà essere effettuata “mediante l’assistenza di rilevatori esterni”. Rimane infine il proposito di valutare le scuole (“valutazione di sistema”) anche in relazione alla collaborazione nella realizzazione di queste rilevazioni e alle modifiche introdotte in base ai risultati (e questo elemento comprende anche le rilevazioni morattiane degli anni passati).
Il nuovo ministero quindi ha deciso di intervenire e correggere il progetto precedente su un unico elemento: la somministrazione universale dei test. Questo aspetto era decisamente il più appariscente ed odioso della gestione Moratti e presupponeva una scuola italiana supina alla didattica nazionale degli ‘scienziati’ del ministero, una serie di elementi di sapere nozionistico obbligatori per tutti da rilevare ogni due anni per tutto il percorso di studi obbligatorio, una banca dati immensa di controllo delle scuole, degli insegnanti, degli alunni che oltre ad essere inquietante, non sappiamo quali sviluppi avrebbe potuto avere nel medio periodo. Tale enorme progetto aveva anche in sé elementi debolissimi che sono immediatamente emersi: forti resistenze dei genitori e degli insegnanti a questo disciplinamento di stile autoritario, difficoltà di controllo dei risultati (ogni insegnante dotato di senno aiutava i ragazzi). Il nuovo ministero ha probabilmente capito che questa modalità di intervento non poteva essere gestita dall’apparato delle dirigenze e tanto meno dall’Invalsi e dai suoi appaltatori: andava sacrificata per mantenere in vita il progetto.
Infatti il progetto rimane vitale e, a mio parere, estremamente dannoso per la scuola italiana.
Il tentativo è quello di ‘misurare l’efficienza e l’efficacia di un sistema educativo con procedure standardizzate a livello nazionale’. Viene sottolineata l’obbligatorietà, viene esteso l’arco scolastico di riferimento, viene ribadita la continuità con i rilevamenti passati, confermate le materie e la scelta dello strumento dei test. Quello che ancora non si capisce bene è il fine di questo misurare.
Una prima motivazione, comprensibile ma non condivisibile, sarebbe il confronto con efficienza ed efficacia dei sistemi educativi europei. Facile rispondere che per questa esigenza esistono già ricerche che da anni suscitano un mare di discussioni sulla loro attendibilità e sul senso in cui è lecito leggerne i risultati. Perché aggiungerne un’altra? Ma soprattutto: sono davvero confrontabili in astratto i risultati di un processo complesso come quello dell’istruzione attraverso elementi così poveri come le percentuali di risposte corrette o errate a domande secche? E la creatività? E le competenze argomentative? E il sapere cooperativo? E i tanti discorsi sul carattere processuale del sapere? Davvero sono confrontabili i sistemi di istruzione sulla base di tanto labili e poveri elementi?
La seconda argomentazione, quella che spesso colleghi volenterosi e ben intenzionati tendono a giudicare con troppa accondiscendenza, è che l’accumulo di queste informazioni permetterebbe una riorganizzazione della pratica didattica in modo da migliorare i risultati degli allievi. L’idea è quella che se uno scienziato ci comunica che un bambino sbaglia 7 test su 12 di scienze, poi l’insegnante ha in mano utili dati per riorganizzare la propria attività e diminuire l’insuccesso dell’allievo. Il problema è che questi dati non servono a nulla, se non a sapere che quell’allievo ha sbagliato il compito.
Quando insieme ai colleghi riflettiamo sugli insuccessi scolastici che emergono dalla pratica del nostro lavoro ricaviamo ben poco aiuto dalle prove di verifica, che al massimo ci confermano tale insuccesso. Il percorso di comprensione e di correzione, di autocritica, di aggiornamento e modifica delle pratiche scolastiche e dei contesti di apprendimento parte da una rete ben più complessa di osservazioni, confronti, sensazioni, comunicazioni che coinvolgono in modo aperto noi e gli allievi e spesso arriva ai genitori e al contesto sociale. Ciò che quindi rimane incomprensibile a chi lavora giorno per giorno a scuola è come questa assurda idea di rilevare dati statistici a livello nazionale possa innestare un feed back positivo con l’azione quotidiana dell’insegnamento di ogni singola classe.
Ma se non ci permettono di confrontare in maniera attendibile e utile la scuola italiana con le altre, se non ci aiutano a migliorare la pratica didattica, perché bisogna continuare a contare questi items?
Forse perché la cultura di chi organizza la scuola rimane astratta e burocratica, poco interessata a supportare i processi di autocorrezione che ogni team, ogni scuola pratica giorno per giorno nella quotidianità. Un numero più umano di alunni per classe, un numero di insegnanti che risponda alle esigenze (come sostegno e Tempo Pieno), scuole vivibili con giardini e mense e strumenti didattici nonché carta igienica a sufficienza potrebbero farci salire in una mai formalizzata graduatoria internazionale della civiltà scolastica. Ma di questo non si parla.
Forse, sotto sotto, anche nella versione di centro-sinistra dell’Invalsi l’idea fissa è quella di riuscire, prima o poi, a gerarchizzare le scuole e con esse alunni e insegnanti, in base a risultati che spesso poco hanno a che fare con l’idea di un sapere critico e di cittadinanza ma molto di più con l’idea confindustriale di “sapere” da applicare in modo “efficiente ed efficace”, senza tutte quelle inutili complicazioni collegate alla fatica e al piacere quotidiani di fare scuola.

Gianluca Gabrielli (Cesp – Cobas)