laletteraturaenoi

!-

diretto da Romano Luperini

-->
icomail twitter facebook
marcella

Comprendere la valutazione degli insegnanti: un compendio per i politici

2357

Traduzione a cura di Valentina Celona

E’ opinione diffusa tra i professionisti, i ricercatori e i politici che il sistema corrente di valutazione degli insegnanti nella maggior parte dei distretti scolastici sia di scarso aiuto agli insegnanti per migliorare o supportare le proprie capacità decisionali. Per questo motivo si stanno sperimentando e testando nuovi approcci alla valutazione degli insegnanti.

C’è anche consenso crescente sul fatto che le evidenze del contributo degli insegnanti all’apprendimento degli studenti dovrebbero essere una componente dei sistemi di valutazione insieme alle evidenze sulla qualità del metodo degli insegnanti. ”I modelli di valore aggiunto”(VAM) che guardano al miglioramento nei punteggi riportati nei test da un anno all’altro vengono promossi come metodi per raggiungere questa meta. Anche chi ci governa può beneficiare della ricerca per sapere cosa questi modelli possono o non possono fare e della ricerca sugli effetti che hanno gli altri approcci sulla valutazione degli insegnanti. Questo compendio riguarda queste due importanti questioni.

Ricerca sui modelli di Valore Aggiunto dall’ “efficacia” degli insegnanti

I ricercatori hanno sviluppato metodi di Valore Aggiunto per guardare ai risultati raggiunti dagli studenti usando metodi statistici che permettano di misurare il cambiamento dei punteggi nel tempo, tenendo in considerazione anche le caratteristiche degli studenti ed altri fattori che influenzano i risultati.

Negli studi su larga scala questi metodi sono risultati importanti perché tengono in considerazione una gamma di fattori che influenzano i risultati scolastici e che misurano gli effetti dei programmi o degli interventi.

Se applicato alla valutazione individuale dell’insegnante, l’uso del VAM dà per assunto che il miglioramento misurato nel rendimento dello studente, collegato a quello specifico insegnante, rifletta l’”efficacia” di quell’insegnante. Arrivare a questa conclusione, comunque, significa che l’apprendimento è stato ben misurato da un dato test, è influenzato solo dall’insegnante ed è indipendente dalla crescita dei compagni ed altri aspetti del contesto classe.

Comunque la ricerca rivela che i risultati di uno studente ed i miglioramenti misurati dipendano da molti altri fattori che non la semplice “efficacia” dell’insegnante. Questi altri fattori includono:

Fattori scolastici come il numero di alunni, i materiali curriculari, il tempo della didattica, la disponibilità di specialisti e tutor e le risorse per l’apprendimento (libri, computer, laboratori scientifici ed altro)

Supporto a casa e competizione nella comunità scolastica

Bisogni ed abilità individuali degli studenti, stato di salute e frequenza.

Cultura dell’istruzione dei pari e risultati conseguiti

Insegnanti e precedente scolarizzazione, ma anche insegnanti del momento contingente

Diverso grado di perdita dell’apprendimento nel periodo estivo, che influenza principalmente le famiglie con basso reddito

Gli specifici test usati, che enfatizzano alcuni tipi di apprendimento e non altri, e che raramente misurano risultati molto alti o molto bassi.

Molti di questi fattori non sono realmente misurati nei modelli a valore aggiunto e lo sforzo e l’abilità dell’insegnante, anche se importante, riveste una parte relativamente piccola di questa complessa equazione. Di conseguenza i ricercatori hanno documentato un certo numero di problemi per appurare se il metodo VAM può essere considerato un metodo accurato per misurare l’efficacia dell’insegnamento.

I modelli di Valore Aggiunto sono altamente instabili

I ricercatori hanno scoperto che le misurazioni dell’efficacia degli insegnanti variano in modo sostanziale di classe in classe e di anno in anno, così come da un modello statistico ad un altro, come mostra la tabella 1.

Tabella 1: Percentuale di Insegnanti i cui Ranking di efficacia Cambiano di 1 o più decili

Di 2 o più decili

Di 3 o più decili

Across models a

56-80%

12-33%

0-14%

Across courses b

85-100%

54-92%

39-54%

Across years b

74-93%

45-63%

19-41%

Note: a Depending on pair of models compared. b Depending on the model used.

Source: Newton, Darling-Hammond, Haertel, and Thomas (2010).

Uno studio che esaminava i risultati di 5 diversi distretti scolastici scoprì per esempio che di quegli insegnanti i cui risultati erano attorno al 20% dei risultati più bassi in un dato anno, solo il 20% o 30% aveva gli stessi risultati l’anno successivo, mentre un numero compreso tra il 25 ed il 45% si era spostato nella parte alta della distribuzione, posizionandosi ben sopra la media (vedi Figura 1).

La stessa cosa valeva per coloro che si trovavano nella parte alta della distribuzione in un anno: una piccola minoranza rimaneva nella stessa banda l’anno successivo, mentre la maggior parte dei punteggi si muoveva verso altre parti della distribuzione.

L’efficacia misurata degli insegnanti varia significativamente se si usano metodi statistici diversi2.Per esempio, quando i ricercatori utilizzarono un modello diverso per ricalcolare i valori di VAM degli insegnanti pubblicati nel Los Angeles Times del 2011, essi scoprirono che il 40- 55% di loro avrebbe ottenuto punteggi notevolmente differenti usando una VAM che tenesse conto delle valutazioni degli studenti in modo diverso.3

I punteggi di VAM degli insegnanti variano significativamente quando si usano test diversi. anche se all’interno della stessa area di contenuto.4 .Per esempio:

In uno studio che usava due test che misuravano le abilità di base e quelle di ordine più alto, il 20-30% degli insegnanti che si erano posizionati nel quartile alto per quanto riguardava il loro impatto sui test nazionali si posizionavano invece nella parte bassa della distribuzione, se i test erano più impegnativi dal punto di vista concettuale (e viceversa).5

La stimata efficacia degli insegnanti è molto diversa nei sottoinsiemi “Procedure” e “Problem solving” dello stesso test di matematica.6

Gli effetti degli insegnanti sui test più difficili non sono strettamente correlati ai risultati di test più abbordabili e si dissipano più velocemente.7

Ciò fa nascere preoccupazione sia sulla misurazione dell’errore che, quando i risultati della valutazione degli insegnanti sono legati ai punteggi degli studenti, sugli effetti dell’enfasi di “insegnare per il test”, alle spese di altri tipi di apprendimento, data specialmente la severità della maggior parte dei test correntemente usati negli Stati Uniti.

Le classificazioni degli insegnanti secondo VAM sono influenzate significativamente dalle differenze degli studenti a loro assegnati

I metodi che si basano sul valore aggiunto richiedono che gli studenti siano assegnati ai loro insegnanti in modo casuale. Invece gli studenti non vengono assegnati agli insegnanti in modo casuale – ed i metodi statistici non possono riparare al fatto che alcuni insegnanti avranno un numero sproporzionato di studenti che devono affrontare sfide più grandi (studenti con frequenza scarsa, che sono senza casa, che hanno gravi problemi a casa, ecc.) e quelli i cui punteggi nei test tradizionali non riflettono a pieno il loro apprendimento (cioè quelli che hanno bisogni educativi speciali o principianti di lingua inglese).

Questi fattori possono da un lato creare stime errate dell’efficacia degli insegnanti e dall’altro disincentivare gli insegnanti che vogliono insegnare a coloro i quali hanno maggiori bisogni educativi.

Anche quando il modello include il controllo dei risultati precedenti e delle variabili demografiche degli studenti, gli insegnanti sono avvantaggiati o svantaggiati in base agli studenti che formano la loro utenza. Molti studi hanno dimostrato questa tesi attraverso test che guardano agli effetti degli insegnanti sugli studenti in classi di grado inferiore o superiore rispetto a quella in cui l’insegnante lavora. Logicamente insegnanti della quinta classe non possono influenzare i punteggi dei test degli insegnanti della classe terza. Quindi un VAM che identifichi i veri effetti degli insegnanti non dovrebbe mostrare alcun effetto degli insegnanti della quinta classe sui punteggi dei test dei loro studenti della terza classe due anni prima. Ma gli studi che se ne sono occupati hanno dimostrato notevoli effetti – il che suggerisce che gli studenti sono allo stesso modo influenzati dal VAM anche nei confronti degli insegnanti che insegnano in un dato anno scolastico.8

Uno studio che scoprì una considerevole instabilità nei punteggi di valore aggiunto degli insegnanti da una classe ad un’altra e da un anno a un altro esaminava i cambiamenti nelle caratteristiche degli studenti associate a cambiamenti nelle classificazioni degli insegnanti. Dopo aver controllato i precedenti punteggi riportati dagli studenti nei test e le caratteristiche degli studenti, lo studio ha scoperto significative correlazioni tra le classificazioni degli insegnanti e l’etnia, il reddito, il background linguistico e l’istruzione degli studenti.

La figura 2 mostra questa scoperta su di un insegnante con esperienza i cui risultati passarono da bassissimi un anno ad altissimi l’anno dopo (un salto dal primo al decimo decile).Il secondo anno lo stesso insegnante aveva molti meno studenti che non parlavano inglese, meno ispanici, studenti con famiglie a basso reddito e più studenti con genitori istruiti rispetto all’anno precedente.

Questa variabilità fa nascere preoccupazioni sul fatto che l’uso di tali classificazioni per valutare gli studenti potrebbe disincentivare gli insegnanti ad aiutare gli studenti con bisogni maggiori. Ciò potrebbe inconsapevolmente rinforzare le diseguaglianze, perché agli insegnanti che potessero scegliere sarebbero sconsigliate classi o scuole con questi tipi di studenti, o gli sarebbe consigliato di cercare di evitare che studenti con queste caratteristiche finissero nelle loro classi.

Classificazioni e influenze

E’ impossibile separare completamente le influenze degli altri insegnanti sugli studenti, così come il contesto scolastico dal loro apprendimento. Il merito dell’apprendimento di uno studente non è del singolo insegnante. Gli insegnanti precedenti hanno effetti duraturi, nel bene o nel male, sul successivo apprendimento degli studenti e gli insegnanti del momento interagiscono anche loro per produrre conoscenze e abilità degli studenti. Per esempio, la scrittura del saggio di storia che uno studente impara grazie al suo insegnante di storia può essere attribuito al suo insegnante di inglese, anche se non assegna compiti di scrittura; la matematica che lo studente impara nelle lezioni di fisica può essere attribuita al suo insegnante di matematica. Abilità ed argomenti specifici insegnati in un anno scolastico possono essere testati più tardi, se non addirittura non testati affatto. Alcuni studenti ricevono tutoraggio ed anche aiuto dai genitori istruiti. Un insegnante che lavora in una scuola con risorse e supporti specialistici può sembrare più efficace di uno i cui studenti non usufruiscono di questi supporti. Come notò Henry Braun all’ETS (Educational Testing Service) :

E’ sempre possibile produrre stime di ciò che il modello definisce come effetti dell’insegnante. Queste stime, comunque, racchiudono i contributi di una serie di fattori, di cui quelli dovuti all’insegnante sono solo una parte. Così trattare gli effetti dell’insegnante come indicatori accurati dell’efficacia dell’insegnante è controverso.9

La ricerca iniziale sull’uso dei metodi di valori aggiunto per licenziare alcuni insegnanti e dare dei riconoscimenti ad altri mostra che le classificazioni basate sul valore aggiunto spesso non concordano con le valutazioni che gli insegnanti ricevono da osservatori esperti e sono influenzate da tutti i fattori descritti sopra.

Per esempio, tra diversi insegnanti licenziati ad Houston come risultato dei punteggi nei test basati sul valore aggiunto, un’insegnante, una veterana con dieci anni di esperienza, era stata “Insegnante dell’anno” ed ogni anno era stata valutata con rendimento “ oltre le aspettative” dal suo supervisore. Lei mostrò punteggi positivi di VAM in 8 su 16 test in 4 anni (il 50% delle osservazioni totali), dipendendo in parte dalla classe in cui le veniva chiesto di insegnare. Un’ altra insegnante, anche lei considerata come “oltre le aspettative” o “competente” dal suo supervisore, e che aveva punteggi positivi di VAM circa il 50% delle volte, ebbe un notevole calo nelle sue valutazioni di VAM quando un gran numero di allievi con scarsa conoscenza dell’inglese transitarono nella sua classe.10 Globalmente lo studio dimostrò che in questo sistema:

Non si può identificare una correlazione tra i metodi usati dai docenti e le loro classificazioni in base al VAM, che appaiono imprevedibili;

Le classificazioni cambiano considerevolmente quando gli insegnanti cambiano livello di classe, da “inefficaci” ad “efficaci” e viceversa;

Gli insegnanti che lavorano in classi dove sono transitati allievi con scarsa conoscenza della lingua inglese hanno minori probabilità di mostrare “valore aggiunto”;

Gli insegnanti che lavorano in classi con un gran numero di studenti con bisogni educativi speciali hanno avuto livelli di valore aggiunto più bassi, in media;

Gli insegnanti che lavorano con studenti dotati hanno poco valore aggiunto, perché i loro studenti sono già in cima alla distribuzione;

Gli insegnanti riportano di cercare di aumentare i propri punteggi evitando alcune materie e tipologie di studenti e cercando di essere assegnati a classi particolari ovvero insegnare particolari materie;

Gli insegnanti riportano anche di essere confusi e demoralizzati dal sistema.

Il consenso professionale sull’uso dei metodi di valore aggiunto nella valutazione degli insegnanti

Per tutti questi motivi, la maggior parte dei ricercatori hanno concluso che il VAM non è appropriato come metodo principale per la valutazione dei singoli docenti. Un importante rapporto fatto dalla società RAND ha concluso che:

“Le fondamenta della ricerca sono al momento insufficienti per supportare decisioni rischiose sui singoli insegnanti o scuole”.11

Allo stesso modo, Henry Braun del Servizio di Valutazione dell’Istruzione ha concluso:

I risultati del VAM non possono servire come unica e principale base per prendere decisioni sugli insegnanti. Ci sono molte insidie nel riconoscere l’efficacia dei docenti sulla base del tipo di dati disponibili nei distretti scolastici. Ci manca ancora una comprensione sufficiente di quanto i diversi problemi tecnici minaccino seriamente la validità di tali interpretazioni.12

Infine, la Commissione del Consiglio Nazionale di Ricerca sulle Prove e Valutazione ha concluso che:

Le stime di Valore Aggiunto riguardo l’efficacia dei docenti che si basano sui dati di una singola classe non dovrebbero essere usate per prendere decisioni, perché queste stime sono molto lontane dall’essere considerate corrette o attendibili.13

Altri approcci alla valutazione dell’insegnante

I metodi di valutazione del valore aggiunto basati sui punteggi dei test degli studenti risultano problematici per prendere decisioni sulla valutazione dei singoli insegnanti, ma sono utili per monitorare gruppi di insegnanti a scopo di ricerca – per esempio per esaminare come alcune pratiche specifiche d’insegnamento o aspetti dell’insegnamento influenzino l’apprendimento di un gran numero di studenti. Il fatto che questi studi siano su larga scala riduce l’errore e l’uso frequente di una più ampia gamma di esiti permette una comprensione maggiore della gamma di effetti utilizzando particolari strategie o mettendo in essere particolari interventi.

Questo tipo di analisi fornisce altre idee per la valutazione degli insegnanti, perché c’è un grande numero di documenti raccolti in decenni che mostrano come specifiche pratiche d’insegnamento influenzino gli esiti di apprendimento degli studenti. Per esempio, ci sono testimonianze ragguardevoli sul fatto che gli insegnanti efficaci:

Comprendono le materie in modo profondo ma le usano in modo flessibile

Collegano ciò che gli studenti devono imparare alla loro conoscenza ed esperienza pregressa

Creano fondamenta solide e danno supporti per l’apprendimento

Usano strategie educative che aiutano gli studenti ad inferire i collegamenti, applicare ciò che stanno imparando, utilizzare le nuove abilità e a monitorare il loro apprendimento

Valutano continuamente l’apprendimento degli studenti e lo adattano ai loro bisogni

Danno standard di riferimento chiari, feedback costanti e opportunità di rivedere

Sviluppano e gestiscono efficacemente una classe collaborativa in cui tutti gli studenti sono partecipi al lavoro di classe

Questi aspetti dell’insegnamento efficace, supportati dalla ricerca, sono stati incorporati negli standard professionali dell’insegnamento che offrono alcuni approcci utili alla valutazione degli insegnanti.

Usare gli standard professionali per la valutazione degli insegnanti

Gli standard professionali che definiscono l’insegnamento efficace furono sviluppati per la prima volta dall’Associazione Nazionale per stabilire gli Standard Professionali dell’Insegnamento (NBPTS) al fine di guidare la valutazione di insegnanti di comprovata esperienza. Di conseguenza, un gruppo di stati che lavorava insieme sotto gli auspici del Consiglio dei Dirigenti Scolastici Statali ha creato il Nuovo Consorzio Interstatale per la Valutazione ed il Sostegno degli Insegnanti (INTASC), che li ha tradotti in standard per insegnanti alle prime armi, adottati da oltre 40 stati per l’inserimento iniziale degli insegnanti.

Una recente revisione degli standard d’insegnamento dell’INTASC ha dato come risultato il loro allineamento agli standard comuni al fine di riflettere sul tipo di conoscenze, abilità e comprensione di cui necessitano gli insegnanti per rispettare gli standard.

Questi standard sono diventati le basi per la valutazione dell’insegnamento che produce punteggi molto più stabili delle misure di valore aggiunto. Allo stesso tempo, esse hanno incorporato le prove dell’apprendimento degli studenti e sono stati recentemente mostrati negli studi su larga scala per prevedere l’efficacia del valore aggiunto degli insegnanti e quindi favoriscono una più stabile valutazione dell’apprendimento degli studenti. Di solito le valutazioni di performance chiedono agli insegnanti di documentare i loro progetti ed insegnare secondo unità didattiche collegate agli standard d’insegnamento, adattarli agli studenti con bisogni educativi speciali e principianti della lingua inglese, videoregistrare e rivedere in modo critico le lezioni, raccogliere e valutare le prove dell’apprendimento degli studenti.

Una serie di studi ha scoperto che il processo di valutazione della Commissione Nazionale di Certificazione riesce ad identificare gli insegnanti che sono più efficaci nel produrre miglioramenti negli esiti degli studenti rispetto ad altri.15 E’ altrettanto importante la partecipazione degli insegnanti al processo effettuato dalla Commissione Nazionale perché stimola miglioramenti all’interno della propria pratica didattica. 16

Valutazioni simili delle performance, utilizzate con i neoassunti nel Connecticut ed in California, si è scoperto siano in grado di prevedere i miglioramenti degli esiti degli studenti nei test statali.17La valutazione della performance per gli insegnanti della California (PACT) si è scoperto che migliora le competenze degli insegnanti alle prime armi e stimola miglioramenti nelle pratiche educative degli insegnanti che li usano come metro.18

Gli standard professionali sono stati tradotti anche in strumenti di valutazione degli insegnanti in uso a livello locale. In uno studio su tre distretti che usavano sistemi di valutazione basati sugli standard, i ricercatori hanno trovato significative relazioni tra le classificazioni degli insegnanti ed il guadagno di punteggio degli studenti su test standardizzati ed hanno provato che la prassi degli insegnanti migliorava se venivano restituiti con frequenza feedback i relazione agli standard.19 Nelle scuole e nei distretti presi in esame le valutazioni degli insegnanti si basavano su standard di prassi ben articolati valutati attraverso prove che includevano osservazioni dell’insegnamento insieme ad interviste pre e post osservazione ed, a volte, manufatti come strutture di lezioni, compiti assegnati e campioni di lavori degli studenti.

Trovare ulteriori misure collegate all’efficacia degli insegnanti

La fondazione Gates ha lanciato una grande iniziativa per trovare altri strumenti che sono stati ritenuti validi per il miglioramento dei risultati degli studenti e possono essere usati nella valutazione degli insegnanti a livello locale. Il Progetto Misura dell’Insegnamento Efficace (MET) ha sviluppato una serie di strumenti, alcuni basati sulle valutazioni standard prima descritte, altri che prendono un nuovo corso. Tra questi ci sono osservazioni o videoregistrazioni di insegnanti, insieme ad altri prodotti (struttura della lezione, compiti, ecc) che possono essere valutati secondo un set di standard che riflettono le pratiche associate all’insegnamento efficace. Sono inclusi anche i sondaggi sulla pratica dell’insegnamento, che si è scoperto, in uno studio iniziale, essere significativamente correlate al miglioramento degli esiti degli studenti.20

Paesi come Singapore danno un’enfasi maggiore alla collaborazione tra insegnanti nei loro sistemi valutativi. Questo tipo di approccio è supportato da studi che hanno scoperto che un maggiore valore aggiunto negli studenti viene favorito da insegnanti che lavorano insieme come una squadra21 e da livelli più alti di collaborazione tra docenti per il miglioramento della scuola22.

Alcuni sistemi richiedono agli insegnanti di assemblare evidenze dell’apprendimento degli studenti come parte del giudizio globale sull’efficacia. Tale evidenza deriva dalle classi, dalla valutazione del livello della scuola e dalla documentazione, incluse misure pre e post test di apprendimento in specifici corsi o aree del curricolo e la prova dei risultati raggiunti in relazione alle attività di insegnamento.

Uno studio del programma di avanzamento di carriera dell’Arizona, che richiede l’uso di vari metodi di valutazione dello studente per completare le valutazioni della didattica degli insegnanti, ha scoperto che, nel tempo, gli insegnanti che partecipavano hanno dimostrato un’aumentata capacità di creare strumenti di valutazione sviluppati localmente per valutare i miglioramenti nell’apprendimento dei propri studenti, sviluppare e valutare test d’ingresso e finali, definire esiti misurabili in aree difficili da quantificare come l’arte, la musica e l’educazione fisica e monitorare la crescita dell’apprendimento dello studente. Hanno anche dimostrato una maggiore consapevolezza dell’importanza dello sviluppo del curricolo solido, di un maggiore allineamento del curricolo con gli obiettivi locali ed un’aumentata focalizzazione sui contenuti di qualità più alta, sulle abilità e le strategie didattiche23. Così lo sviluppo e l’uso dell’evidenza dell’apprendimento dello studente, combinato insieme all’esame delle performance di insegnamento, può stimolare miglioramenti nella pratica didattica.

Costruire sistemi di valutazione degli insegnanti che sostengano il miglioramento e la decisionalità

I sistemi che aiutano gli insegnanti a migliorare e supportano decisioni tempestive ed efficienti sul personale hanno strumenti più che validi. I sistemi di successo usano osservazioni di più classi fatte in un anno scolastico da parte di valutatori esperti che cercano multiple fonti di dati che riflettano la pratica didattica di un insegnante e forniscono feedback significativi e tempestivi all’insegnante stesso.

Per esempio, il Programma di Avanzamento degli Insegnanti, che si basa sugli standard dell’NBPTS e dell’INTASC, così come anche le rubriche di valutazione basate sugli standard sviluppate nel Connecticut,24 assicurano che gli insegnanti siano valutati dalle quattro alle sei volte l’anno da maestri/mentori o dirigenti che sono stati addestrati e certificati in un rigoroso corso di quattro giorni. Gli indicatori del buon insegnamento sono pratiche che si è scoperto sono associate agli auspicati esiti degli studenti. Gli insegnanti studiano anche la rubrica e le sue implicazioni nell’insegnamento/apprendimento, guardano e valutano episodi di insegnamento usando la rubrica e si impegnano in valutazioni della pratica didattica. Dopo ogni osservazione il valutatore e l’insegnante si incontrano per discutere di quanto osservato e per fare un piano di miglioramento crescente. Lo sviluppo professionale continuo, il tutoraggio ed il supporto alla classe vengono forniti per aiutare gli insegnanti a raggiungere questi standard. Gli insegnanti delle scuole che partecipano a questo programma riportano che questo sistema, insieme all’intenso sviluppo professionale offerto, è sostanzialmente responsabile dei miglioramenti nella pratica didattica e dell’incremento dei risultati degli studenti che si sono avuti in molte di queste scuole.25

Nei distretti che usano i programmi di Assistenza e Revisione dei Pari (PAR) insegnanti mentori di comprovata esperienza conducono alcuni aspetti della valutazione e forniscono assistenza agli insegnanti che ne hanno bisogno. Le caratteristiche chiave di questi sistemi includono non solo gli strumenti usati per la valutazione, ma anche l’abilità dei consulenti insegnanti o mentori – insegnanti esperti nella stessa materia e livello scolastico che hanno dedicato del tempo a fare da tutor ai propri colleghi – ed il sistema del giusto processo e revisione che coinvolge un gruppo di insegnanti ed amministratori nel formulare raccomandazioni sulle decisioni da prendere riguardo al personale basate sulle evidenze presentate a loro dalle valutazioni. E’ stato riscontrato che molti sistemi che usano questo approccio non solo migliorano l’insegnamento, ma identificano anche gli insegnanti per la continuità dell’incarico, l’assistenza intensiva e l’azione sul personale.26

Sintesi e conclusioni

I nuovi approcci alla valutazione degli insegnanti dovrebbero avvantaggiarsi della ricerca sull’efficacia degli insegnanti. Mentre ci sono pericoli considerevoli nell’usare i punteggi dei test da valore aggiunto per valutare i singoli insegnanti direttamente, l’uso del metodo del valore aggiunto può aiutare a validare le misure che sono produttive per la valutazione degli insegnanti in generale.

Con rispetto alle misure di valore aggiunto dei risultati degli studenti collegati ai singoli insegnanti, la ricerca corrente suggerisce che le decisioni molto rischiose a livello individuale o i paragoni tra scuole molto dissimili o popolazioni studentesche diverse andrebbero evitati. Le interpretazioni valide richiedono dati di livello aggregati e dovrebbero assicurare che i fattori ambientali- inclusa la composizione globale delle classi – siano il più simile possibile tra gruppi messi a confronto. In generale, tali misure dovrebbero essere usate solo con il minimo rischio possibile quando fanno parte di un’analisi integrata di cosa sta facendo l’insegnante e cosa si sta insegnando.

Altri strumenti di valutazione che hanno dimostrato di prevedere i miglioramenti degli studenti e che sono produttivi per l’apprendimento degli insegnanti includono processi di valutazione basati sugli standard. Questi includono sistemi quali la Certificazione della Commissione Nazionale e le valutazioni delle performance degli insegnanti principianti così come anche gli strumenti basati sugli standard professionali d’insegnamento a livello scolastico e distrettuale. I sistemi efficaci hanno sviluppato un set integrato di misure che mostrano cosa fanno gli insegnanti e cosa succede come risultato. Queste misure possono includere prove del lavoro e dell’apprendimento degli studenti, ma anche prove delle pratiche didattiche derivate da osservazioni, filmati, prodotti e persino sondaggi degli studenti.

Questi strumenti sono più efficaci se integrati in sistemi che sostengono la valutazione dell’abilità del corpo docente e prendano decisioni ben ponderate, assicurando che i valutatori siano formati, che la valutazione ed il feedback siano frequenti, che il tutoraggio e lo sviluppo professionale siano disponibili ed i processi in atto per supportare il processo decisionale tempestivi da parte di un gruppo appositamente predisposto.

Con queste caratteristiche, la valutazione può diventare la parte più utile di un sistema produttivo di capitale umano, fornendo accurate informazioni sugli insegnanti, feedback utili e scelte ben ponderate sul personale scolastico.

_____________

NOTE

L'articolo originale può essere letto qui: https://edpolicy.stanford.edu/sites/default/files/publications/getting-teacher-evaluation-right-challenge-policy-makers.pdf

1 Newton, X., Darling-Hammond, L., Haertel, E., & Thomas, E. (2010) Value-Added Modeling of Teacher Effectiveness: An exploration of stability across models and contexts. Educational Policy Analysis Archives, 18 (23). http://epaa.asu.edu/ojs/article/view/810; Sass

2 Newton et al. (2010); Rothstein, J. (2007). Do Value-Added Models Add Value? Tracking, Fixed Effects, and Causal Inference. National Bureau for Economic Research.

3 Briggs, D. & Domingue, B. (2011). Due Diligence and the Evaluation of Teachers: A review of the value-added analysis underlying the effectiveness rankings of Los Angeles Unified School District teachers by the Los Angeles Times. Boulder, CO: National Education Policy Center.

4 Lockwood, J. R., McCaffrey, D. F., Hamilton, L.S., Stetcher, B., Le, V. N., & Martinez, J. F. (2007). The sensitivity of value-added teacher effect estimates to different mathematics achievement measures. Journal of Educational Measurement, 44 (1), 47 – 67.

5 Bill & Melinda Gates Foundation (2010). Learning About Teaching: Initial Findings from the Measures of Effective Teaching Project. Seattle: Author. Rothstein, Jesse (2011). Review of ‘Learning About Teaching: Initial Findings from the Measures of Effective Teaching Project. Boulder, CO: National Education Policy Center.

6 Lockwood et al. (2007).

7 Corcoran, Sean P., Jennifer L. Jennings, and Andrew A. Beveridge (2011). Teacher effectiveness on high- and low-stakes tests. Working paper. NY: New York University.

8 Briggs & Domingue (2011). Rothstein, Jesse (2010). “Teacher Quality in Educational Production: Tracking, Decay, and Student Achievement,” Quarterly Journal of Economics 125(1).

9 Henry Braun (2005). Using Student Progress to Evaluate Teachers: A Primer on Value-Added Models (Princeton, NJ: Educational Testing Service.

10 Audrey Amrein-Beardsley & C. Collins (in press). The SAS® Education Value-Added Assessment System (EVAAS®): Its Intended and Unintended Effects in a Major Urban School System.

11 Daniel F. McCaffrey, Daniel Koretz, J. R. Lockwood, Laura S. Hamilton (2005). Evaluating Value-Added Models for Teacher Accountability. Santa Monica: RAND Corporation.

12 Henry Braun, Using Student Progress to Evaluate Teachers: A Primer on Value-Added Models (Princeton, NJ: ETS, 2005), p. 17.

13 National Research Council, Board on Testing and Assessment (2009). Letter Report to the U.S. Department of Education.

14 For a summary of studies, see L. Darling-Hammond & J. Bransford (2005). Preparing Teachers for a Changing World: What Teachers should Learn and Be Able to Do. San Francisco: Jossey-Bass.

15 See for example, L. Bond, T. Smith, W. Baker, & J. Hattie (2000). The certification system of the National Board for Professional Teaching Standards: A construct and consequential validity study (Greensboro, NC: Center for Educational Research and Evaluation); Cavaluzzo, L. (2004). Is National Board Certification an effective signal of teacher quality? (National Science Foundation No. REC-0107014). Alexandria, VA: The CNA Corporation; Goldhaber, D., & Anthony, E. (2005). Can teacher quality be effectively assessed? Seattle, WA: University of Washington and the Urban Institute; Smith, T., Gordon, B., Colby, S., & Wang, J. (2005). An examination of the relationship of the depth of student learning and National Board certification status (Office for Research on Teaching, Appalachian State University). Vandevoort, L. G., Amrein-Beardsley, A., & Berliner, D. C. (2004). National Board certified teachers and their students' achievement. Education Policy Analysis Archives, 12(46), 117.

16 Steven Athanases (1994). Teachers’ reports of the effects of preparing portfolios of literacy instruction. Elementary School Journal, 94(4), 421-43; Mistilina Sato, Ruth Chung Wei, & Linda Darling-Hammond (2008). Improving Teachers’ Assessment Practices through Professional Development: The Case of National Board Certification, American Educational Research Journal, 45: pp. 669-700; Tracz, S.M., Sienty, S. & Mata, S. (1994, February). The self-reflection of teachers compiling portfolios for National Certification: Work in progress. Paper presented at the Annual Meeting of the American Association of Colleges for Teacher Education. Chicago, IL; Tracz, S.M., Sienty, S. Todorov, K., Snyder, J., Takashima, B., Pensabene, R., Olsen, B., Pauls, L., & Sork, J. (1995, April). Improvement in teaching skills: Perspectives from National Board for Professional Teaching Standards field test network candidates. Paper presented at the annual meeting of the American Educational Research Association. San Francisco, CA.

17 Mark Wilson & P.J. Hallum (2006). Using Student Achievement Test Scores as Evidence of External Validity for Indicators of Teacher Quality: Connecticut’s Beginning Educator Support and Training Program. Berkeley, CA: University of California at Berkeley; Newton, S.P. (2011). Predictive Validity of the Performance Assessment for California Teachers. Stanford, CA: Stanford Center for Opportunity Policy in Education, 2010, available at http://scale.stanford.edu

18 Ruth R. Chung (2008). Beyond Assessment: Performance Assessments in Teacher Education, Teacher Education Quarterly, 35 (1): 7-28; Ruth Chung Wei and Raymond Pecheone (2010). Teaching Performance Assessments as Summative Events and Educative Tools. In Mary Kennedy (ed.), Teacher Assessment and Teacher Quality: A Handbook (New York: Jossey-Bass).

19 Anthony Milanowski, S.M. Kimball, B. White (2004). The relationship between standards-based teacher evaluation scores and student achievement. University of Wisconsin-Madison: Consortium for Policy Research in Education; Anthony Milanowski (2004). The Relationship Between Teacher Performance Evaluation Scores and Student Achievement: Evidence From Cincinnati, Peabody Journal of Education 79 (4): 33-53. Jonah Rockoff & Cecilia Speroni (2010). Subjective and Objective Evaluations of Teacher Effectiveness (New York: Columbia University, 2010).

20 Bill & Melinda Gates Foundation (2010). Learning About Teaching: Initial Findings from the Measures of Effective Teaching Project. Seattle: Author.

21 C. K. Jackson & E. Bruegmann (2009, August). Teaching students and teaching each other: The importance of peer learning for teachers. Washington, DC: National Bureau of Economic Research.

22 Y. Goddard & R. D. Goddard (2007). A theoretical and empirical investigation of teacher collaboration for school improvement and student achievement in public elementary schools. Teachers College Record, 109(4), 877–896.

23 Richard Packard & Mary Dereshiwsky (1991). Final quantitative assessment of the Arizona career ladder pilot-test project. Flagstaff: Northern Arizona University.

24 The teacher responsibility rubrics were designed based on several teacher accountability systems currently in use, including the Rochester (New York) Career in Teaching Program, Douglas County (Colorado) Teacher's Performance Pay Plan, Vaughn Next Century Charter School (Los Angeles, CA) Performance Pay Plan, and Rolla (Missouri) School District Professional Based Teacher Evaluation

25 Lewis Solomon, J. Todd White, Donna Cohen & Deborah Woo (2007). The effectiveness of the Teacher Advancement Program. National Institute for Excellence in Teaching, 2007.

25 National Commission on Teaching and America’s Future (1996). What Matters Most: Teaching for America’s Future. NY: NCTAF; Piet Van Lier (2008). Learning from Ohio’s best teachers: A homegrown model to improve our schools. Policy Matters Ohio.

Articoli correlati

 

 

Commenti   

#1 insegnante di fisicaLAURA GIOVANNA CARNEVALE 2015-08-23 10:44
Questo studio è stato portato a conoscenza del ministro dell'Istruzione italiano?
Citazione

Aggiungi commento

Codice di sicurezza
Aggiorna