La scuola superiore Convitto Colombo di Genova introduce l'IA in classe

La scuola superiore Convitto Colombo di Genova introduce l'IA in classe

Il Convitto Colombo di Genova ha introdotto un articolo dedicato all'intelligenza artificiale generativa nel regolamento scolastico, stabilendo nuove responsabilità per i docenti.
La scuola superiore Convitto Colombo di Genova introduce l'IA in classe

La scuola superiore Convitto Colombo di Genova ha emanato a fine ottobre un nuovo documento sulle “Norme di comportamento e regole d’uso della rete e delle risorse tecnologiche”. L’istituzione statale, che comprende scuola elementare, media e liceo scientifico, ha introdotto una novità significativa rispetto ai consueti regolamenti annuali.

Mentre tradizionalmente questi documenti precisano chi può utilizzare reti informatiche, terminali e dispositivi forniti dall’istituto, il nuovo testo include un articolo dedicato esplicitamente all’impiego degli strumenti di intelligenza artificiale generativa. Questa sezione stabilisce nuove responsabilità per i docenti, segnando un cambio di paradigma nella gestione delle tecnologie a scuola.

Secondo il dirigente Andrea Giacobbe, l’obiettivo è “porre le basi per gestirlo in modo trasparente”, evitando il divieto assoluto e favorendo un utilizzo utile e responsabile dello strumento. L’approccio rappresenta una risposta istituzionale alla presenza ormai diffusa dell’IA nelle prassi di apprendimento degli studenti.

La responsabilità del docente e le prassi consentite

Il regolamento formalizza compiti precisi per gli insegnanti. Durante le attività con IA generativa, il docente deve guidare gli studenti all’uso critico, promuovere la verifica delle informazioni prodotte, spiegare il funzionamento dei sistemi e stimolare la riflessione etica sull’impatto tecnologico, in linea con la normativa scolastica vigente.

L’articolo autorizza implicitamente l’utilizzo dell’IA da parte degli studenti, a condizione che avvenga sotto supervisione pedagogica. Il dirigente Giacobbe sottolinea l’obiettivo di gestire lo strumento in modo trasparente, evitando il divieto assoluto e puntando a un impiego utile e responsabile.

Il regolamento non entra nel merito delle scelte didattiche, lasciate all’autonomia dei singoli professori, ma definisce il metodo: l’IA diventa risorsa formativa solo se accompagnata da consapevolezza critica e competenza d’uso.

Le basi cognitive: memoria di lavoro e carico cognitivo

La working memory, o memoria di lavoro, rappresenta la capacità del cervello di trattenere e manipolare informazioni per brevi periodi durante attività complesse. Quando uno studente legge un testo argomentativo, risolve un problema matematico o scrive un tema, la memoria di lavoro mantiene simultaneamente dati, regole e obiettivi.

Questa funzione cognitiva presenta però un limite intrinseco: può essere sovraccaricata facilmente, riducendo l’efficacia dell’apprendimento.

L’intelligenza artificiale può intervenire in questo delicato equilibrio in due modi opposti. Da un lato, alleggerisce il carico cognitivo fornendo supporti mirati che liberano risorse mentali per compiti di livello superiore. Dall’altro, rischia di sostituire completamente il pensiero critico, impedendo agli studenti di sviluppare capacità cognitive autonome e durature.

Lo studio turco citato riassume questo equilibrio con una metafora efficace: “L’IA deve agire come un’impalcatura, non come una stampella”. L’impalcatura sostiene temporaneamente la costruzione fino al suo completamento, poi viene rimossa. La stampella, invece, sostituisce permanentemente una funzione, impedendone il recupero naturale.

L’obiettivo pedagogico diventa dunque utilizzare l’IA per supportare il processo di apprendimento senza sostituire il lavoro cognitivo necessario per costruire conoscenze stabili e trasferibili.

Le condizioni operative per un uso efficace

La ricerca individua una sequenza didattica precisa che massimizza l’efficacia dell’intelligenza artificiale. L’intervento tecnologico risulta benefico solo quando avviene dopo che lo studente ha provato autonomamente a risolvere il problema, rafforzando il processo cognitivo senza sostituirlo. I suggerimenti dell’IA devono essere brevi, mirati e focalizzati su un singolo passaggio specifico, evitando testi lunghi o vaghi che aumentano il carico estraneo, ovvero informazioni superflue che affaticano la mente.

Il controllo ritardato rappresenta l’elemento cruciale: un test somministrato 24-72 ore dopo l’uso dell’IA aiuta a consolidare le conoscenze acquisite. Questa sequenza – tentativo autonomo, aiuto mirato, recupero ritardato – protegge i momenti chiave della memoria di lavoro e favorisce la costruzione di apprendimenti duraturi.

Al contrario, risposte fornite troppo precocemente bloccano il recupero attivo delle informazioni, processo essenziale per la memorizzazione a lungo termine. Il rischio principale è quello dell’effetto Google: gli studenti tendono a ricordare dove trovare le informazioni invece di impararle, comportamento che indebolisce progressivamente la conoscenza autonoma.

Le implicazioni per scuola e sviluppatori

La ricerca propone principi operativi chiari per docenti e sviluppatori di tecnologie educative. Le risposte dell’IA devono limitarsi a un concetto alla volta, evitando sovraccarichi cognitivi. È fondamentale educare gli studenti a usare questi strumenti con consapevolezza, come supporto all’apprendimento e non come sostituto del ragionamento autonomo.

Per valutare l’efficacia dell’IA in classe, lo studio identifica strumenti specifici: misurare il carico cognitivo nelle sue tre componenti (intrinseco, estraneo, utile), analizzare tracce di lavoro e tempi di esecuzione, somministrare test di recupero a distanza di 24–72 ore. Questi criteri permettono di orientare le scelte didattiche e verificare nel tempo l’impatto reale dell’intelligenza artificiale sull’apprendimento duraturo.

Ti potrebbe interessare

Link copiato negli appunti