Tesi con ChatGPT, atenei in crisi: la laurea vale ancora nell'era dell'intelligenza artificiale?

Tesi con ChatGPT, atenei in crisi: la laurea vale ancora nell'era dell'intelligenza artificiale?

Nelle università italiane ChatGPT è ormai uno strumento abituale di studio. Il 73% degli studenti americani e il 58% degli europei lo usano regolarmente, ma manca una regolamentazione uniforme.
Tesi con ChatGPT, atenei in crisi: la laurea vale ancora nell'era dell'intelligenza artificiale?

Nelle aule universitarie italiane si è consumata una trasformazione silenziosa. Strumenti come ChatGPT, Claude, Gemini e Copilot sono diventati compagni abituali di studio per migliaia di studenti, dalla triennale al dottorato. Non si tratta più di curiosità tecnologica: l’intelligenza artificiale generativa accompagna ormai la preparazione di esami, la stesura di relazioni e l’elaborazione di tesi di laurea.

Sui social network il fenomeno è emerso con forza. TikTok e Instagram ospitano video dove studenti mostrano come utilizzare i chatbot per scrivere capitoli interi, tutorial su come “promptare” correttamente gli strumenti o persino consigli per aggirare i software antiplagio. ChatGPT figura tra le app più scaricate al mondo, segnale di una diffusione capillare nella fascia universitaria.

Il dibattito si è polarizzato: da un lato chi celebra l’efficienza dello strumento, dall’altro chi teme la morte del pensiero critico. La realtà è più articolata. Molti studenti utilizzano l’AI per organizzare idee o superare il blocco della pagina bianca, rielaborando poi il materiale in modo personale.

Altri, invece, delegano quasi interamente la stesura alla macchina, limitandosi a ritocchi superficiali.

I numeri dell’adozione: sondaggi e trend in Italia, Europa e USA

Le evidenze empiriche confermano la portata del fenomeno. Secondo l’indagine Tyton Partners 2024, condotta su oltre 3.000 studenti universitari statunitensi, il 73% degli intervistati ha utilizzato strumenti di AI generativa almeno una volta durante il semestre. In Europa, l’European University Association stima che circa il 58% degli studenti nelle università dell’UE abbia fatto ricorso a chatbot AI per attività legate allo studio nell’anno accademico 2023-2024.

In Italia mancano rilevazioni nazionali sistematiche, ma i dati di singoli atenei risultano coerenti. Al Politecnico di Milano, un sondaggio interno rivela che oltre il 60% degli studenti di ingegneria utilizza regolarmente strumenti AI per la preparazione degli esami. All’Università di Bologna, una ricerca pilota ha evidenziato percentuali simili nelle facoltà umanistiche, sfatando il mito che l’AI sia appannaggio esclusivo delle discipline STEM.

L’uso più frequente riguarda la sintesi di testi, la generazione di bozze, la traduzione e la spiegazione di concetti complessi. Il fenomeno è trasversale, diffuso e destinato a intensificarsi con il miglioramento dei modelli linguistici.

Le policy di ateneo e il nodo dell’originalità

Le università stanno reagendo al fenomeno in ordine sparso. Sciences Po a Parigi ha scelto la linea dura già nel 2023, vietando l’uso non dichiarato di AI generativa negli elaborati e prevedendo sanzioni fino all’espulsione. Negli Stati Uniti molte Ivy League hanno adottato policy articolate che distinguono tra usi leciti e illeciti, richiedendo agli studenti di dichiarare esplicitamente quando e come hanno impiegato strumenti AI.

In Italia il panorama è frammentato. La CRUI ha pubblicato nel 2024 linee guida che raccomandano trasparenza e responsabilità, senza imporre divieti generalizzati. Ogni ateneo definisce autonomamente le proprie regole, generando notevole disomogeneità: ci sono corsi che incoraggiano l’AI come strumento didattico e altri che la equiparano al plagio.

Questa incertezza normativa crea confusione tra gli studenti e rende difficile stabilire criteri di valutazione equi. Il nodo centrale resta la definizione di originalità intellettuale: se uno studente utilizza l’AI per strutturare un ragionamento ma lo sviluppa autonomamente, sta barando o sta usando uno strumento come farebbe con un dizionario?

Il valore della laurea nell’era dell’AI: segnali dal mercato del lavoro

Per decenni la laurea ha funzionato come segnale di competenza: chi la possedeva dimostrava conoscenze, capacità analitiche e disciplina. Oggi l’automazione parziale del percorso, resa possibile dall’intelligenza artificiale generativa, rischia di indebolire questo segnale. Diverse aziende tecnologiche, e non solo, stanno spostando l’attenzione dai titoli alle competenze dimostrabili: portfolio, progetti concreti e prove pratiche contano sempre di più.

I responsabili delle risorse umane di grandi aziende italiane segnalano un fenomeno preoccupante: candidati con voti eccellenti che mostrano lacune evidenti nelle competenze di base durante i colloqui tecnici. I problemi di preparazione universitaria esistono da prima di ChatGPT, ma il sospetto che gli strumenti generativi stiano ampliando il divario tra competenze certificate e competenze reali è diffuso.

Un’indagine di AlmaLaurea del 2024 rileva che il 42% dei laureati si sente poco o per nulla preparato ad affrontare le sfide professionali del proprio settore. Chi ha imparato a utilizzare l’intelligenza artificiale in modo consapevole e critico, invece, si presenta sul mercato con un vantaggio competitivo significativo. Le aziende cercano professionisti capaci di integrare gli strumenti AI nel proprio lavoro, non di esserne sostituiti.

La valutazione accademica: prove, processi e sperimentazioni

Il tallone d’Achille del sistema universitario di fronte all’intelligenza artificiale resta il modello di valutazione. Tesine scritte a casa, relazioni e progetti con consegna differita risultano facilmente aggirati dai chatbot, mentre anche gli esami orali tradizionali perdono efficacia quando lo studente prepara le risposte con l’ausilio dell’AI.

Alcune università stanno sperimentando approcci innovativi. Il Politecnico di Torino ha introdotto esami che prevedono l’uso esplicito dell’AI in aula, valutando non il prodotto finale ma il processo di ragionamento dello studente e la sua capacità di verificare criticamente l’output della macchina. L’Università di Padova sta testando format di valutazione basati su problem solving in tempo reale, dove l’accesso all’AI è consentito ma il tempo è calibrato per rendere inutile la semplice copia.

Sono tentativi interessanti, ancora limitati nella scala. Ripensare la valutazione richiede tempo, risorse e formazione dei docenti che molti atenei non possono garantire nell’immediato. Il rischio concreto è che il sistema resti ancorato a modelli pre-AI mentre gli studenti operano in un contesto post-AI.

Le competenze da costruire e la traiettoria di adattamento

L’AI generativa porta con sé nuove competenze richieste dal mercato. Il prompt engineering, ossia la capacità di formulare istruzioni efficaci ai modelli linguistici, e l’AI literacy emergono come abilità trasversali in marketing, consulenza legale, medicina e pubblica amministrazione. Alcuni atenei hanno già reagito: la Bocconi ha introdotto un corso obbligatorio di AI literacy per tutte le matricole, mentre la Luiss integra laboratori di AI applicata nei corsi magistrali.

La sfida cruciale sta nel distinguere tra uso strumentale e competenza critica. Generare un testo con ChatGPT è semplice; valutarne l’accuratezza, la coerenza, i bias e l’adeguatezza al contesto richiede solide conoscenze disciplinari. I nuovi modelli visivi di OpenAI ampliano ulteriormente possibilità e complessità degli strumenti disponibili.

L’università ha già affrontato rivoluzioni tecnologiche: internet, Wikipedia ed e-learning hanno trasformato la didattica senza distruggerla. L’AI generativa rappresenta però un salto qualitativo diverso, producendo contenuto originale anziché limitarsi a rendere accessibile l’informazione. Nonostante ciò, la ricerca accademica beneficia enormemente dell’AI in analisi dati, simulazioni e revisione della letteratura. L’innovazione tecnologica continua a nascere nei laboratori universitari, come dimostra la memoria flash PoX dell’Università Fudan.

L’università efficace insegna a pensare con l’AI, non a farsi pensare dall’AI.

Ti potrebbe interessare

Link copiato negli appunti