Il 29 ottobre OpenAI ha aggiornato le regole d’uso di ChatGPT e degli altri suoi modelli di intelligenza artificiale, introducendo nuove tutele per gli utenti e limiti più chiari su temi sensibili. Il chatbot continua a rispondere su salute, diritto e altri argomenti delicati, ma con cautele rafforzate progettate per garantire sicurezza, privacy e protezione dei minori.
Le modifiche alle policy si concentrano su tre obiettivi principali: prevenire abusi e comportamenti dannosi, tutelare la riservatezza degli utenti e proteggere i giovani da contenuti pericolosi.
Per studenti e neolaureati che utilizzano l’AI per studio e orientamento, queste regole definiscono con maggiore precisione cosa ChatGPT può e non può fare, chiarendo il perimetro d’uso responsabile dello strumento più diffuso al mondo.
La tutela dei minori e il contrasto alla violenza: nuovi filtri
OpenAI ha introdotto limiti più stringenti contro molestie, minacce e contenuti sessuali non consensuali, inclusi i deepfake che simulano il corpo nudo delle vittime senza autorizzazione.
ChatGPT non può più generare o diffondere materiale riconducibile ad abusi sui minori, favorire adescamento online o proporre sfide pericolose che mettano a rischio i ragazzi.
Sono vietati anche contenuti che promuovano disturbi alimentari come anoressia o bulimia, comportamenti autolesionisti o che umilino e stigmatizzino l’aspetto fisico degli under 18.
Questi filtri rispondono alla necessità di proteggere gli adolescenti dall’esposizione a contenuti dannosi durante l’uso quotidiano dell’intelligenza artificiale per studio, ricerche o svago.
La profilazione e la privacy: stop alle deduzioni
Le nuove policy vietano qualsiasi uso di ChatGPT per classificare le persone sulla base di comportamenti, dati biometrici o caratteristiche personali.
In pratica, l’intelligenza artificiale non può più essere impiegata per dedurre informazioni sensibili come lo stato emotivo di un individuo o prevedere la sua propensione a commettere reati.
Questo divieto tocca direttamente il tema della profilazione algoritmica: il sistema non può essere usato per etichettare gli utenti o trarre conclusioni non esplicite a partire dai loro dati. Si tratta di una limitazione pensata per proteggere la privacy e impedire usi discriminatori dell’AI.
Per impieghi particolarmente delicati, come quelli legati alla sicurezza nazionale o all’intelligence, OpenAI richiede ora un’autorizzazione diretta. L’obiettivo è evitare utilizzi opachi e garantire il controllo sulla raccolta di informazioni riservate.
Le consulenze professionali: informazione sì, diagnosi no
ChatGPT può continuare a fornire spiegazioni su temi come salute, diritto e finanza, ma non è autorizzato a sostituire medici, avvocati o consulenti abilitati.
Il limite è principalmente di natura giuridica: la responsabilità delle scelte basate sulle risposte dell’intelligenza artificiale ricade interamente sull’utente.
L’AI può offrire informazioni generali ed esempi esplicativi su argomenti complessi, come il funzionamento di una patologia o le tappe di un procedimento legale. Tuttavia, rimangono vietate diagnosi mediche, prescrizioni terapeutiche e consulenze formali che richiedano competenze professionali certificate.
Per gli studenti che utilizzano ChatGPT per orientarsi nello studio o nelle scelte di carriera, la distinzione è chiara: l’AI è uno strumento informativo, non un sostituto del parere esperto.
I divieti assoluti: armi, politica e disinformazione
Le nuove policy di OpenAI introducono vincoli categorici su alcuni ambiti d’uso. È vietato sviluppare, gestire o promuovere armi utilizzando i modelli dell’azienda, escludendo qualsiasi applicazione militare o bellica degli strumenti di intelligenza artificiale.
Altro divieto assoluto riguarda la sfera politica: ChatGPT non può essere impiegato per campagne elettorali, lobbying o interferenze nei processi democratici. La misura mira a prevenire manipolazioni dell’opinione pubblica e distorsioni del dibattito civico.
Il blocco si estende anche alla produzione di contenuti grafici e video finalizzati alla disinformazione, fenomeno sempre più diffuso e difficile da contrastare.
Questi limiti hanno ricadute pratiche concrete per studenti e professionisti che utilizzano l’AI: progetti accademici o creativi che intersechino questi temi devono rispettare i confini stabiliti, pena l’esclusione dall’uso della piattaforma.
Le conversazioni sensibili: riconoscere il disagio e indirizzare al supporto
Il modello è stato addestrato per identificare segnali di disagio psicologico, come depressione, autolesionismo o episodi psicotici. OpenAI ha coinvolto 170 esperti tra psicologi, medici e assistenti sociali per sviluppare questa capacità di riconoscimento.
Quando ChatGPT rileva indicatori di rischio durante una conversazione, evita di fornire consigli terapeutici e invita l’utente a rivolgersi a un supporto umano qualificato. L’obiettivo è garantire che situazioni delicate vengano gestite da professionisti, preservando la sicurezza degli utenti.