OpenAI stringe le regole su ChatGPT: nuovi divieti su salute, privacy e minori

OpenAI stringe le regole su ChatGPT: nuovi divieti su salute, privacy e minori

OpenAI ha aggiornato le regole d'uso di ChatGPT introducendo nuove tutele per gli utenti, limiti su temi sensibili e protezione dei minori.
OpenAI stringe le regole su ChatGPT: nuovi divieti su salute, privacy e minori

Il 29 ottobre OpenAI ha aggiornato le regole d’uso di ChatGPT e degli altri suoi modelli di intelligenza artificiale, introducendo nuove tutele per gli utenti e limiti più chiari su temi sensibili. Il chatbot continua a rispondere su salute, diritto e altri argomenti delicati, ma con cautele rafforzate progettate per garantire sicurezza, privacy e protezione dei minori.

Le modifiche alle policy si concentrano su tre obiettivi principali: prevenire abusi e comportamenti dannosi, tutelare la riservatezza degli utenti e proteggere i giovani da contenuti pericolosi.

Per studenti e neolaureati che utilizzano l’AI per studio e orientamento, queste regole definiscono con maggiore precisione cosa ChatGPT può e non può fare, chiarendo il perimetro d’uso responsabile dello strumento più diffuso al mondo.

La tutela dei minori e il contrasto alla violenza: nuovi filtri

OpenAI ha introdotto limiti più stringenti contro molestie, minacce e contenuti sessuali non consensuali, inclusi i deepfake che simulano il corpo nudo delle vittime senza autorizzazione.

ChatGPT non può più generare o diffondere materiale riconducibile ad abusi sui minori, favorire adescamento online o proporre sfide pericolose che mettano a rischio i ragazzi.

Sono vietati anche contenuti che promuovano disturbi alimentari come anoressia o bulimia, comportamenti autolesionisti o che umilino e stigmatizzino l’aspetto fisico degli under 18.

Questi filtri rispondono alla necessità di proteggere gli adolescenti dall’esposizione a contenuti dannosi durante l’uso quotidiano dell’intelligenza artificiale per studio, ricerche o svago.

La profilazione e la privacy: stop alle deduzioni

Le nuove policy vietano qualsiasi uso di ChatGPT per classificare le persone sulla base di comportamenti, dati biometrici o caratteristiche personali.

In pratica, l’intelligenza artificiale non può più essere impiegata per dedurre informazioni sensibili come lo stato emotivo di un individuo o prevedere la sua propensione a commettere reati.

Questo divieto tocca direttamente il tema della profilazione algoritmica: il sistema non può essere usato per etichettare gli utenti o trarre conclusioni non esplicite a partire dai loro dati. Si tratta di una limitazione pensata per proteggere la privacy e impedire usi discriminatori dell’AI.

Per impieghi particolarmente delicati, come quelli legati alla sicurezza nazionale o all’intelligence, OpenAI richiede ora un’autorizzazione diretta. L’obiettivo è evitare utilizzi opachi e garantire il controllo sulla raccolta di informazioni riservate.

Le consulenze professionali: informazione sì, diagnosi no

ChatGPT può continuare a fornire spiegazioni su temi come salute, diritto e finanza, ma non è autorizzato a sostituire medici, avvocati o consulenti abilitati.

Il limite è principalmente di natura giuridica: la responsabilità delle scelte basate sulle risposte dell’intelligenza artificiale ricade interamente sull’utente.

L’AI può offrire informazioni generali ed esempi esplicativi su argomenti complessi, come il funzionamento di una patologia o le tappe di un procedimento legale. Tuttavia, rimangono vietate diagnosi mediche, prescrizioni terapeutiche e consulenze formali che richiedano competenze professionali certificate.

Per gli studenti che utilizzano ChatGPT per orientarsi nello studio o nelle scelte di carriera, la distinzione è chiara: l’AI è uno strumento informativo, non un sostituto del parere esperto.

I divieti assoluti: armi, politica e disinformazione

Le nuove policy di OpenAI introducono vincoli categorici su alcuni ambiti d’uso. È vietato sviluppare, gestire o promuovere armi utilizzando i modelli dell’azienda, escludendo qualsiasi applicazione militare o bellica degli strumenti di intelligenza artificiale.

Altro divieto assoluto riguarda la sfera politica: ChatGPT non può essere impiegato per campagne elettorali, lobbying o interferenze nei processi democratici. La misura mira a prevenire manipolazioni dell’opinione pubblica e distorsioni del dibattito civico.

Il blocco si estende anche alla produzione di contenuti grafici e video finalizzati alla disinformazione, fenomeno sempre più diffuso e difficile da contrastare.

Questi limiti hanno ricadute pratiche concrete per studenti e professionisti che utilizzano l’AI: progetti accademici o creativi che intersechino questi temi devono rispettare i confini stabiliti, pena l’esclusione dall’uso della piattaforma.

Le conversazioni sensibili: riconoscere il disagio e indirizzare al supporto

Il modello è stato addestrato per identificare segnali di disagio psicologico, come depressione, autolesionismo o episodi psicotici. OpenAI ha coinvolto 170 esperti tra psicologi, medici e assistenti sociali per sviluppare questa capacità di riconoscimento.

Quando ChatGPT rileva indicatori di rischio durante una conversazione, evita di fornire consigli terapeutici e invita l’utente a rivolgersi a un supporto umano qualificato. L’obiettivo è garantire che situazioni delicate vengano gestite da professionisti, preservando la sicurezza degli utenti.

Ti potrebbe interessare

Link copiato negli appunti