L’Intelligenza non è Artificiale
Dopo il lancio lo scorso novembre, il sito di OpenAI, la società che ha sviluppato Chat GPT, ha ricevuto nel solo mese di dicembre 304 milioni di visite a livello mondiale (fonte Similarweb) e oltre 3,5 milioni dall’Italia: l’efficacia dimostrata e le possibili applicazioni nella produttività personale, nella comunicazione e nell’informatica si sono coniugate a un intenso dibattito, anche su queste pagine, in merito alla qualità delle risposte fornite e alle implicazioni che l’Intelligenza Artificiale può avere nei campi più diversi, dalla scuola al lavoro.
Come nel caso di Meta che si avvale di decine di migliaia di “manual checkers”, anche in questa circostanza si è scoperto infatti che a ripulire i contenuti che dovevano essere scansionati dagli algoritmi sono stati lavoratori in carne ed ossa, soprattutto in Kenya, che hanno etichettato i testi contrassegnandoli, quando necessario, come sessisti, violenti o razzisti. Si stima che, negli anni, 50 mila siano stati gli impiegati in questa attività che presenta non solo una bassa remunerazione, 2 dollari l’ora, ma anche un certo impatto psicologico per i contenuti ai quali il personale è costantemente esposto.
Mentre i prossimi mesi vedranno inevitabilmente un ampliamento della disponibilità dell’Intelligenza Artificiale nella vita quotidiana per la ricerca, lo studio, il lavoro, risulta evidente quanto il suo avvento ponga sfide non solo dal punto di vista etico, ma richieda anche di sottoporre i diversi strumenti a “stress-test” per osservarne la coerenza con la Legge. Dalle fasi di addestramento dei linguaggi al loro utilizzo quotidiano, molteplici sono infatti le aree grigie che Chat GPT e le tecnologie equivalenti presentano quanto al rispetto di norme quali quelle relative al diritto d’autore e alla privacy.
L’attuale mancanza di strumenti efficaci per riconoscere i contenuti creati grazie all’Intelligenza Artificiale rappresenta infine molteplici criticità – ragione per quale Chat GPT è stato vietato in alcuni istituti – in molteplici ambiti che hanno a che fare con la sicurezza informatica, i tentativi di phishing, la contraffazione, le recensioni false. Come sempre, la tecnologia non è buona o cattiva in sé, ma a seconda di come la si usa.
Chat GPT ha passato un esame post-universitario dato da un professore dell’Università di Wharton ed è comprensibile che, in questa fase, alcune scuole – come alcuni istituti di New York – l’abbiano proibito. L’efficacia con cui risponde a domande e la capacità che dimostra di scrivere elaborati sono sorprendenti: al contempo presentano il rischio sia di ridurre lo spirito critico che il pensiero creativo che la scuola deve insegnare. La maturità di IA passerà dunque anche attraverso l’individuazione di percorsi scolastici e formativi che coniughino le opportunità della tecnologia con il riconoscimento dei suoi limiti e dei suoi rischi.
Una delle aree di formazione necessarie è quella chiamata “prompt engineering”. L’esperienza offerta all’utente da Chat GPT è infatti ancora embrionale: il modo più efficace per ottenere risposte appropriate non è formulare domande, ma “avviare prompt” ovvero lanciare schemi di istruzione in modo standardizzato così da aiutare la macchina a capire. Allo stesso modo, presenta risultati immediati usare le applicazioni di Chat GPT nell’ambito di servizi già esistenti: ad esempio per avere trascrizioni e riassunti di video YouTube si può adottare la relativa estensione per il proprio browser e sono già disponibili estensioni per Gmail, Word ed Excel. Nel futuro, l’IA sarà embeddata nella maggior parte dei servizi di produttività personale – come il pacchetto di Microsoft Office – e di utilizzo della Rete e migliorerà la comunicazione uomo – macchina in svariati campi di applicazione.
L’importante è però essere certi che tale tecnologia non ha consapevolezza di sè, capacità di provare esperienze, agire in ragione di cause. Chat GPT si fonda su correlazioni statistiche fra parole e, nel dare risultati, le combina in modo probabilistico senza alcun attributo di questo tipo. Se le si chiede quanto fa 10+10 e, alla sua risposta 20, la si incalza dicendo che ha sbagliato, continuerà a dire 20, ma si scuserà per l’errore. Proprio perché, statisticamente, parole di scuse seguono parole di accusa. IA imita l’umano e ricade dunque ancora pienamente sotto la nostra responsabilità.