ChatGPT AI Rischio Etica

Intelligenza artificiale e rischi per l’azienda

27 marzo 2023


di Alessandro MICOCCI

Negli ultimi mesi, sta diventando sempre più di uso comune il termine Intelligenza Artificiale e più in particolare, con ChatGPT.

Per comprendere il concetto, bisogna definire l’Intelligenza Artificiale come “una soluzione software che può essere eseguita su un computer o altro dispositivo (un cellulare, un drone, un satellite, etc.) in grado di eseguire compiti di una certa complessità velocemente ed in maniera accurata”.

ChatGPT è pertanto una delle tante applicazioni di Intelligenze Artificiali che si possono realizzare, forse la più famosa al momento insieme a Midjourney, e nella quale si possono riconoscere le seguenti caratteristiche:

  1. è in grado di generare dei contenuti testuali avendo come base una vastissima, potenzialmente, mole di informazioni da cui attingere;
  2. necessita di un allenamento propedeutico allo scopo per il quale è stata creata;
  3. è capace di focalizzarsi su specifiche sezioni di testo.

Questi tre punti non sono però visibili dall’utente finale che, a sua volta, si troverà davanti una “chat” sulla falsariga delle chatbot che le imprese bancarie o di utility hanno cominciato a predisporre per i propri servizi clienti, lasciando quindi al computer l’onere di risolvere, in prima battuta, le richieste dei propri clienti e lasciando al dipendente “umano” solamente le casistiche più problematiche.

L’impatto di questa nuova chat è stato a dir poco dirompente, raggiungendo in pochi giorni un numero elevatissimo di utenti registrati a dimostrazione dell’interesse che questa nuova tecnologia suscita. Non a caso, le grandi Big di internet ci stanno investendo molto, sia per non rimanere fuori dalla competizione, sia per non perdere la propria posizione predominante come nel caso di Google che, appena resa disponibile ChatGPT, ha subito presentato la propria offerta, Bard. Non solo: sono state prese immediatamente delle contromisure per cercare di limitare o quantomeno riconoscere i testi generati da questa soluzione per diverse ragioni (sia tecniche che etiche).

Tanto per fare un esempio pratico, Google nelle sue linee guida relative all’indicizzazione dei contenuti vieta espressamente (e penalizza di conseguenza questo comportamento) l’utilizzo di strumenti di generazione automatica di testi. Un altro esempio è relativo all’applicazione GPTZero sviluppata dal ventiduenne Edward Tian che ha creato questo software in grado di identificare testi generati da ChatPGT. Applicazioni che però a loro volta non sono esenti da errori, come nel caso della Costituzione Americana che è risultata un testo generato con Intelligenza Artificiale.

Rimanendo nel mondo delle imprese, l’Intelligenza Artificiale presenta enormi potenzialità, ancora inespresse. Sono in pochi a non condividere l’idea che questa tecnologia farà nascere sempre nuovi servizi e prodotti e, di conseguenza, altri tenderanno a sparire o modificarsi. Cambierà, come lo è stato nel caso dei Servizi Clienti, il ruolo del capitale umano che verrà forse sostituito nelle mansioni più routinarie, che a sua volta si potrà concentrare con maggiore enfasi sulle fasi decisionali dei processi (nel mondo del Real Estate il termine sempre più diffuso comincia ad essere proptech, cioè l’utilizzo delle tecnologie a supporto dell’attività umana).

Tutto questo può comportare però dei rischi e delle domande di natura etico / morale. In particolare, l’utilizzo di questa tecnologia all’interno delle aziende da parte dei dipendenti, potrebbe far veicolare informazioni riservate oltre il perimetro aziendale. Ciò è dovuto proprio alla natura dell’Intelligenza Artificiale che si basa, appunto, sull’apprendimento di dati e informazioni che vanno ad arricchire il suo “database” di partenza per lo svolgimento del suo ruolo. Questo apprendimento, definito machine learning, è continuo ed è legato ad autoapprendimento da parte della macchina relativamente alle risposte che gli utenti le danno tramite la “conversazione”. Tramite l’interazione uomo – macchina, infatti, la I.A. può migliorare sempre più la capacità di comprendere le esigenze dell’utente e, di conseguenza, di offrire un output sempre più preciso. Per farlo, ogni informazione che l’utente inconsapevolmente dà tramite le sue richieste, va ad integrare il “database” di partenza. Queste informazioni però non sono legate all’utente che ha interagito, ma diventano utili per qualunque utente e qualunque output. Di conseguenza, se le informazioni sono dati sensibili o riservati, questi possono diventare velocemente di pubblico dominio.

In sostanza, l’utilizzo di queste Intelligenze Artificiali di pubblico dominio come, appunto, ChatGPT, comporta:

  1. il rischio che i dati aziendali vengano resi involontariamente pubblici attraverso la richiesta di informazioni e/o di elaborazione di dati aziendali. Non bisogna mai dimenticare che, salvo reti “chiuse”, il concetto di internet mal si collega al concetto di riservatezza: i dati facilmente possono diventare pubblici;
  2. il rischio che i dati personali possano diventare di pubblico dominio attraverso un uso improprio, sulla falsariga dell’esempio precedente;
  3. utilizzo di report finali, generati dalla nuova intelligenza, ma che si basano su dati non verificati, non certi. Come accennato, ChatGPT come una qualsiasi I.A., basa il proprio lavoro partendo da informazioni in parte precaricati (dove il rischio, tra i tanti, si insinua nella non completezza del dato) e dà un successivo “addestramento” che, se non adeguatamente svolto, può portare a risultati diametralmente opposti a quanto ci si potrebbe aspettare. Ad esempio, se la base iniziale è formata da siti medici non ufficiali o dà risposte di sedicenti medici, l’output finale richiesto all’Intelligenza Artificiale sarà preciso nell’analisi del dato a sua disposizione, ma fortemente errato nella sua correttezza di fondo.

Concludendo, ChatGPT come qualsiasi Intelligenza Artificiale è uno strumento importante che va utilizzato con accortezza e con le dovute precauzioni. Uno strumento forse ancora poco conosciuto dal grande pubblico e che, pertanto, non è in grado di valutare bene i rischi intrinseci che nasconde. Non è pertanto un caso se le più grandi aziende e/o istituzioni pubbliche provano a vietare l’utilizzo di queste tecnologie da parte dei propri dipendenti. Inoltre, se ChatGPT e la I.A. è da considerarsi a tutti gli effetti una nuova rivoluzione industriale per il mondo informatico, se teniamo conto di tutti i rischi tecnici ed etici che ci sono, anche il Legislatore sarà chiamato a definire le regole del gioco, per evitare danni che potrebbero rivelarsi decisamente rilevanti per le imprese e le persone.

Intervento di Alessandro MICOCCI, Dottore Commercialista e Revisore Contabile \ Senior Accountant c/o Fintecna S.p.A.-Gruppo CDP

con la consulenza tecnica di Andrea CAVALLINI, Project Manager in ambito Artificial Intelligence & Machine Learning e Responsabile del “AI & ML Competence Center” c/o RHEA Group.

Le opinioni espresse e le conclusioni sono attribuibili esclusivamente all’Autore e non impegnano in alcun modo la responsabilità di Fintecna S.p.A.-Gruppo CDP



Lascia un Commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono segnati con *