Intelligenza Artificiale Responsabile e Sostenibile

L’Intelligenza Artificiale Responsabile e Sostenibile

29 gennaio 2024

di Francesco Domenico ATTISANO

Governance responsabile dell’AI per aumentare la fiducia negli stakeholders

La velocità dell’innovazione,  il tasso di crescita del mercato mondiale dell’intelligenza artificiale (di seguito anche AI) e l’evoluzione della regolamentazione(1) richiedono una governance dell’intelligenza artificiale da parte di qualsiasi entità.

Quest’ultime devono necessariamente accelerare il processo di conoscenza e responsabilizzazione degli impatti dell’AI sulla propria organizzazione, per essere più consapevoli e trasparenti sia nell’ambiente interno che quello esterno, ovvero vs i propri stakeholders.

Governare l’AI è un processo continuo, che deve permeare l’intera organizzazione, che richiede etica e responsabilità.

L’intelligenza artificiale responsabile può essere definita come “il processo di governo organizzativo dello sviluppo e gestione di sistemi di intelligenza artificiale, affidabili, etici e trasparenti, allineato con lo scopo e la mission dell’organizzazione, per la creazione di valore sostenibile”. Le organizzazioni che riescono a dimostrare un uso responsabile(2), affidabile ed etico dell’AI hanno maggiori probabilità di avere successo, in quanto riescono a preservare e creare valore. 

Secondo uno studio recente (aprile 2023) di Boston Consulting Group(3):”  il modo migliore che le aziende hanno per affrontare le regolamentazioni è implementare un programma di Responsabile (Responsible Artificial Intelligence RAI), fondato su principi volti a garantire la responsabilità, la trasparenza, la privacy e la sicurezza, nonché l’equità e l’inclusione nel modo in cui si sviluppano e si utilizzano gli algoritmi”. Tale risultato è in linea con quanto rilevato in precedenza da una ricerca (Tech Vision 2022) di Accenture(4) che aveva rilevato che solo il 35% dei consumatori globali ha fiducia nel modo in cui l’IA viene implementata dalle organizzazioni. Ma ancor più rilevante, dallo studio emergeva che il 77% riteneva che le organizzazioni debbano essere ritenute responsabili del loro uso improprio dell’intelligenza artificiale.

Quando si utilizza l’intelligenza artificiale per supportare decisioni aziendali critiche basate su dati sensibili, bisogna essere sicuri di comprendere cosa sta facendo l’IA e il perché. È necessario porsi alcune domande fondamentali: “Sapremo governare e monitorare questa tecnologia? , “Quali sono gli obiettivi che intendiamo raggiungere?”,  “Abbiamo avviato un processo di identificazione dei rischi dell’applicazione dell’AI?“ Abbiamo definito dei ruoli e responsabilità chiari all’interno dell’organizzazione per lo sviluppo dell’AI?”, “Si stanno prendendo decisioni accurate e consapevoli dei pregiudizi?”; “Si sta violando l’etica interna e la privacy di qualche stakeholders?” 

Nell’imminente futuro, strategie organizzative solide dovranno incorporare i rischi e le opportunità poste da questa tecnologia rivoluzionaria e dinamica(5). Le pratiche di AI responsabile dovranno essere applicate a qualsiasi settore o funzione. 

Ogni organizzazione, dovrebbe partire da alcuni obiettivi fondamentali(6) per l’applicazione e l’utilizzo dell’IA in maniera responsabile. In particolare, si ritiene che ogni Entità, che voglia adottare processi e applicazioni AI all’interno della propria organizzazione, debba da subito porre attenzione sui seguenti aspetti – ambiti: 

  1. sicurezza e affidabilità interna ed esterna del risultato, affinché quest’ultimi corrispondano in modo affidabile agli scopi previsti, garantendo al contempo la sicurezza contro abusi e attacchi informatici; 
  2. trasparenza e spiegabilità dei risultatima ancor di più dei processi e funzioni, per ridurre il rischio di contestazione interna ed esterna, ovvero critica non costruttiva; 
  3. correttezza e sicurezza tecnologica, etica e inclusiva, per trattare le persone in modo equo, difendersi dai pregiudizi (i cd bias) e prevenire qualsiasi danno (sia reputazionale, che di processo ed economico-finanziario). In tal senso, risulta necessario ridurre al minimo i bias involontari (talvolta replicati e amplificati dal momento della programmazione), responsabilizzando l’AI che si approccia o che si sta utilizzando. Risulta necessario, in tal senso, garantire che gli algoritmi e i dati sottostanti siano quanto più imparziali e rappresentativi possibile. Nel contempo gli algoritmi di apprendimento e decisionali, in ragione anche ai punti d) ed e) devono assolutamente evitare di considerare parametri potenzialmente discriminatori(7) (in termini di età, genere, nazionalità, religione).
  4. rispetto della privacy, nonché i diritti di proprietà dei dati e informazioni; 
  5. accountability e compliance dell’AI, in termini di supervisione e responsabilità umana, per rispettare ed essere conforme (conformance) alle  leggi, i regolamenti e gli standard correlati; 
  6. attenzione massima dell’ambiente, della sostenibilità a 360° e quindi della società – collettività; in quanto l’AI responsabile dovrebbe rispettare e proteggere l’ambiente, i diritti umani (anch’esso correlato al punto c. sopra citato), l’agire umano, la società, la collettività. Ciò non solo per conformarsi in maniera proattiva alla regolamentazione attuale ma anche per il raggiungimento degli obiettivi di sostenibilità prefissati dall’Agenda 2030.

Posto quanto sopra, si ritiene che “le organizzazioni (private e ancor più quelle pubbliche) hanno la responsabilità di fronteggiare  il rischio (in termini di minacce e opportunità), per sfruttare e incrementare l’utilizzo dell’AI”.  L’Intelligenza artificiale responsabile dovrebbe dare una ragionevole garanzia, affidabilità, di gestire i rischi(8) dell’AI e quelli interconnessi alle sicurezza (dei sistemi IT, dei dati e della privacy) e di sostenibilità in generale, mitigando le minacce e cogliendo le opportunità.

Sostenere la creazione di modelli di governance efficaci, che diano priorità alla dignità umana e al benessere delle persone, sfruttando l’intelligenza artificiale, è una responsabilità(9) di tutte le organizzazioni che intendono approcciarsi all’AI, ovvero la stanno già cavalcando per preservare e/o creare valore per tutti i portatori d’interesse.

Concludendo, si ritiene che l’affidabilità, l’etica e la trasparenza dell’utilizzo dell’AI, possa aiutare le organizzazioni a creare fiducia con i propri stakeholder(10), aumentare la longevità delle loro attività correlate all’intelligenza artificiale, accrescere la reputazione e creare valore. In ultimo, va precisato che: “Una trasformazione digitale e l’utilizzo dell’AI nelle organizzazione, non può essere effettuata in modalità di progetto speciale, bensì bisogna ragionare come fosse un naturale percorso di cambiamento dell’entità”.

In conclusione, si ritiene che: “Per raggiungere la finalità di un’AI responsabile è necessario che l’intera organizzazione sia in grado di fornire un’innovazione digitale costante; ciò richiede un insieme olistico di capacità e comportamenti da parte del proprio capitale umano e quindi dell’intelligenza naturale della singola entità. L’immenso potenziale dell’AI richiede uno sforzo collaborativo di tutti per un’innovazione responsabile. 

Coltivare un ambiente di intelligenza artificiale etico, affidabile, trasparente all’interno di un’organizzazione richiede una strategia completa, che parta dal vertice dell’organizzazione (from the top) e, nel contempo aiuti a stabilire una supervisione, garantire la compliance, sviluppare operazioni e infrastrutture coerenti, promuovendo una cultura dell’innovazione responsabile”.


Per approfondimenti, consultare i seguenti link e/o riferimenti:

(1) Cfr.: Artificial Intelligence ACT, 2023, EU Legislation in Progress, European Parliament

(2) Cfr.: Attisano F.D (2024), “ISO/IEC 42001:2023 AI Management System (AIMS) – Lo standard per un sistema di gestione responsabile ed etico dell’intelligenza artificiale” – Risk & Compliance Platform Europe;  www.riskcompliance.it

(3) Cfr.: IA Responsabile: Le Aziende Italiane sono pronte alla Regolamentazione, 2023, BCG

(4) Cfr.: Tech Trends 2022: Meet Me in the Metaverse, Accenture

(5) Cfr: Attisano F.D. (2023), “CHATGPT: Una nuova governance per gestire le minacce e le opportunità”; – Risk & Compliance Platform Europe;  www.riskcompliance.it

(6) Cfr.: Responsible AI (RAI) Principles, McKinsey,

(7) Cfr.:Testa D. (2021), La discriminazione degli algoritmi: il caso Deliveroo, Trib. Bologna, 31 dicembre 2020, www.iusinitinere.it

(8) Cfr.: Responsible AI. AI you can trust, PWC

(9) Cfr.: Il settimo studio biennale, Deloitte-NASCIO Cybersecurity Study, October 2022

(10) Cfr.: Why digital trust truly matters – Survey, McKinsey, September 2022



Lascia un Commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono segnati con *