Responsible AI

Condividi

Introduzione

I recenti sviluppi nell’ambito dell’Intelligenza Artificiale, e in particolare nella Generative AI,  hanno creato nuove opportunità in molteplici ambiti, dalla finanza al settore farmaceutico Ecc 

Allo stesso tempo, sono stati sollevati molti dubbi e domande riguardo a come costruire sistemi AI che rispondano a principi di AI Responsabile, come equità, inclusività, sicurezza e privacy. Infatti, è sempre più di fondamentale importanza comprendere e definire le conseguenze sociali nell’utilizzo di sistemi AI e come questi possano impattare nella vita delle persone.

Human Centric AI

L’approccio Human-Centric AI mette al primo posto l’impatto etico e sociale sul benessere delle persone e delle comunità che sono influenzate dalle tecnologie di Intelligenza Artificiale, con l’obiettivo di sviluppare sistemi AI che mantengano un comportamento responsabile e corretto nei loro confronti grazie a un continuo Impact Assessment. I sistemi AI vengono creati allo scopo di supportare il lavoro umano e non di sostituirlo, per migliorare le capacità umane promuovendo inclusività e rispetto per i diritti. 

L’approccio Human-Centric AI rappresenta un cambiamento significativo nello sviluppo dei sistemi AI perché vede questi sistemi come un mezzo al servizio della società, e si pone l’obiettivo di usarli per migliorare la vita delle persone. Lo sviluppo non è quindi solamente guidato dagli avanzamenti tecnologici, ma anche e soprattutto dal volerlo allineare con i valori della società.

Principi

Negli ultimi anni, colossi come Microsoft e Google hanno introdotto una serie di principi allineati con la Responsible AI: 

Accuracy & Factuality

Rappresentano aspetti fondamentali per la valutazione delle performance e dell’affidabilità dei modelli AI. Per i modelli tradizionali, un’alta accuratezza si traduce nella capacità  di fare previsioni o prendere decisioni corrette e affidabili sulla base dei dati disponibili. Con la recente espansione della Generative AI, è diventata di cruciale importanza la factuality: il contenuto generato dai modelli (testo, immagini, audio, ecc) deve essere verificato perché corrisponda a informazioni reali, evitando il proliferare di fake news. I modelli Generative AI sono infatti soggetti ad errori chiamati “Hallucinations” (allucinazioni), per cui possono generare contenuto incoerente o falso.

Fairness & Inclusiveness

I modelli AI offrono grandi opportunità di previsione, suggerimenti e decision-making, a partire dai sistemi di raccomandazione di libri/film, ad algoritmi complessi che prevedono condizioni mediche. Essendo basati su dati reali, questi modelli possono involontariamente perpetuare e amplificare tutti i bias contenuti nei dati di addestramento. Per esempio, possiamo immaginare l’impatto negativo di un sistema AI non equo che analizza automaticamente i curriculum dei candidati per associare loro il ruolo più adeguato. Sviluppare sistemi AI che rispettino questo principio comporta molte sfide e la considerazione di fattori di matrice culturale, sociale, storica, politica e legale, visto anche che la definizione di “equità” non è uguale per tutti i casi.

Interpretability & Transparency

Man mano che i sistemi AI diventano più presenti nella nostra vita, diventa sempre più importante che questi sistemi siano in grado di giustificare il loro processo di decision making. Questa necessità di Explainable AI si traduce in una continua ricerca da parte degli sviluppatori di comprendere approfonditamente i dati e il processo di addestramento, oltre che la creazione di nuove tecnologie per superare il modello “Black Box” dei modelli di Deep Learning come le reti neurali. Infatti, al contrario del software tradizionale che segue delle regole if-else precise, questo tipo di modelli segue meccanismi che rimangono spesso non comprensibili anche per gli sviluppatori. L’obiettivo del principio di Interpretability è invece di garantire spiegazioni che siano comprensibili anche da non esperti.

Privacy

Nonostante ci siano casi in cui l’utilizzo di dati sensibili per l’addestramento di modelli AI sia vantaggioso (per esempio: sistemi di diagnosi di malattie addestrati su immagini di biopsia di vari pazienti), si devono comunque considerare le implicazioni nel mancato di rispetto della privacy e delle proprietà intellettuali, sia dal punto di vista delle regolamentazioni che da quello delle norme sociali. Un esempio è quello dei sistemi di riconoscimento facciali per la sicurezza, che utilizzano spesso immagini catturate senza consenso. Un altro caso è quello di ChatGPT, che dichiara di archiviare tutte le informazioni che vengono fornite dagli utenti e di poterle usare per migliorare il modello e proprio per questo è stato inizialmente bloccato in Italia dal Garante della Privacy.

 

Safety & Security

La sicurezza e il corretto comportamento dei sistemi AI è estremamente importante, soprattutto in contesti in cui vengono utilizzati per prendere decisioni critiche. Garantire la sicurezza comporta una serie di sfide, come la difficoltà di creare sistemi protetti da restrizioni ma che allo stesso tempo abbiano la flessibilità per adattarsi a input inaspettati. Alcuni tipiche minacce riguardano il “training data poisoning”, in cui il set di dati utilizzati per l’addestramento viene manipolato, il “model stealing”, in cui un modello addestrato su dati sensibili viene copiato e usato da esterni, e l’utilizzo di “adversarial examples”, cioè l’utilizzo di input specifici per causare una risposta errata da parte del modello.

Human Centric AI

Applicare la Responsible AI

Mettere in pratica i principi di Responsible AI durante lo sviluppo di sistemi AI è un processo in continua evoluzione, in cui si migliora ogni giorno e adeguandosi alle innovazioni tecnologiche e nelle regolamentazioni. Bisogna comunque tener presente che le regolamentazioni governative, come il GDPR dell’Unione Europea, tendono a essere sempre in ritardo rispetto alle nuove tecnologie, ed è quindi responsabilità degli sviluppatori riempire questo vuoto fra le potenzialità dell’Intelligenza Artificiale e le legislazioni in proposito. 

L’impatto dei sistemi AI sul benessere delle persone deve essere continuamente valutato, utilizzando un approccio basato sul rischio in cui si considera il worst case (caso peggiore), cioè il caso in cui le decisioni prese dall’AI impattano nella maniera più grave sulla vita di un individuo. Deve anche essere considerato a chi (istituzioni o aziende) si rende disponibile un certo sistema AI: un modello di face recognition per la sicurezza potrebbe essere adeguato per un’istituzione governativa ma non per una privata. 

Infine, va ricordato che applicare la Responsible AI è un processo multidisciplinare, che riguarda tanto ingegneria e matematica quanto le scienze sociali e politiche, che si traduce in uno sforzo combinato di team tecnici e di risorse umane. 

Blue BI tiene in grande considerazione i principi di Responsible AI in tutte le progettualità mettendo al primo posto la privacy e la sicurezza dei dati, rispettando le linee guide del GDPR Europeo. Le nostre soluzioni, prima fra tutti i Chatbot, utilizzano l’Intelligenza Artificiale per complementare  il lavoro umano e migliorare l’efficienza aziendale.

Realizziamo soluzioni di Business Intelligence & Advanced Analytics per trasformare semplici dati in informazioni di grande valore strategico.

Autore

Autore

Tabella dei Contenuti