logo BLUE BI business intelligence & analytics
Cerca
Close this search box.

L’AI Act: la legge che ridefinisce il futuro dell’Intelligenza Artificiale in Europa

AI Act

Condividi

Gli impatti che l’Intelligenza Artificiale, e in particolare la Generative AI, sta avendo sulle nostre vite è esorbitante, ma proprio per questo necessita di regolamentazioni ben precise.

Il dibattito è aperto. Ad esempio, in Italia, a marzo 2023 è stato bloccato l’utilizzo di ChatGPT da parte del Garante della Privacy per poi essere riattivato dopo un mese.

In questo ambito, interviene l’AI Act, il primo regolamento europeo sull’Intelligenza Artificiale che ha l’obiettivo di regolamentare l’utilizzo dell’AI per garantire migliori condizioni per lo sviluppo e l’utilizzo di questa tecnologia.

Qual è lo scopo della legislazione sull’AI?

Lo scopo del Parlamento Europeo è quello di garantire che i sistemi di AI siano sicuri, trasparenti, tracciabili, rispettosi dell’ambiente, non discriminatori e supervisionabili dall’uomo, in modo da garantire un bilanciamento tra innovazione e protezione nell’ambito dei sistemi di Intelligenza Artificiale.

L’obiettivo della UE è quello di rendere l’Unione Europea “un polo di livello mondiale per l’IA e a garantire che l’IA sia incentrata sull’uomo e sull’affidabilità”. Tale obiettivo si traduce nell’ approccio europeo all’eccellenza e alla fiducia attraverso norme e azioni concrete.” [https://digital-strategy.ec.europa.eu/it/policies/european-approach-artificial-intelligence]

Quali sono le regole dell’AI Act?

Le regole previste dall’AI Act prevedono obblighi diversi per fornitori e utenti in base al livello di rischio derivante dall’Intelligenza Artificiale.

I rischi sono stati classificati in diverse tipologie:

Rischio specifico per la trasparenza

In questa categoria rientrano quei sistemi di Intelligenza Artificiale General Purpose come i chatbot o chatGPT, con il cui utilizzo gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina.

I contenuti generati dall’AI dovranno pertanto essere etichettati come tali e i fornitori dovranno progettare i sistemi in modo che il contenuto sia contrassegnato in modo evidente come generato o manipolato dall’AI. 

Rischio inaccettabile

In questo ambito rientrano i sistemi di Intelligenza Artificiale che sono considerati una minaccia per le persone, e pertanto, saranno vietati. Esempi sono:

  • manipolazione cognitivo comportamentale di persone o gruppi vulnerabili (es. giocattoli che utilizzano l’assistenza vocale per incoraggiare comportamenti pericolosi di minori)
  • punteggio sociale
  • identificazione biometrica e categorizzazione delle persone

Rischio alto

In questa categoria rientrano i sistemi di Intelligenza Artificiale che influiscono negativamente sulla sicurezza o sui diritti fondamentali. Tutti i sistemi ad alto rischio, prima di essere immessi sul mercato, ma anche durante tutto il loro ciclo di vita, saranno appositamente monitorati e valutati.

I sistemi ad alto rischio dovranno rispettare requisiti specifici come sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, supervisione umana, documentazione dettagliata, ecc.

In questo campo rientrano infrastrutture critiche come nei settori dell’acqua, gas ed elettricità, i sistemi per determinare l’accesso alle istituzioni educative o per il recruiting, i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni.

Rischio limitato

Infine, nel rischio limitato, rientrano i sistemi di Intelligenza Artificiale che devono rispettare i requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate, decidendo quindi, dopo aver interagito con le applicazioni, se continuare a utilizzarle oppure no.

in questa categoria rientra la maggioranza dei sistemi di AI, ad esempio i sistemi di raccomandazione o i filtri antispam. Per questi sistemi, non ci saranno obblighi proprio per il rischio minimo che rappresentano. Tuttavia, su base volontaria le aziende potranno impegnarsi ad adottare codici di condotta per i propri sistemi di AI.

AI Act Europe

A che punto siamo?

I lavori sulla regolamentazione dell’AI sono iniziati nel 2021 e continuano tutt’oggi.

Il 9 dicembre 2023 il Parlamento ha raggiunto, con il Consiglio, un accordo provvisorio sulla legge sull’AI. Per diventare una legge ufficiale dell’Unione Europea, il testo concordato dovrà essere adottato formalmente sia dal Parlamento che dal Consiglio, dopo di che, entrerà in vigore 20 giorni dopo la pubblicazione sulla Gazzetta ufficiale. La legge diventerà applicabile due anni dopo la sua entrata in vigore, eccezione fatta però per i divieti che saranno applicati già dopo 6 mesi.

Per affrontare il periodo transitorio che ci sarà prima che il regolamento diventi una legge a tutti gli effetti, la Commissione lancerà un patto sull’Intelligenza Artificiale. Il patto servirà a incoraggiare e supportare le imprese nella pianificazione anticipata delle misure previste dall’AI Act.

Cosa succederà in futuro?

Le aziende che non rispetteranno le regole imposte verranno multate con sanzioni che potrebbero variare dai 7,5 ai 35 milioni di euro o comunque dall’1,5 al 7% del fatturato annuo. Per le PMI e le startup saranno previsti massimali più proporzionati.

Uno degli obblighi per i sistemi General Purpose sarà quello di pubblicare una lista dei materiali usati per l’addestramento degli algoritmi e rendere riconoscibili i contenuti prodotti dall’AI.

Realizziamo soluzioni di Business Intelligence & Advanced Analytics per trasformare semplici dati in informazioni di grande valore strategico.

Autore

Tabella dei Contenuti