Editor in Chief B2B COMPUTERWOCHE, CIO, CSO in Germany

L’AI Act tra innovazione e tutela dei consumatori

Analisi delle notizie
May 25, 20237 minuti
Intelligenza artificialeGovernoRegolamento

All’interno dell’UE è in corso il dibattito sulla regolamentazione dell’intelligenza artificiale. Mentre alcuni chiedono più controllo e diritti per i consumatori, altri temono che il quadro normativo possa bloccare il motore dell’innovazione.

European Union [EU] flag and binary code
Credito: Thinkstock

Gli eurodeputati del Parlamento europeo hanno approvato una prima bozza del regolamento sull’uso dell’IA. Con questo passaggio, l’AI Act [in tedesco] compie un importante nuovo passo, prima di essere discussa ed elaborata dai singoli Stati membri. Alla fine del percorso, prenderanno forma diverse leggi applicabili in tutta l’UE destinate a regolamentare l’utilizzo delle tecnologie di IA, quali ChatGPT [in tedesco].

In sostanza, la legge sull’IA consiste nel raggruppare i sistemi di intelligenza artificiale in diverse classi di rischio. Si va dai sistemi a rischio minimo fino a quelli ad alto rischio o che dovranno essere completamente vietati. Soprattutto quando si tratta di decisioni a carico di un sistema di IA che hanno conseguenze sulla vita degli esseri umani, dovranno essere applicati standard particolarmente restrittivi. Ciò riguarda, in particolare, la trasparenza dei dati con cui un’IA viene addestrata per prendere decisioni, e per il funzionamento dei relativi. In questo modo, i politici dell’UE vogliono garantire che tali applicazioni funzionino in modo sicuro e affidabile e non violino i diritti umani fondamentali.

Tuttavia, fino a quando non sarà stato definito un insieme di regole, probabilmente, ci saranno molte discussioni all’interno dei vari organi dell’UE. Al momento, non è possibile individuare una linea uniforme. Paesi come l’Italia hanno recentemente adottato una posizione più severa e hanno vietato lo strumento di IA generativa ChatGPT di Open AI [in tedesco]. Il motivo: l’impossibilità di poter controllare l’età degli utenti, e la possibile violazione del copyright dei dati che vengono utilizzati per l’addestramento dell’applicazione. Successivamente, le autorità italiane sono tornate sui loro passi, rendendo nuovamente consentito l’uso di ChatGPT, seppure a determinate condizioni.

Gli altri Paesi dell’UE hanno seguito con grande interesse la mossa delle autorità italiane per la protezione dei dati. Anche in Germania si è levata la voce che ChatGPT dovrebbe essere vietato qualora si potesse dimostrare che lo strumento viola le norme vigenti in materia di protezione dei dati.

Troppa regolamentazione ostacola l’innovazione

Definire una serie di regole per l’utilizzo dell’intelligenza artificiale non sarà probabilmente facile. Le posizioni sono molto distanti. Mentre i sostenitori dei consumatori chiedono regole severe che proteggano i diritti dei cittadini, i rappresentanti delle imprese avvertono che una regolamentazione troppo restrittiva della tecnologia potrebbe soffocare ulteriori innovazioni. Secondo i sostenitori di un’interpretazione meno rigida dell’AI Act, l’UE potrebbe perdere un’importante industria del futuro.

In una lettera aperta [Pdf, in tedesco], i membri del Large Scale Artificial Intelligence [in inglese] Open Network (LAION e.V.) hanno invitato i politici dell’UE a procedere con moderazione nella regolamentazione dell’IA. Accolgono con favore l’intenzione di introdurre una supervisione dell’intelligenza artificiale. Tuttavia, tale controllo deve essere attentamente calibrato per proteggere la ricerca e lo sviluppo e per mantenere la competitività dell’Europa nel campo dell’IA. Tra i firmatari figurano Bernhard Schöllkopf, direttore dell’Istituto Max Planck per i sistemi intelligenti di Tubinga, e Antonio Krüger, direttore del Centro di ricerca tedesco per l’intelligenza artificiale [in tedesco] (DFKI).

Soprattutto, i modelli di IA open-source [in tedesco] non dovrebbero essere eccessivamente regolamentati, chiede LAION, poiché essi, in particolare, consentono una maggiore trasparenza e sicurezza nel suo utilizzo. Inoltre, l’intelligenza artificiale open-source potrebbe impedire a poche aziende di controllare e dominare la tecnologia. In questo modo, una regolamentazione moderata contribuirebbe a far progredire la sovranità digitale dell’Europa.

Troppa poca regolamentazione indebolisce i diritti dei consumatori

Al contrario, la Federazione delle organizzazioni dei consumatori tedeschi (vzbv) [in tedesco] chiede maggiori diritti. Secondo una sua dichiarazione, in futuro, le decisioni degli utenti saranno sempre più influenzate da sistemi di raccomandazione basati sull’intelligenza artificiale, come ChatGPT. Per escludere i rischi dell’IA generativa, la prevista AI Act deve garantire diritti forti ai consumatori, e la possibilità di una valutazione indipendente dei rischi.

“Il rischio che i sistemi di intelligenza artificiale portino a raccomandazioni di acquisto, valutazioni e informazioni errate o manipolate è elevato. L’intelligenza artificiale [in tedesco] non è sempre così intelligente come promette il suo nome”, ha dichiarato Ramona Pop, direttore esecutivo del vzbv. Le conseguenze potrebbero essere gravi. “È necessario garantire che i consumatori siano adeguatamente protetti contro la manipolazione, l’inganno e la frode, per esempio da parte dei sistemi di raccomandazione controllati dall’intelligenza artificiale. L’accesso ai sistemi per valutarne i rischi e il funzionamento deve essere consentito a scienziati indipendenti”.

“Abbiamo bisogno di diritti individuali delle persone interessate da far valere nei confronti degli operatori di IA”, ha proseguito Pop. Le persone devono avere la facoltà di correzione e cancellazione se, per esempio, sistemi come ChatGPT causano svantaggi danneggiando la loro reputazione”. Le richieste del vzbv: L’AI Act deve garantire che le applicazioni di intelligenza artificiale rispettino le leggi europee e siano conformi ai valori europei.

Valutazione dei rischi: l’autovalutazione da parte dei produttori non è sufficiente

TÜV ha un’opinione simile [in tedesco]. Sebbene l’associazione TÜV accolga con favore, in linea di principio, il fatto che i gruppi politici del Parlamento europeo siano riusciti a concordare una posizione comune per la legge sull’intelligenza artificiale, vede un ulteriore potenziale di miglioramento. “Sono necessarie basi giuridiche chiare per proteggere le persone dalle conseguenze negative della tecnologia e allo stesso tempo per promuovere l’uso dell’IA nell’economia”, ha dichiarato Joachim Bühler, CEO dell’associazione TÜV.

Bühler chiede che venga garantito il rispetto delle specifiche, soprattutto per quanto riguarda la trasparenza degli algoritmi. Tuttavia, un audit indipendente è previsto solo per una piccola parte dei sistemi di IA ad alto rischio. “La maggior parte delle applicazioni di IA critiche, come il riconoscimento facciale, il software di reclutamento o il controllo della solvibilità, potranno continuare a essere immesse sul mercato con una semplice autodichiarazione del produttore”, critica l’uomo del TÜV. Inoltre, la classificazione come applicazione ad alto rischio si baserà in parte su un’autovalutazione da parte dei fornitori. “Gli errori di valutazione sono inevitabili”, conclude Bühler.

Secondo il TÜV, sarebbe meglio far controllare tutti i sistemi di intelligenza artificiale ad alto rischio da un ente indipendente prima di immetterli sul mercato. Questo è l’unico modo per garantire che le applicazioni soddisfino i requisiti di sicurezza. “Ed è particolarmente vero quando le applicazioni di IA sono utilizzate in aree critiche come la medicina, i mezzi di trasporto, le infrastrutture energetiche o alcuni macchinari per la produzione”, afferma Bühler.

Mentre le discussioni sulla regolamentazione dell’IA sono in pieno svolgimento, i ministri del digitale del G7 si sono espressi a favore dell’accompagnamento del rapido sviluppo dell’intelligenza artificiale con regole e standard chiari [in tedesco] in occasione di un incontro a Takasaki, in Giappone, alla fine di aprile. Secondo una dichiarazione del Ministero federale degli Affari digitali e dei Trasporti (BMDV), questi dovrebbero garantire a livello internazionale che l’IA sia utilizzata a beneficio delle persone e non per manipolare le opinioni e minare i valori democratici.

Il ministro del Digitale Wissing: “L’IA deve servirci, non manipolarci”.

“Nel gruppo dei G7 siamo d’accordo sulla necessità di agire rapidamente nella regolamentazione dell’intelligenza artificale”, ha dichiarato il ministro del Digitale Volker Wissing. “L’IA generativa ha un potenziale immenso per aumentare la nostra produttività e migliorare le nostre vite. Può aiutare a trovare soluzioni a problemi complessi, per esempio in medicina o per la tutela del clima”. Per questo è ancora più importante che le principali democrazie siano all’avanguardia e accompagnino lo sviluppo con regole intelligenti che proteggano le persone da abusi e manipolazioni. “L’intelligenza artificiale [in tedesco] dovrebbe servirci, non manipolarci.

Tuttavia, è lecito chiedersi se ciò avverrà con la rapidità auspicata dall’esponente dell’FDP Wissing. Bruxelles sta lavorando con l’AI Act dall’aprile 2021. Dopo l’accordo del Parlamento europeo, i negoziati a tre tra Consiglio, Parlamento e Commissione potrebbero iniziare nell’estate del 2023. Il momento in cui sarà possibile stabilire un insieme definitivo di norme e convertirlo in una legge applicabile è ancora lontano. È anche lecito chiedersi se per allora lo sviluppo tecnologico dell’IA avrà già superato da tempo tutti i tentativi di regolamentazione dell’IA.

Editor in Chief B2B COMPUTERWOCHE, CIO, CSO in Germany

Martin Bayer is Editor in Chief B2B COMPUTERWOCHE, CIO, CSO in Germany. He specializes in business software: Business Intelligence, Big Data, CRM, ECM and ERP.