L’UE è all’apice di una regolamentazione pionieristica sull’IA? | Epico

L’intelligenza artificiale (AI) è uno strumento affascinante nel mondo moderno. Può suggerire prodotti in base alla cronologia delle ricerche di una persona. Può riconoscere i volti per sbloccare un dispositivo. Può aiutare i reclutatori a scegliere il miglior candidato per ricoprire una posizione. Può abbattere i set di dati in modo significativo per un caso o un’indagine. E molto di più.

Sebbene l’intelligenza artificiale abbia rivoluzionato molti aspetti della vita lavorativa e personale, molti hanno espresso preoccupazione per i pregiudizi intrinseci. Gli esseri umani devono addestrare gli strumenti di intelligenza artificiale prima della distribuzione, il che può creare vulnerabilità a pregiudizi e pregiudizi. Se ciò accade e nessuno contesta mai la tecnologia, allora diventa difficile spiegare le decisioni e si apre la porta a danni alla reputazione e responsabilità legali.

Sebbene in paesi come gli Stati Uniti e la Cina vi sia stata una regolamentazione patchwork, non ci sono leggi generali sui libri. L’UE ha compiuto un passo rivoluzionario attraverso l’Artificial Intelligence Act, che è attualmente nel pieno del processo negoziale. È stato introdotto nell’aprile 2021 e negli ultimi due anni ha attraversato il processo legislativo.

In questo momento, il Parlamento europeo dovrebbe votare in primavera e la legge dovrebbe essere approvata quest’anno. Anche il Regno Unito ha pubblicato un documento programmatico sull’IA adottando un approccio diverso. È fondamentale capire cosa cambierebbero queste leggi e iniziare a prepararsi per la conformità, in quanto ciò porrà le basi affinché altri paesi seguano l’esempio.

La legge dell’UE sull’intelligenza artificiale

L’obiettivo dell’IA Act dell’UE è quello di promuovere un utilizzo trasparente ed etico dell’IA salvaguardando i dati. Sebbene non sia ancora nella forma definitiva, si sta avvicinando alla fine. Ecco le caratteristiche principali della proposta di legge:

  • La definizione di IA copre tutti i software sviluppati con approcci di apprendimento automatico, basati sulla logica, basati sulla conoscenza e/o statistici. Le organizzazioni che sviluppano o utilizzano tale software nell’UE sarebbero soggette a responsabilità.
  • Gli strumenti di intelligenza artificiale rientreranno in quattro categorie: inaccettabili, ad alto rischio, a rischio limitato e a rischio minimo. Sistemi inaccettabili come il punteggio sociale utilizzato nelle aree pubbliche sarebbero vietati dalla legge. Il regolamento si concentra principalmente su quelli che rientrano nella categoria ad alto rischio. Ciò include l’intelligenza artificiale utilizzata per l’occupazione, le forze dell’ordine, l’istruzione, l’identificazione biometrica e altro ancora.
  • I fornitori di intelligenza artificiale hanno l’onere più elevato. Gli obblighi fondamentali includerebbero una valutazione preventiva della conformità prima di immettere uno strumento sul mercato; creazione di un sistema di gestione del rischio per individuare i pregiudizi durante la progettazione, lo sviluppo e l’implementazione che attraversa l’intero ciclo di vita dell’utilizzo; requisiti di sicurezza informatica; tenuta dei registri; controllo umano ad ogni passo; gestione della qualità; creazione di solidi quadri di governance dell’IA; e registrazione pubblica.
  • Il termine utenti di intelligenza artificiale includerebbe individui e organizzazioni che utilizzano l’IA sotto la loro autorità rispetto agli utenti finali. Le agenzie di reclutamento sono un ottimo esempio. Le responsabilità includono la formazione con dati pertinenti, monitoraggio, registrazione, valutazioni dell’impatto sulla protezione dei dati e solidi framework di governance dell’IA.
  • Le sanzioni sono elevate e attualmente includono fino a 30 milioni di euro o il sei percento delle entrate globali dell’organizzazione in violazione.

Poiché questo continua a muoversi attraverso il processo, è importante prendere nota di eventuali modifiche o aggiunte. I legislatori hanno espresso preoccupazione su come regolerà la biometria e garantire la flessibilità incorporata nella legge a causa della natura dinamica dell’IA.

Approccio britannico proposto

Il documento politico del Regno Unito sulla governance e la regolamentazione dell’IA è uscito la scorsa estate. Si impegna inoltre a promuovere la trasparenza, la sicurezza e l’equità. Tuttavia, si discosta dal regolamento dell’UE in molti aspetti concentrandosi maggiormente sull’innovazione attraverso un approccio settoriale.

In parole povere, mentre ci sarebbero ancora degli standard da seguire, ogni agenzia regolerebbe l’utilizzo dell’IA nel proprio settore specifico. Questo è progettato per evitare troppa regolamentazione e tenere conto dei diversi rischi tra le industrie. La regolamentazione del Regno Unito sarebbe tecnologicamente agnostica concentrandosi sui risultati e se i sistemi si dimostrano adattabili e autonomi, poiché questi tipi di IA sono imprevedibili e presentano rischi più intrinseci.

Sebbene ciò darebbe flessibilità alle autorità di regolamentazione del Regno Unito, ci sarebbero dei principi fondamentali da seguire quando si disciplina l’utilizzo dell’IA da parte di un’organizzazione:

  • Garantire un utilizzo sicuro dell’IA
  • Garantire che il sistema sia tecnicamente sicuro e funzioni come previsto
  • Trasparenza e capacità di spiegazione
  • Incorporare considerazioni sull’equità nel sistema
  • Designare una persona giuridica come responsabile della governance
  • Creazione di protocolli chiari su riparazione e contestabilità

Un white paper che dettagliava ulteriormente questo argomento doveva uscire alla fine del 2022, ma ciò non è ancora avvenuto. Quando questo verrà rilasciato, fornirà ulteriori informazioni sul fatto che il Regno Unito avanzerà con la regolamentazione ufficiale e fornirà un migliore senso della sequenza temporale.

Prossimi passi

L’intelligenza artificiale continuerà a integrarsi nella società in una moltitudine di modi man mano che la tecnologia avanza. La regolamentazione in questo spazio aiuterà ad alleviare i timori di parzialità, proteggere i dati, incoraggiare l’innovazione e spiegare il processo decisionale. Ma questo tipo di regolamentazione andrà a livello globale come quello che è successo con la regolamentazione della privacy dopo l’approvazione del GDPR? L’UE stabilirà uno standard globale o ci saranno più movimenti nel Regno Unito o in altri paesi come la Cina che hanno già tastato le acque su scala ridotta? Solo il tempo lo dirà. In questo momento, monitorare gli sviluppi legislativi e dare il via alle iniziative di conformità è il modo migliore per prepararsi.

[View source.]

Leave a Comment

Your email address will not be published. Required fields are marked *