Cosa stanno facendo i legislatori e le autorità di regolamentazione riguardo all’IA?

AI ha avuto un paio di anni importanti. Strumenti basati sull’intelligenza artificiale estremamente popolari e davvero impressionanti da Stable Infusion e DALL-E 2 a ChatGPT hanno catturato l’immaginazione del mondo, con molti di noi che pensano di essere sull’orlo di qualcosa di veramente imponente e rivoluzionario. In questi giorni, anche l’intelligenza artificiale è ovunque, dalla tua playlist Spotify Wrapped fino alle agenzie governative e ai ministeri che affidano importanti poteri a sistemi decisionali automatizzati.

Dobbiamo avere paura dell'ai

Con l’intelligenza artificiale quindi apparentemente in grado di svolgere molti dei nostri lavori meglio e più velocemente di quanto potremmo mai fare e altri aspetti dei nostri diritti umani vengono messi nelle mani di algoritmi avanzati, non è un’iperbole chiedersi, dobbiamo avere paura dell’IA, e cosa si sta facendo per assicurarsi che le cose non sfuggano di mano? Oggi esamineremo alcune delle diverse leggi che sono state redatte proprio per questo motivo e perché sono importanti.

La legge UE sull’IA

L’EU AI Act è importante in quanto segna il primo tentativo di creare una legge completamente orizzontale che regolerà tutti gli usi dell’IA. Funziona su criteri basati sul rischio e classifica le applicazioni dell’IA in tre livelli di rischio. La prima categoria comprende applicazioni e sistemi che presentano un rischio inaccettabile, come il punteggio sociale da parte del governo, che è vietato. La seconda categoria comprende le candidature ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati al lavoro, che sono soggetti a requisiti legali. La terza categoria comprende le applicazioni che non sono esplicitamente vietate o elencate come ad alto rischio, che sono in gran parte non regolamentate.

L’ EU AI Act è attualmente in fase di discussione da parte dell’UE e, se approvato, entrerà probabilmente in vigore nel 2023 o nel 2024. Se ciò dovesse accadere, ci sarà un periodo di grazia di 24-36 mesi prima che i requisiti principali entrino in vigore. Se ti stai chiedendo se questo sarà importante per te se vivi al di fuori dell’UE, devi ripensare al GDPR. Le dimensioni e il valore del mercato europeo, tra le altre cose, rendono l’UE una superpotenza normativa , il che significa che le società internazionali che hanno rapporti lì seguiranno quasi certamente la legge.

Il progetto per una Carta dei diritti dell’IA

Potresti averlo capito dal linguaggio usato, ma il Blueprint for an AI Bill of Rights è un’iniziativa degli Stati Uniti. L’Office of Science and Technology Policy della Casa Bianca ha rilasciato un progetto per una Carta dei diritti dell’IA che delinea cinque principi per guidare la progettazione, l’uso e l’implementazione di sistemi automatizzati nell’era dell’intelligenza artificiale. I principi, che sono progettati per proteggere i diritti del pubblico americano, includono garantire che i sistemi di intelligenza artificiale siano equi, trasparenti e responsabili; tutelare la privacy e le libertà civili; promuovere l’accesso ai vantaggi dell’IA; incoraggiare la collaborazione e l’innovazione; e garantire che i sistemi di IA siano sostenibili e sicuri. Il progetto è accompagnato da un manuale per incorporare questi principi nella politica e nella pratica.

È una buona notizia vedere la Casa Bianca discutere di questo tipo di questioni e con questo tipo di linguaggio, ma è roba molto semplice e per di più non è una legislazione vincolante. In questa luce, quindi, potrebbe essere visto come uno strumento educativo progettato per aumentare la consapevolezza del problema senza spingersi troppo oltre per intraprendere un’azione vincolante nel modo in cui lo farà l’EU AI Act.

Altri esempi di leggi e regolamenti sull’IA

Non c’è dubbio che l’EU AI Act sia il più grande attore in questo campo, ma anche questo non è all’altezza per molti aspetti poiché i regolatori dell’UE cercano di rifuggire dalle innovazioni statunitensi e l’UE regola il cliché. Un quadro basato sul rischio ha i suoi meriti, ma i diritti umani e gli approcci basati sui danni proteggerebbero meglio i cittadini comuni dalla fredda logica algoritmica che potrebbero anche non essere completamente addestrati o consapevoli delle complessità individuali delle loro vite. È incoraggiante vedere quindi che esiste una pletora di normative nazionali sul tavolo in un’ampia varietà di paesi tra cui Canada , Cina , Regno Unito , Brasile e altri. Resta da vedere se questi prenderanno il tuorlo dei diritti umani e proteggeranno dagli abusi basati sull’IA. Pertanto, quando si tratta di chiedersi se dovremmo avere paura dell’IA di fronte a così tanti rischi mentre cerchiamo di liberare il suo potenziale strabiliante, la risposta è: forse.