G D P R O K

Loading

artificial intelligence 6767502 1280

Mercoledì 13 marzo 2024, il Parlamento Europeo ha approvato la legge sull’intelligenza artificiale (IA), che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l’innovazione. il regolamento sull’IA è stato adottato con un ampio margine di voti favorevoli (523 a favore, 46 contrari e 49 astenuti), confermando così l’Unione Europea come pioniere nella regolamentazione dell’economia digitale. Questo successo segue altre importanti iniziative legislative dell’UE, come il Regolamento generale sulla protezione dei dati (GDPR), il Digital Markets Act e il Digital Services Act, che hanno consolidato la posizione dell’Unione come punto di riferimento per la governance digitale.

Conosciuto con il nome di AI Act, il nuovo regolamento stabilisce una serie di requisiti e obblighi chiari per gli sviluppatori e gli utilizzatori di IA, tenendo conto dei rischi potenziali, dell’impatto e delle applicazioni di questi “nuovi” strumenti.

Alcuni importanti esempi: limitazione dell’uso della biometria da parte delle forze dell’ordine; introduzione di norme per contrastare manipolazioni e abusi nell’utilizzo dell’IA. Inoltre, vengono vietate pratiche dannose come il riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, oltre alle operazione di polizia predittiva.

L’approvazione dell’AI Act ha suscitato commenti positivi da parte di diversi attori politici e istituzionali dell’UE. Il Commissario al Mercato interno e al Digitale Thierry Breton ha sottolineato l’importanza di regolamentare l’IA solo nella misura necessaria, ponendo al centro dello sviluppo di tali tecnologie il rispetto degli esseri umani e dei valori europei. Brando Benifei, correlatore del AI Act per la commissione per il Mercato interno del Parlamento UE, ha esultato per il fatto che l’Unione Europea abbia collocato l’IA all’interno dei valori fondamentali che caratterizzano la società europea.

Tuttavia, nonostante l’approvazione parlamentare, il regolamento deve ancora superare alcuni passaggi prima di entrare in vigore. Deve essere sottoposto alla verifica finale dei giuristi-linguisti e approvato formalmente dal Consiglio. Una volta pubblicato nella Gazzetta Ufficiale dell’UE, entrerà in vigore dopo venti giorni e sarà applicato due anni dopo, salvo alcune eccezioni.

Cerchiamo allora di capire meglio, data la sempre maggior diffusione nel panorama tecnologico dei sistemi di Intelligenza artificiale (AI) o con una componente di AI sono (sanità, produzione, risorse umane, finanza, trasporti, ecc.) quali siano le best practies, oltre a quelle stabilite dal regolamento, per lo sviluppo e l’uso responsabili di tali sistemi e per affrontare al meglio potenziali preoccupazioni etiche garantendo la protezione degli individui e della società nel suo insieme.

I sistemi di AI sono “sistemi ingegnerizzati che generano output come contenuti, previsioni, raccomandazioni o decisioni per un dato insieme di obiettivi definito dall’uomo e con diversi livelli di automazione”; pertanto l’obbiettivo fondamentale è che tali sistemi siano “affidabili”.

Per garantire ciò, affrontando le conseguenti etiche e consentire un utilizzo responsabile dell’IA, è essenziale adottare le migliori pratiche nello sviluppo e nell’uso di tali sistemi. A questo proposito, di fondamentale importanza è la norma ISO/IEC 42001:2023 che fornisce un quadro completo per la gestione dei sistemi di IA, affrontando aspetti cruciali come distorsione, controllabilità, spiegabilità e trasparenza.

Pertanto, i sistemi di AI, dovranno essere progettati e convalidati in conformità a queste normative e dovranno essere: allineati agli obiettivi delle parti interessate; con una chiara identificazione dei vari soggetti coinvolti; siano considerate tutte le dinamiche operative dei sistemi da implementare.

Si dovrà poi vitare la differenza sistematica nel trattamento di determinati soggetti o gruppi rispetto ad altri (bias); sarà necessario consentire agli agenti esterni di intervenire nel suo funzionamento; bisognerà chiaramente spiegare i fattori che influenzano le decisioni dell’IA; sarà fondamentale garantire ipotesi attendibili da parte delle parti interessate rispetto agli output generati; sarà fondamentale verificare la comprovata affidabilità delle previsioni, raccomandazioni e decisioni generate dai sistemi di AI affinché siano coerenti e corrette; il sistema dovrà avere la capacità i ripristinare rapidamente le condizioni operative dopo un incidente; dovrà essere in grado di  mantenere le prestazioni richieste in varie circostanze, incluso il funzionamento in condizioni ambientali complesse; dovrà essere assolutamente trasparente, al fine di garantire che le attività e le decisioni di un’organizzazione appropriate siano comunicate ala parti interessate in modo completo, accessibile e comprensibile.

Per acquisire una piena comprensione dei concetti, dei requisiti e dei controlli sottostanti alla norma ISO/IEC 42001:2023, è tuttavia essenziale iniziare con la terminologia per un approccio standardizzato e uniforme. In questo contesto, la norma ISO/IEC 22989 Information technology — Artificial intelligence — Artificial intelligence concepts and terminology offre un supporto fondamentale. Questo standard definisce la terminologia relativa all’intelligenza artificiale (IA), garantendo chiarezza, coerenza e precisione nella comunicazione tra diversi attori e facilitando una regolamentazione più efficace.

La ISO/IEC 22989 stabilisce un glossario per l’IA ed espone i concetti principali in questo ambito, facilitando la comunicazione e servendo da riferimento per lo sviluppo di direttive future. La sua portata è universale e applicabile a una vasta gamma di organizzazioni, comprese imprese commerciali, agenzie governative e organizzazioni non profit.

La ISO/IEC 22989 fornisce un quadro comune per discutere e valutare questioni pratiche ed etiche relative all’IA, definendo termini come “bias”, “equità” e “impatto sociale”. Questo quadro standardizzato facilita una comunicazione chiara e inequivocabile sui sistemi di IA e le loro implicazioni etiche, contribuendo a stabilire linee guida e regolamenti chiari, certi e sicuri.

La standardizzazione della terminologia promuove una migliore comprensione delle complessità connesse all’IA a tutti i livelli decisionali, facilitando la creazione di normative appropriate e garantendo coerenza e armonizzazione. Inoltre, favorisce l’integrazione di componenti basate sull’IA in sistemi o piattaforme diverse e promuove la trasparenza, consentendo di comprendere le motivazioni alla base delle decisioni derivanti dall’IA.

La trasparenza è cruciale per promuovere la fiducia e la responsabilità nell’uso dell’IA. Gli utenti devono essere in grado di comprendere il funzionamento dei sistemi di IA e avere fiducia nella loro etica e responsabilità. La standardizzazione della terminologia e la promozione della trasparenza contribuiscono quindi a garantire un uso sicuro ed efficace dell’IA, nel rispetto dei valori etici e delle normative

In conclusione, l’adozione di normative come l’AI Act e l’implementazione di standard come la ISO/IEC 42001:2023 e la ISO/IEC 22989 sono passi cruciali verso un utilizzo responsabile e sicuro dell’intelligenza artificiale.

Articoli simili

Leave a Comment

logo

© Copyright 2021

Aliante SRL

P.IVA 12104420968

REA: MB – 2640961

Capitale sociale i.v. € 25.000

Realizzazione:

MayBee Comunicazione