Legge europea dell'intelligenza artificiale (Artificial Intelligence Act)

home / news / legge-intelligenza-artificiale /

Legge europea dell'intelligenza artificiale (Artificial Intelligence Act)

legge intelligenza artificiale

Il 13 marzo 2014 il Parlamento ha approvato la legge sull'intelligenza artificiale (IA), che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l'innovazione

Il regolamento sull’intelligenza artificiale dell’Unione Europea mira a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo al contempo l’innovazione e garantendo all’Europa un ruolo guida nel settore. Ecco alcuni punti chiave:

  1. Applicazioni vietate: Il regolamento vieta alcune applicazioni di IA che minacciano i diritti dei cittadini. Queste includono sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’estrapolazione indiscriminata di immagini facciali da internet per creare banche dati di riconoscimento facciale e sistemi di riconoscimento delle emozioni sul luogo di lavoro o nelle scuole.
  2. Eccezioni per le forze dell’ordine: Le forze dell’ordine possono utilizzare sistemi di identificazione biometrica solo in situazioni specifiche previste dalla legge, come la ricerca di persone scomparse o la prevenzione di attacchi terroristici. L’uso “in tempo reale” richiede garanzie rigorose e autorizzazione giudiziaria.
  3. Obblighi per i sistemi ad alto rischio: Altri sistemi di IA ad alto rischio (ad esempio quelli legati a infrastrutture critiche, istruzione, servizi pubblici e privati) devono valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e garantire la sorveglianza umana. I cittadini hanno il diritto di presentare reclami su tali sistemi.
  4. Obblighi di trasparenza: I sistemi di IA per finalità generali devono soddisfare requisiti di trasparenza e rispettare le norme sul diritto d’autore durante l’addestramento. I modelli più potenti devono effettuare valutazioni e mitigare i rischi sistemici.
  5. Etichettatura dei deepfake: Le immagini e i contenuti audio o video artificiali (deepfake) devono essere chiaramente etichettati come tali.
  6. Misure a sostegno dell’innovazione: Gli Stati membri dell’UE devono istituire spazi di sperimentazione normativa per PMI e start-up per sviluppare sistemi di IA innovativi prima di metterli sul mercato.
0
logo half bottom

© 2007-2024 COMMS.IT S.r.l.U. | Cap. Soc. €10.000,00 I.V. | P. IVA IT09643890016 | Cod. Un. M5UXCR1 | REA TO-1068769