Segons la Llei Europea d’Intel·ligència Artificial o AI Act, la prioritat del Parlament Europeu és garantir que els sistemes d’IA utilitzats a la UE siguin segurs, transparents, traçables, no discriminatoris i respectuosos amb el medi ambient.
La Llei Europea d’Intel·ligència Artificial classifica la IA segons el seu risc:
- Es prohibeixen els usos d’IA amb riscos inacceptables. Això vol dir que no s’han d’utilitzar els següents tipus de models:
- IA subliminal, manipuladora o enganyosa
- Models d’IA que explotin vulnerabilitats relacionades amb l’edat, la discapacitat o les circumstàncies socioeconòmiques per distorsionar el comportament, causant danys significatius.
- Sistemes de categorització biomètrica que infereixin atributs sensibles (com ara raça, opinions polítiques, afiliació sindical, creences religioses o filosòfiques, vida sexual o orientació sexual), excepte per a l’etiquetatge o el filtratge de conjunts de dades biomètriques adquirides legalment o quan les forces de seguretat categoritzen dades biomètriques.
- Sistemes de puntuació social.
- Sistemes que avaluïn el risc que una persona cometi delictes penals.
- Compilar bases de dades de reconeixement facial d’Internet o imatges de CCTV.
- Inferir emocions en llocs de treball o institucions educatives.
- Identificació biomètrica remota (RBI) «en temps real» en espais d’accés públic per a les forces de seguretat.
- Sistemes d’IA d’alt risc: estan regulats, i l’AI Act se centra sobretot en aquesta tipologia.
- Sistemes d’IA de risc limitat: estan subjectes a obligacions de transparència menys estrictes. Això significa que els desenvolupadors han d’assegurar-se que els usuaris finals siguin conscients que estan interactuant amb la IA (deixant clar que hi ha un model d’IA darrere dels chatbots i els deepfakes).
- Els models d’IA de risc mínim: no estan regulats: entre aquests es troben la majoria de les aplicacions d’IA que estaven disponibles al mercat únic de la UE en el moment de l’entrada en vigor de la Llei d’IA el 2021. Per exemple, videojocs habilitats amb IA i filtres de correu brossa.
Clarament, aquest escenari està canviant amb la IA generativa, que augmenta el nivell de risc dels models d’IA, convertint-los majoritàriament en models d’alt risc.
Tot i que les regulacions de la IA estan avançant, creiem que els sistemes d’IA haurien de ser supervisats per persones, en lloc de per l’automatització, per evitar resultats perjudicials. Això inclou assegurar-nos que som capaços de generar sistemes d’IA fiables (trustworthy AI en anglès) que tinguin un disseny just i que siguin explicables i clars per als responsables de la presa de decisions.
És evident que la legislació no accelerarà l’adopció d’una IA responsable, però són les organitzacions les que han de compartir experiències i solucions per mostrar com són les «bones pràctiques».
Els consells d’administració han d’adoptar la responsabilitat digital corporativa per avaluar els impactes digitals dels productes o serveis en totes les parts interessades, examinant els impactes socials, econòmics, tecnològics i ambientals.
Per tant, estem donant suport a les empreses en el seu paper per garantir que la tecnologia no es desplegui en «casos d’ús negatius» que puguin perjudicar la societat i generant així models d’IA que siguin transparents, eficaços, justos i responsables.
→ Consulta la nostra solució Trustworthy AI


























