La Comissió Europea ha presentat noves mesures destinades a convertir a la UE en el centre mundial d’una intel·ligència artificial (IA).
Segons explica l’organisme, la combinació del primer marc jurídic sobre la IA de la història i d’un nou pla coordinat amb els Estats membres garantirà la seguretat i els drets fonamentals de les persones i les empreses, al temps que reforçarà l’adopció, la inversió i la innovació en matèria d’IA a tota la UE.
El nou reglament sobre la intel·ligència artificial garantirà que els ciutadans europeus puguin confiar en el que la IA pugui oferir. Segons explica la nota remesa per l’organisme, es busca que hi hagi “unes normes proporcionades i flexibles, que abordaran els riscos específics que plantegen els sistemes d’IA i fitxaran els estàndards més alts del món. El pla coordinat exposa els canvis de política i les inversions necessàries en els Estats membres per reforçar el lideratge d’Europa en el foment d’una IA centrada en l’ésser humà, sostenible. Segura, inclusiva i fiable”.
Les noves normes s’aplicaran directament de la mateixa manera en tots els Estats membres sobre la base d’una definició d’IA a prova de futur. Segueixen un plantejament basat en el risc, com s’explica a continuació.
Risc inadmissible. Es prohibiran els sistemes d’IA que consideren una clara amenaça per a la seguretat, els mitjans de subsistència i els drets de les persones. Això abasta els sistemes o les aplicacions d’intel·ligència artificial que manipulen el comportament humà per eludir la voluntat dels usuaris (per exemple, joguines que utilitzen assistència vocal per incitar a comportaments perillosos als menors) i sistemes que permeten la “puntuació social” per part dels governs.
Alt risc. Els sistemes d’IA considerats d’alt risc abasten les tecnologies d’IA empleades en infraestructures crítiques; formació educativa o professional; components de seguretat dels productes; ocupació, gestió de treballadors i accés al treball per compte propi; serveis públics i privats essencials; aplicació de les lleis; gestió de la migració, l’asil i el control de les fronteres; administració de justícia i processos democràtics.
Els sistemes d’IA d’alt risc estaran subjectes a obligacions estrictes abans que es puguin comercialitzar:
- sistemes adequats d’avaluació i mitigació de riscos;
- alta qualitat dels conjunts de dades que alimenten el sistema per minimitzar els riscos i els resultats discriminatoris;
- registre de l’activitat per garantir la traçabilitat dels resultats;
- documentació detallada que aporta tota la informació necessària sobre el sistema i la seva finalitat perquè les autoritats avaluïn la seva conformitat;
- informació clara i adequada a l’usuari;
- mesures apropiades de supervisió humana per minimitzar el risc;
- alt nivell de solidesa, seguretat i precisió.
En especial, es consideraran d’alt risc i estaran subjectes a requisits estrictes tots els sistemes d’identificació biomètrica remota. El seu ús en espais d’accés públic amb fins policials estarà prohibit en principi. S’han definit i regulat excepcions estrictes. El seu és estarà subjecte a l’autorització d’un òrgan judicial o altre organisme independent i als límits adequats des del punt de vista de la duració, l’abast geogràfic i les bases de dades explorades.
Risc limitat. Sistemes d’IA amb obligacions específiques de transparència: a l’utilitzar sistemes d’IA amb robots conversacionals, els usuaris hauran de ser conscients que estan interactuant amb una màquina per poder prendre una decisió informada de continuar o no.
Risc mínim o nul. La proposta permet l’ús gratuït d’aplicacions tals com videojocs basats en l’IA o filtres de correu brossa. La immensa majoria dels sistemes d’IA entra en aquesta categoria. El projecte de reglament no intervé aquí, ja que aquests sistemes d’IA només representen un risc mínim o nul per als drets o la seguretat dels ciutadans.
Per acabar, en termes de governança, la Comissió proposa que les autoritats nacionals de vigilància del mercat controlin les noves normes, mentre que la creació d’un Comitè Europeu d’Intel·ligència Artificial facilitarà la seva aplicació i impulsarà la creació de normes en matèria d’IA. A més, es proposen codis de conducta voluntaris per a la IA que no comporti un alt risc, així com espais controlats de proves per facilitar la innovació responsable.
Publicat al Diari Digital Expansión
21 d'Abril de 2021