Regulamento sobre Intelixencia Artificial

From Wikipedia, the free encyclopedia

Regulamento sobre Intelixencia Artificial
Remove ads

O Regulamento sobre Intelixencia Artificial da Unión Europea é un regulamento da Unión Europea sobre o uso da intelixencia artificial na UE. Proposta pola Comisión Europea o 21 de abril de 2021,[1] ten como obxectivo introducir un marco normativo e legal común para a intelixencia artificial.[2] O seu ámbito abarca todos os sectores (excepto o militar) e todo tipo de intelixencia artificial. Como instrumento de regulación de produtos, non confire dereitos aos particulares, senón que regularía aos provedores de sistemas de intelixencia artificial e ás entidades que os utilicen profesionalmente.

Datos rápidos Data, Ratificación ...
Remove ads

Obxectivos

O Regulamento sobre Intelixencia Artificial da UE ten como obxectivo clasificar e regular as aplicacións de intelixencia artificial en función do seu risco de causar danos. Esta clasificación divídese principalmente en tres categorías: prácticas prohibidas, sistemas de alto risco e outros sistemas de IA.[3]

Categorías

Prácticas prohibidas son aquelas que utilizan a intelixencia artificial para causar manipulación subliminal ou explotar as vulnerabilidades das persoas e que poden producir danos físicos ou psicolóxicos, que fan un uso indiscriminado da identificación biométrica remota en tempo real en espazos públicos para a aplicación da lei, ou que utilizan un sistema de puntuación social derivado da IA por parte das autoridades para prexudicar inxustamente a individuos ou grupos.[4] Aínda que o regulamento prohibe por completo estes últimos, proponse un réxime de autorización para os tres primeiros no marco da aplicación da lei.[5]

Os sistemas de alto risco, segundo o Regulamento, son aqueles que supoñen ameazas importantes para a saúde, a seguridade ou os dereitos fundamentais das persoas. Esixen unha avaliación de conformidade obrigatoria, realizada como autoavaliación polo provedor, antes de ser lanzadas ao mercado. As aplicacións especialmente sensíbeis, como os dispositivos médicos, requiren que a autoavaliación do provedor de acordo cos requisitos do regulamento sexa realizada polo organismo notificado que realiza a avaliación de acordo coa normativa comunitaria xa existente, como o Regulamento de dispositivos médicos.[6]

Os sistemas de IA fóra das categorías anteriores non están suxeitos a ningunha regulación, e os Estados membros impiden en gran medida regulalos aínda máis mediante a máxima harmonización. Xa non se aplican as leis estatais existentes relativas ao deseño ou uso destes sistemas. Non obstante, está previsto un código de conduta voluntario para estes sistemas, aínda que non desde o principio.[3]

Outras actuacións

A lei tamén propón a introdución dun Consello Europeo de Intelixencia Artificial para promover a cooperación internacional e garantir o cumprimento do regulamento. [7]

Do mesmo xeito que o Regulamento Xeral de Protección de Datos da Unión Europea, o Regulamento de IA é a primeira lei reguladora da IA en todo o mundo, e podería servir de modelo para outros países.[8] O Consello Europeo adoptou as súas orientacións xerais sobre o Regulamento de IA o 6 de decembro de 2022. [9] Alemaña apoia a posición do Consello, pero aínda ve certa necesidade de melloras, tal e como se formula nunha declaración do Estado membro adxunta.[10] Entre as medidas que probabelmente se propoñan está que os desenvolvedores de IA de produtos como ChatGPT de OpenAI declaren se se utilizou material protexido por dereitos de autoría para adestrar a súa tecnoloxía.[11]

Remove ads

Aplicación

O regulamento regula a entrada no mercado interior da UE. Neste sentido, utiliza o Novo Marco Lexislativo, que se remonta ao Novo Enfoque, que se remonta a 1985. A forma en que isto funciona é a seguinte: o lexislador da UE crea a lei de IA, esta lei contén as disposicións máis importantes que deberán cumprir todos os sistemas de IA que desexen acceder ao mercado interior da UE. Estes requisitos chámanse "requisitos esenciais". Segundo o Novo Marco Lexislativo, estes requisitos esenciais transmítense ás Organizacións Europeas de Normalización, que desenvolven normas técnicas que especifican aínda máis os requisitos esenciais.[12]

O Regulamento obriga aos Estados membros a crear os seus propios organismos de notificación. Deben realizarse avaliacións de conformidade para verificar se os sistemas de IA cumpren efectivamente os estándares establecidos no Regulamento de IA.[13] Esta avaliación da conformidade realízase mediante a autoavaliación, o que significa que o provedor do sistema de IA verifica a conformidade por si mesmo, ou mediante unha avaliación de conformidade de terceiros, o que significa que o organismo notificante realizará a avaliación.[14] Os organismos notificantes conservan a posibilidade de realizar auditorías para verificar que a avaliación da conformidade se realiza de forma adecuada.[15]

Segundo a proposta actual, parece que moitos sistemas de IA de alto risco non requiren unha avaliación de conformidade de terceiros, o que é criticado por algúns.[15] [16] [17] [18] Estas críticas baséanse no feito de que os sistemas de IA de alto risco deben ser avaliados por un terceiro independente para garantir plenamente a súa seguridade.

Remove ads

Notas

Véxase tamén

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads