En abril de 2021, la Comisión Europea publicó su propuesta de 108 páginas para regular el inteligencia artificial (IA), describiéndola como un intento de garantizar una “mercado interior de sistemas de inteligencia artificial que funcione correctamente” que se basa en “los valores y principios de la UE”. Estamos hablando del primer gran intento de Europa de regular una tecnología necesaria que tendrá grandes repercusiones globales.
Pues hablábamos de 2021 y ya en 2023 con la inteligencia artificial más enfocada que nunca, esto ley seguir sin salir a flotey.
Recientemente aprendimos cómo estos planes se echan para atrás nuevamente por falta de consenso por parte de algunos legisladores. En el centro de la disputa está la necesidad de equilibrar derechos fundamentales como la privacidad de los datos y que todos los usuarios tengan acceso a sus beneficios con la necesidad de evitar que miles de empresas se lancen sin dudarlo a innovar en IA, lo que podría llevar al fracaso. herramientas o sistemas.
y es que, Europa quiere adoptar un enfoque más cauteloso hacia la IA que, digamos, EE. UU. y China, donde los legisladores no quieren imponer restricciones al respecto. Sin embargo, la Unión Europea espera que la regulación ayude a competir y ganarse la confianza de los usuarios, lo que anticipa que impulsará una adopción más amplia y segura de la inteligencia artificial.
La nueva Ley Europea de Inteligencia Artificial se niega a salir a la luz
La Ley de Inteligencia Artificial propuesta surge en medio de una creciente preocupación, no solo en Europa, sobre cómo la IA y otros sistemas algorítmicos de toma de decisiones están cada vez más entrelazados en Internet, lo que podría comprometer los derechos de los usuarios.
Por ejemplo, Miembros de ONU alertan sobre pobreza y derechos humanos por uso de herramientas de IA para limitar acceso a aspectos vitales como la salud, en un momento en el que estos programas se posicionan como el futuro de grandes sectores. En definitiva, temen que su adopción generalizada impida que una parte de la sociedad de menores ingresos acceda a sus beneficios.
Uno de los grandes puntos de debate se centra en decidir qué sistemas de inteligencia artificial serían catalogados como de “alto riesgo”, y que, por tanto, afectan a la seguridad de las personas o vulneran sus derechos fundamentales.
“La tensión obvia aquí es entre el enfoque en los derechos fundamentales, por un lado, y aquellos que dicen que estos necesariamente entran en conflicto con la innovación”dijo el eurodiputado verde Sergey Lagodinsky.
La UE determina cuatro tipos de IA para su legislación
La regulación actual describe cuatro niveles para regular los riesgos que plantean los sistemas de IA, con diferentes reglas que se aplican a cada nivel de riesgo. Las categorías son: “riesgo mínimo”, “riesgo limitado”, “riesgo inaceptable” y “riesgo alto”.
Por ejemplo, en el primer caso nos encontraríamos con aquellos sistemas de IA que son inocuos y de fácil acceso para la población, como podría ser el caso de ChatGPT. En segunda instancia se podría incluir la IA que se dedica a dirigir la publicidad en función de tus gustos, sexo o raza.
Entrando en los IA considerados como “riesgo inaceptable” nos encontramos vigilancia biométrica que podría ser una violación de la privacidad, lo que lleva a la discriminación. Aquí destacan las cámaras de reconocimiento facial y el mal uso por parte de la policía.
Por último, el “alto riesgo”. En este caso, el reglamento desarrolla una amplia lista de sistemas de IA como de “alto riesgo” que requerirían una legislación más estricta y controlada.
Por ejemplo, esto incluiría software de contratación automatizado utilizado para clasificar CV y contratar trabajadores, algoritmos que gestionan el cálculo de beneficios financieros o motores de inteligencia artificial que pueden generar falsificaciones profundas.
la ley también quiere establecer quién es responsable de las acciones de un sistema de IA, como la empresa que lo utiliza o la que lo ha diseñado. De esta forma, aquellas consideradas por la UE como aplicaciones de IA de alto riesgo tendrían que demostrar que cumplen con las reglas antes de ser implementadas en el unión Europea.
Y es que, también planea ofrecer la certificación “Trusted AI”, para promover el cumplimiento normativo y que son beneficiosas para la sociedad. Los sistemas certificados que luego se descubra que han violado las reglas podrían enfrentar multas.
Se espera que se presente la ansiada Ley de Inteligencia Artificial del bloque a una votación en el Parlamento Europeo a finales de marzomomento en el cual los países comenzarán a negociar los términos finales de la legislación.
