REVISTA ANPE 619

I N F O R M A C I Ó N P R O F E S I O N A L 13 Esta normativa pionera tiene como objetivo fundamental lograr un equilibrio entre el uso innovador de la IA y la garantía de su aplicación ética, segura y transparente. La nueva ley europea que regulará la IA, y que entra- rá en vigor el año 2024, recoge las recomendaciones recogidas en la propuesta de la Comisión europea de abril de 2021. Dada su singularidad, el 19 de mayo del mismo año, el Parlamento europeo redactó una resolución específica que abordara el impacto de la IA en el ámbito educativo. Una de las conclusiones más importantes es el reco- nocimiento de la necesidad de reducir al mínimo el riesgo de adoptar decisiones asistidas por IA erróneas o sesgadas en esferas críticas como la educación y la formación, donde confluyen además de los factores generales la especial vulnerabilidad que sufren los menores debido a su desarrollo cognitivo y madu- rativo. La iniciativa legislativa ha recibido la aprobación en el mes de julio, marcando así el inicio de una fase crucial de negociaciones con los 27 países miembros de la UE. El objetivo final es llegar a un acuerdo definitivo antes de que finalice el año. La Ley de Inteligencia Artificial de la UE supone un avance significativo en la regulación de esta tecnolo- gía emergente. Su propósito es establecer un marco legal claro y coherente que aborde los desafíos y ries- gos asociados con la IA, al tiempo que proteja los de- rechos fundamentales de los ciudadanos europeos. Además, busca fomentar la confianza y la aceptación de la IA en la sociedad, promoviendo así la competiti- vidad y la innovación en el mercado europeo. Alto riesgo Los sistemas de inteligencia artificial de alto riesgo dentro del contexto educativo serían aquellos que pudiesen afectar a los derechos o la seguridad de las personas. Por ejemplo, los sistemas que evalúen el conocimiento o las habilidades de los estudiantes o que determinen su acceso a la educación. Estos siste- mas tendrían que cumplir con una serie de requisitos obligatorios, como: • Calidad y seguridad: tendrían que estar diseñados y desarrollados con datos precisos y representati- vos, y ser sólidos y resistentes a errores o ataques. • Transparencia y trazabilidad: tendrían que ser do- cumentados y registrados, y proporcionar infor- mación clara y adecuada a los usuarios sobre su funcionamiento, sus capacidades y sus limitacio- nes. • Supervisión humana: tendrían que permitir la in- tervención o la supervisión humana efectiva en todo momento, y garantizar que las personas pue- dan anular o desactivar el sistema si es necesario. • Responsabilidad: tendrían que estar sujetos a un sistema de gestión de riesgos y a un sistema de control de calidad antes, durante y después de su puesta en funcionamiento. Además, los proveedo- res tendrían que garantizar el acceso a recursos efectivos en caso de daños causados por el siste- ma. Información extraída del artículo Cómo afecta- rá la ley de Inteligencia Artificial a la Educación publicado en Cuadernos de Pedagogía. La Unión Europea se prepara para la creación de la Ley de Inteligencia Artificial (IA) LEY DE INTEL IGENCIA ARTI F ICIAL

RkJQdWJsaXNoZXIy ODE4NjI=