La rápida adopción de la IA en las empresas tiene el potencial de generar importantes aumentos de productividad y ofrecer un valioso apoyo a los trabajadores. Según Eurostat, el 42 % de las grandes empresas (más de 250 empleados) ya utilizan la IA, mientras que el 13 % de las empresas más pequeñas (más de 10 empleados) han comenzado a adoptarla. Sin embargo, a medida que las tecnologías de IA evolucionan y se difunden, también lo hacen los riesgos, que van desde las preocupaciones sobre la protección de datos debido a los enormes conjuntos de datos de entrenamiento, hasta el uso indebido con fines delictivos en ciberataques, los sesgos algorítmicos, las violaciones de la privacidad y cuestiones éticas como la manipulación y las amenazas a los derechos humanos.
En respuesta a ello, la UE ha introducido la primera legislación integral del mundo en materia de IA, la Ley Europea de Inteligencia Artificial (Ley de IA), con el fin de garantizar el desarrollo y el uso responsables de la IA, al tiempo que se protege la salud, la seguridad y los derechos fundamentales de los ciudadanos.
Entonces, ¿qué es la Ley de IA de la UE y por qué es importante tanto para las empresas como para la sociedad? Analicémoslo.
¿Qué es la Ley de IA de la UE?
La Ley de IA de la UE, introducida el 1 de agosto de 2024 y plenamente aplicable a partir del 2 de agosto de 2026, regula los sistemas de IA que afectan a las personas en la UE, incluso si se han desarrollado fuera de la región. Su objetivo es mitigar riesgos como las violaciones de la privacidad, los sesgos, la manipulación y los daños físicos mediante la aplicación de la transparencia, las salvaguardias éticas y la supervisión humana:
- Transparencia: los sistemas de IA deben explicar claramente cómo funcionan y qué riesgos plantean. Si un sistema de IA interactúa directamente con las personas (por ejemplo, los chatbots), debe quedar claro que se trata de un sistema de IA.
- Salvaguardias éticas: La Ley clasifica la IA por nivel de riesgo, prohíbe los sistemas más perjudiciales e impone obligaciones estrictas a los sistemas de alto riesgo.
- Supervisión humana: El aspecto de la «supervisión humana» es especialmente crítico para los sistemas de IA de alto riesgo. Garantiza que los seres humanos puedan supervisar, comprender y controlar el funcionamiento de estos sistemas. La IA de alto riesgo debe diseñarse de manera que permita la interacción humana, de modo que las personas puedan verificar que el sistema funciona de forma segura e intervenir si algo va mal. El objetivo es evitar daños a la salud, la seguridad o los derechos fundamentales de las personas. Los desarrolladores, proveedores y operadores son responsables de garantizar la calidad de los datos, realizar evaluaciones de riesgos y mantener la transparencia en el funcionamiento de los sistemas de IA. Los sistemas de alto riesgo también deben registrarse en una base de datos pública, en la que se notifiquen los incidentes. El cumplimiento se garantiza mediante evaluaciones de conformidad, certificaciones y sanciones importantes en caso de infracción.
Las multas por incumplimiento pueden ser muy elevadas: hasta 35 millones de euros o hasta el 7 % del volumen de negocios mundial total de la empresa en el ejercicio financiero anterior, lo que sea mayor.
Las cuatro categorías de riesgo
Las cuatro categorías de riesgo
La Ley de IA clasifica los sistemas de IA en cuatro niveles de riesgo:
- Riesgo inaceptable: los que utilizan puntuación social, puntuación biométrica en tiempo real o tecnologías manipuladoras (por ejemplo, dirigidas a niños o grupos vulnerables), por ejemplo, están totalmente prohibidos.
- Riesgo alto: sistemas estrictamente regulados en áreas como el transporte, la energía, la educación, el empleo, la aplicación de la ley y la justicia. Los desarrolladores deben garantizar la transparencia, la rendición de cuentas, la supervisión humana y la calidad de los datos.
- Riesgo limitado: Se les aplican normas menos estrictas y se les exige principalmente transparencia cuando los usuarios interactúan con la IA para garantizar que sean conscientes de cómo funciona, como se ve en aplicaciones como los chatbots o los deepfakes.
- Riesgo mínimo: La mayoría de los sistemas de IA entran en esta categoría y, en gran medida, no están regulados. Algunos ejemplos son la IA utilizada en videojuegos, los filtros de spam o la automatización del servicio de atención al cliente.
¿A quiénes afecta la Ley de IA?
¿A quiénes afecta la Ley de IA?
La Ley de IA afecta a los ciudadanos de la UE y a todas las organizaciones que operan en la UE o prestan servicios a la UE. Los cinco grupos afectados son los siguientes:
- Desarrolladores y proveedores de IA: deben cumplir la normativa si sus sistemas suponen un alto riesgo o requieren transparencia.
- Usuarios de IA de alto riesgo: cuando la IA se utiliza en áreas sensibles como la contratación, la banca/el crédito, la sanidad/los hospitales o los servicios públicos/gubernamentales, deben cumplirse estrictos requisitos de supervisión y gestión de riesgos.
- Distribuidores e importadores: deben garantizar que los sistemas cumplen los requisitos de la UE antes de su venta.
- Empresas no pertenecientes a la UE: deben cumplir la normativa si sus soluciones de IA afectan a usuarios de la UE.
- Consumidores: La mayoría de las personas serán, de alguna forma, consumidores y, aunque no están directamente regulados, la ley tiene por objeto proteger sus derechos y su seguridad.
Oportunidades y retos
Aunque crea nuevas normativas que deben cumplirse, la Ley de IA de la UE también ofrece una serie de ventajas para las empresas:
- Al establecer normas claras, refuerza la confianza de los consumidores y mejora la credibilidad ante los clientes, los inversores y los socios.
- También ayuda a mitigar los riesgos legales y de reputación que podrían surgir si los usuarios sufrieran daños como resultado del uso de la IA.
- Proporciona a las empresas directrices claras para desarrollar y operar sistemas de IA dentro de la UE.
- La Ley de IA de la UE motiva a las empresas a establecer normas más claras para tratar la IA y controlar mejor sus procesos. Esto mejora la toma de decisiones dentro de la empresa y la fiabilidad de los sistemas de IA. También facilita a las empresas la adaptación a otras normativas de IA existentes o futuras.
Sin embargo, aunque la Ley de IA refuerza las salvaguardias y la gobernanza, también puede plantear algunos retos para las empresas, especialmente para las más pequeñas y las de nueva creación:
- Los sistemas de alto riesgo se enfrentan a costes adicionales derivados de tareas de cumplimiento normativo, como evaluaciones de riesgos y documentación, lo que puede retrasar su desarrollo y su entrada en el mercado.
- Mientras tanto, las empresas de regiones con normativas menos estrictas pueden innovar más rápidamente y socavar a sus competidores de la UE.
- Las diferentes medidas de aplicación en los Estados miembros de la UE también podrían generar incertidumbre.
Introducción al cumplimiento de la Ley de IA: 4 pasos clave
La Ley de IA es compleja, pero las empresas pueden centrarse inicialmente en cuatro áreas clave.
- Clasifica tus sistemas de IA de acuerdo con la Ley: identifica los sistemas de alto riesgo y establece un monitoreo continuo.
- Garantiza la transparencia manteniendo una supervisión estricta de cómo se obtienen, gestionan y utilizan los datos para entrenar la IA, y explica claramente a los usuarios lo que el sistema puede y no puede hacer.
- Forma a tu equipo en materia de gobernanza de la IA y crea un equipo dedicado al cumplimiento normativo para gestionar el cumplimiento de las normas.
- Considera la posibilidad de adoptar tecnologías que faciliten el cumplimiento, como herramientas para anonimizar datos, detectar sesgos, supervisar el rendimiento y cifrar información confidencial.
El enfoque de Konica Minolta hacia una IA ética y conforme a la normativa
Konica Minolta se compromete a desarrollar una IA ética y transparente que cumpla con la Ley de IA de la UE, al tiempo que fomenta la innovación. Llevamos a cabo evaluaciones de riesgos que son revisadas por nuestro Comité de Ética de IA y apoyamos el desarrollo y el funcionamiento responsables mediante la formación de desarrolladores y partes interesadas clave, con el apoyo de equipos dedicados como nuestro Grupo de Trabajo de IA, la división de Protección de Datos y las unidades internas de cumplimiento. Utilizamos tecnologías como la anonimización y el cifrado para cumplir con los requisitos de la Ley de IA de la UE.
Más allá del cumplimiento, nuestro objetivo es liderar la IA responsable. Al incorporar estos principios en todas las etapas del desarrollo, no solo garantizamos el cumplimiento normativo, sino que también ofrecemos un valor añadido a los clientes a través de soluciones de IA seguras, fiables y de vanguardia.
Las siguientes soluciones de Konica Minolta basadas en IA ya cumplen con las disposiciones de la Ley de IA:
- Workplace Pure: una plataforma basada en la nube que combina numerosos servicios de gestión de documentos. Entre ellos se incluye un servicio de traducción basado en IA que se puede utilizar a través de un navegador o del panel de control de una impresora multifunción (MFP) bizhub. Esto permite traducir documentos de forma rápida y sencilla desde casi cualquier idioma de origen a casi cualquier idioma de destino, en cualquier momento y en cualquier lugar. Está alojada en centros de datos Open Telekom Cloud con sede en la UE para garantizar el pleno cumplimiento del RGPD y utiliza un cifrado HTTPS avanzado para proteger la información en tránsito.
- VSS (Video Solution Services): Los servicios de soluciones de vídeo (VSS) de Konica Minolta integran tecnologías de imagen avanzadas con análisis basados en IA para mejorar la seguridad, la eficiencia y el control operativo en diversos sectores. Algunos ejemplos de aplicaciones son la supervisión de líneas de producción, la garantía de la seguridad de los edificios y la mejora de los entornos sanitarios. Funciones como el reconocimiento facial o el análisis del comportamiento se procesan de forma segura y de acuerdo con las normativas de protección de datos, como el RGPD y la Ley de IA.
- FORXAI Mirror: FORXAI Mirror utiliza tecnología basada en IA para aumentar la seguridad en el lugar de trabajo. Garantiza el acceso a zonas de producción peligrosas y reduce el riesgo de contaminación al asegurar que los empleados solo entren en la zona de producción con el equipo de protección individual (EPI) exigido por la empresa. Detecta desviaciones en el EPI en tiempo real. La solución puede integrarse en los sistemas de control de acceso existentes, al tiempo que se cumplen estrictamente los principios de la Ley de IA de la UE, que dan prioridad a la privacidad, la transparencia, la evaluación de riesgos y la explicabilidad mediante el cifrado y rigurosas pruebas de modelos de IA.