La nueva ley AI Act obligará a las empresas a trabajar con una Inteligencia Artificial más segura y ética

La Ley de Inteligencia Artificial (AI Act) es una nueva normativa de la Unión Europea que se está poniendo sobre la mesa en el entorno de la ciberseguridad. Este reglamento establece un marco claro para el uso ético y seguro de la inteligencia artificial, clasificando los sistemas de IA en diferentes categorías de riesgo. La ley pone un fuerte énfasis en la protección de los derechos fundamentales, la transparencia y la responsabilidad, asegurando que los sistemas de IA de alto riesgo cumplan con estrictos estándares de seguridad y gobernanza. Las empresas deben adaptarse a estas nuevas regulaciones para evitar sanciones significativas.

¿Qué busca el legislador con la nueva la nueva Ley de Inteligencia Artificial (AI Act)?

La AI Act busca posicionar a Europa como líder en innovación tecnológica y establecer estándares globales para el uso ético y seguro de la inteligencia artificial (IA). Esta ley clasifica los sistemas de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Este enfoque del riesgo permite una regulación proporcionada y específica, lo que evita la sobrecarga normativa y garantiza la protección de los derechos fundamentales de los ciudadanos.

¿Cuáles son los sistemas de IA considerados de riesgo inaceptable y qué medidas se han tomado al respecto?

Los sistemas de IA considerados de riesgo inaceptable incluyen aplicaciones que son peligrosas para los derechos y libertades fundamentales, como ciertas formas de vigilancia masiva, el reconocimiento facial en espacios públicos sin justificación, y la manipulación subliminal; donde se utilizan técnicas de IA para influir en el comportamiento de las personas sin su conocimiento o consentimiento. Estos sistemas están prohibidos por la AI Act para proteger a los ciudadanos de posibles abusos y mantener estándares éticos en el uso de la tecnología.

¿Qué requisitos deben cumplir los sistemas de IA de alto riesgo según la nueva ley?

Los sistemas de IA de alto riesgo tienen un impacto significativo en áreas críticas como la salud, la educación y el empleo, las cuales están sujetas a requisitos rigurosos. Estos incluyen la gestión de riesgos, la gobernanza de datos, la documentación técnica, la transparencia y la supervisión humana. Además, estos sistemas deben pasar por un proceso de certificación y evaluación para asegurar que cumplan con los estándares establecidos, protegiendo así a los usuarios y a la sociedad en general, como es el caso de OptimumTIC con la certificación de la ISO/IEC 42001:2023.

¿Cómo afecta esta ley a las empresas, especialmente aquellas que utilizan sistemas de IA en sectores de alto riesgo?

La AI Act impactará significativamente a las empresas españolas, especialmente a aquellas que operan en sectores como energía, dispositivos médicos y automoción. Estas empresas deberán asegurarse de que sus sistemas de IA cumplan con estrictos estándares de seguridad y transparencia. Además, la ley impone restricciones severas para el uso de IA en la identificación biométrica y establece regulaciones para prevenir sesgos y discriminaciones en procesos educativos y de recursos humanos.

¿A qué se refiere cuando hablan de estándares de seguridad?

Las empresas deben asegurarse de que sus sistemas de IA cumplan con estrictos estándares de seguridad y transparencia mediante las siguientes medidas. Realización de auditorías periódicas y aplicación de protocolos robustos para proteger datos y sistemas. Transparencia explicando claramente el funcionamiento de los algoritmos y procesos de decisión. Y también transparencia de datos, haciendo una publicación conjunta de los datos utilizado, asegurando la trazabilidad de estos. Unos datos que también deben proteger cumpliendo con normativas como el GDPR y utilización de la anonimización y cifrado para proteger la privacidad. Seguir principios éticos, evitando sesgos y discriminaciones, y supervisar las aplicaciones de IA con comités de ética dentro de las organizaciones y empresas asesorados por profesionales expertos.

Eso significa que las empresas son plenamente responsables…

Absolutamente, ya que son responsables al mantener la supervisión humana y establecer mecanismos de responsabilidad para errores o daños. Por último, el estándar que les obliga a una actualización continua, manteniendo los sistemas actualizados y realizando pruebas continuas de rendimiento y seguridad. Cumpliendo con estos estándares, las empresas podrán garantizar sistemas de IA seguros, confiables y transparentes tal como marca la ley.

OptimumTIC fue la primera empresa en España en obtener la certificación ISO/IEC 42001:2023 para la gestión de la ciberseguridad basada en inteligencia artificial. ¿Qué implica esta certificación y cómo se relaciona con la AI Act?

La ISO/IEC 42001:2023 establece directrices para la gestión de la ciberseguridad basada en inteligencia artificial. Esta certificación nos proporciona un marco normativo sobre cómo mitigar los riesgos y aprovechar las oportunidades que brinda la IA para mejorar la confianza y la competitividad. En OptimumTIC, nuestro OptimumCyber SOC utiliza Inteligencia Artificial para analizar el tráfico y comportamiento de los usuarios de la red e identificar movimientos sospechosos que pueden estar relacionados con incidentes de seguridad. La combinación de IA y nuestros analistas expertos garantiza la máxima seguridad para nuestros clientes. Este enfoque está alineado con los requisitos de la AI Act, como la transparencia en el desarrollo y despliegue de sistemas de IA y el cumplimiento de obligaciones específicas para sistemas de alto riesgo.

Hablando de transparencia y supervisión, ¿cómo asegura la AI Act estos principios?

La AI Act exige que los usuarios sean informados cuando están interactuando con sistemas de IA, especialmente en casos de IA generativa y sistemas de toma de decisiones automatizadas. Además, se implementan mecanismos de supervisión humana para revisar y corregir decisiones automatizadas si es necesario. Esto no solo protege contra posibles errores o sesgos, sino que también proporciona una capa adicional de confianza y seguridad para los usuarios. El registro obligatorio de los sistemas de IA de alto riesgo en una base de datos pública gestionada por la Comisión Europea también promueve la transparencia y la responsabilidad.

¿Qué sanciones enfrentan las empresas por incumplimiento de la AI Act?

Las sanciones por incumplimiento de la AI Act pueden ser significativas, con multas que pueden llegar hasta el 6% del volumen de negocios global anual de la empresa infractora. Estas sanciones son cruciales para asegurar que las empresas tomen en serio sus responsabilidades y cumplan con los requisitos establecidos. Al imponer consecuencias tangibles para el incumplimiento, la ley fomenta un entorno en el que las empresas están motivadas a priorizar la protección de los derechos y la seguridad de los usuarios.

Finalmente, ¿cómo está OptimumTIC preparada para ayudar a otras empresas a cumplir con estas nuevas regulaciones?

En OptimumTIC, estamos ampliamente capacitados para ayudar a nuestros más de 60 clientes nacionales e internacionales a cumplir con estas nuevas regulaciones. Contamos con un equipo de profesionales altamente cualificados, colaboraciones con los principales partners internacionales y una experiencia consolidada en ciberseguridad. Nuestra reciente certificación ISO/IEC 42001:2023 y nuestra herramienta OptimumCyber SOC son ejemplos de nuestro compromiso con la seguridad y la innovación. Estamos bien posicionados para liderar en este nuevo panorama regulatorio y asegurar que las empresas utilicen la IA de manera ética y efectiva.

Noticias Relacionadas

Deja tu comentario sobre esta noticia

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.