La inteligencia artificial (IA) ha emergido como una de las tecnologías más transformadoras del siglo XXI, ofreciendo soluciones innovadoras en diversos sectores. Sin embargo, su adopción también plantea serios riesgos que han llevado a la Unión Europea (UE) a implementar regulaciones específicas. Recientemente, la Comisión Europea ha lanzado una consulta pública para definir las nuevas reglas que se aplicarán a los sistemas de IA considerados de alto riesgo. Esta iniciativa busca involucrar a la sociedad civil, industrias tecnológicas, investigadores y autoridades en la creación de un marco normativo que garantice la seguridad y la ética en el uso de la IA.
La consulta estará abierta hasta el 18 de julio y tiene como objetivo recopilar opiniones y sugerencias sobre cómo clasificar estos sistemas y las obligaciones que deben cumplir. Esta es una oportunidad crucial para que todos los interesados expresen sus preocupaciones y propuestas, lo que podría influir en la forma en que se regulará la IA en el futuro.
### Clasificación de Sistemas de IA de Alto Riesgo
La nueva legislación de la UE, que se espera que entre en vigor en agosto, establece que los sistemas de IA de alto riesgo deberán cumplir con requisitos estrictos. Estos incluyen la necesidad de contar con conjuntos de datos de alta calidad, mantener un registro de actividad, proporcionar documentación detallada y asegurar una supervisión humana adecuada. Además, se exigirá un alto nivel de solidez, precisión y ciberseguridad.
Entre los sistemas que se consideran de alto riesgo se encuentran aquellos utilizados para la contratación de personal, la evaluación de créditos y otros procesos críticos que pueden afectar la vida de las personas. La normativa también establece que la Comisión Europea deberá presentar, a más tardar el 2 de febrero de 2026, directrices que especifiquen cómo se aplicarán estas obligaciones, así como ejemplos prácticos de casos de uso de sistemas de IA que sean considerados de alto riesgo y aquellos que no lo sean.
Este enfoque regulatorio es fundamental para mitigar los riesgos asociados con la IA, especialmente en un contexto donde su uso se está expandiendo rápidamente. La falta de regulación adecuada puede llevar a situaciones de discriminación, violaciones de privacidad y otros problemas éticos que podrían tener consecuencias graves para los individuos y la sociedad en general.
### Flexibilidad en la Implementación de la Ley
La vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, ha señalado que existe la posibilidad de posponer algunas partes de la ley si las empresas no están preparadas para su implementación total. Esta flexibilidad es importante, ya que permite a las empresas adaptarse a las nuevas normativas sin comprometer la seguridad y la ética en el uso de la IA.
Desde febrero de este año, ya se han prohibido ciertos sistemas de IA, como aquellos que utilizan identificación biométrica o que puntúan a las personas en función de su comportamiento. Estas prohibiciones son un paso significativo hacia la protección de los derechos de los ciudadanos y la promoción de un uso responsable de la tecnología.
Sin embargo, la implementación de estas regulaciones no ha estado exenta de críticas. Un borrador inicial de las directrices para los modelos de IA generativa recibió fuertes críticas de eurodiputados, asociaciones de derechos de autor y académicos. Esto ha llevado a la Comisión a trabajar en una cuarta versión de las directrices, con la esperanza de que se apliquen a tiempo y de manera efectiva.
La regulación de la IA es un tema complejo que requiere un equilibrio entre la innovación y la protección de los derechos de las personas. La UE está en la vanguardia de este esfuerzo, siendo la primera región en establecer un marco legal para la IA, lo que podría servir como modelo para otras partes del mundo.
A medida que la tecnología continúa evolucionando, es crucial que las regulaciones se mantengan actualizadas y relevantes. La consulta pública es una oportunidad para que todos los actores involucrados en el ecosistema de la IA contribuyan a la creación de un marco normativo que no solo fomente la innovación, sino que también garantice la seguridad y la ética en su uso. La participación activa de la sociedad civil y las industrias es esencial para lograr un equilibrio que beneficie a todos y minimice los riesgos asociados con esta poderosa tecnología.