En un esfuerzo por abordar las crecientes preocupaciones en torno a las implicaciones éticas y sociales de la inteligencia artificial (IA), Chile ha introducido una legislación pionera destinada a regular los sistemas de IA dentro de sus fronteras. Inspirándose en el marco regulatorio de la Unión Europea, la legislación propuesta define una variedad de obligaciones continuas con respecto a los riesgos que plantean las aplicaciones de IA.
El proyecto de ley, presentado el 7 de mayo en la Cámara Baja del Congreso chileno, distingue diferentes tipos de sistemas de IA en función de sus potenciales riesgos e impactos. A la vanguardia de la legislación se encuentran medidas diseñadas para proteger los derechos fundamentales, mitigar los posibles daños a la salud, la seguridad y el medio ambiente y garantizar la protección del consumidor.
leer más: Las regulaciones de IA van a la zaga de los avances de la industria, según un nuevo informe
Según la ley propuesta por Chile, los sistemas de IA se clasifican en distintas categorías de riesgo:
- Sistemas de riesgo inaceptables: Son sistemas de IA considerados incompatibles con el respeto y garantía de los derechos fundamentales de las personas. Cabe destacar que en esta categoría se incluyen los sistemas de manipulación, con excepciones para fines terapéuticos aprobados y con consentimiento informado. Además, los sistemas que utilizan vulnerabilidades para inducir comportamientos dañinos entran en esta clasificación.
- Sistemas de alto riesgo: esta categoría incluye sistemas de IA que plantean riesgos importantes para la salud, la seguridad, los derechos fundamentales, el medio ambiente y los derechos de los consumidores. Para mitigar los posibles efectos adversos, se prevén regulaciones estrictas que regulen el desarrollo, implementación y uso de dichos sistemas.
- Sistemas de riesgo limitado: los sistemas de IA que presentan poco riesgo de manipulación, engaño o error durante las interacciones con individuos se clasifican como sistemas de riesgo limitado. Estos sistemas están sujetos a un escrutinio regulatorio más ligero en comparación con sus contrapartes de mayor riesgo.
- Sistemas de IA sin riesgo aparente: Finalmente, la ley reconoce los sistemas de IA.
Es importante destacar que el proyecto de ley describe una serie de prohibiciones y obligaciones destinadas a abordar preocupaciones específicas asociadas con el despliegue de la IA:
- Sistemas de identificación biométrica: el uso de IA con fines de identificación biométrica en tiempo real en espacios públicos está prohibido, excepto para seguridad pública e investigaciones criminales.
- Sistemas de reconocimiento facial: Están expresamente prohibidos los sistemas de IA que utilizan técnicas de raspado facial para extraer imágenes faciales de fuentes públicas o de circuito cerrado de televisión.
- Sistemas de evaluación del estado emocional: están prohibidos los sistemas diseñados para evaluar el estado emocional de un individuo utilizando algoritmos de inteligencia artificial.
- Gobernanza de datos y ciberseguridad: la ley impone obligaciones a los desarrolladores y operadores de IA para que cumplan con sólidos estándares de gobernanza de datos y ciberseguridad para mitigar el riesgo de violaciones y uso indebido de datos.
Fuente: PN Américas