Chile propone ley para regular la inteligencia artificial

En un esfuerzo por abordar las crecientes preocupaciones en torno a las implicaciones éticas y sociales de la inteligencia artificial (IA), Chile ha introducido una legislación pionera destinada a regular los sistemas de IA dentro de sus fronteras. Inspirándose en el marco regulatorio de la Unión Europea, la legislación propuesta define una variedad de obligaciones continuas con respecto a los riesgos que plantean las aplicaciones de IA.

El proyecto de ley, presentado el 7 de mayo en la Cámara Baja del Congreso chileno, distingue diferentes tipos de sistemas de IA en función de sus potenciales riesgos e impactos. A la vanguardia de la legislación se encuentran medidas diseñadas para proteger los derechos fundamentales, mitigar los posibles daños a la salud, la seguridad y el medio ambiente y garantizar la protección del consumidor.

leer más: Las regulaciones de IA van a la zaga de los avances de la industria, según un nuevo informe

Según la ley propuesta por Chile, los sistemas de IA se clasifican en distintas categorías de riesgo:

  1. Sistemas de riesgo inaceptables: Son sistemas de IA considerados incompatibles con el respeto y garantía de los derechos fundamentales de las personas. Cabe destacar que en esta categoría se incluyen los sistemas de manipulación, con excepciones para fines terapéuticos aprobados y con consentimiento informado. Además, los sistemas que utilizan vulnerabilidades para inducir comportamientos dañinos entran en esta clasificación.
  2. Sistemas de alto riesgo: esta categoría incluye sistemas de IA que plantean riesgos importantes para la salud, la seguridad, los derechos fundamentales, el medio ambiente y los derechos de los consumidores. Para mitigar los posibles efectos adversos, se prevén regulaciones estrictas que regulen el desarrollo, implementación y uso de dichos sistemas.
  3. Sistemas de riesgo limitado: los sistemas de IA que presentan poco riesgo de manipulación, engaño o error durante las interacciones con individuos se clasifican como sistemas de riesgo limitado. Estos sistemas están sujetos a un escrutinio regulatorio más ligero en comparación con sus contrapartes de mayor riesgo.
  4. Sistemas de IA sin riesgo aparente: Finalmente, la ley reconoce los sistemas de IA.

Es importante destacar que el proyecto de ley describe una serie de prohibiciones y obligaciones destinadas a abordar preocupaciones específicas asociadas con el despliegue de la IA:

  • Sistemas de identificación biométrica: el uso de IA con fines de identificación biométrica en tiempo real en espacios públicos está prohibido, excepto para seguridad pública e investigaciones criminales.
  • Sistemas de reconocimiento facial: Están expresamente prohibidos los sistemas de IA que utilizan técnicas de raspado facial para extraer imágenes faciales de fuentes públicas o de circuito cerrado de televisión.
  • Sistemas de evaluación del estado emocional: están prohibidos los sistemas diseñados para evaluar el estado emocional de un individuo utilizando algoritmos de inteligencia artificial.
  • Gobernanza de datos y ciberseguridad: la ley impone obligaciones a los desarrolladores y operadores de IA para que cumplan con sólidos estándares de gobernanza de datos y ciberseguridad para mitigar el riesgo de violaciones y uso indebido de datos.

Fuente: PN Américas

"Web friki. Wannabe pensador. Lector. Evangelista de viajes independiente. Aficionado a la cultura pop. Erudito musical certificado".

Estaremos encantados de escuchar lo que piensas

Deje una respuesta

IN Iguazú Noticias