Los reguladores se enfrentan al desafío de la IA generativa: ¿Qué medidas toman para controlar a ChatGPT?
La Unión Europea (UE) está intentando abordar la creación de nuevas normas sobre inteligencia artificial para abordar problemas de privacidad y seguridad asociados con la tecnología de IA generativa. Sin embargo, se espera que la implementación de la legislación demore varios años.
Actualmente, los reguladores están recurriendo a las leyes existentes para controlar la IA. Por ejemplo, en Europa, los organismos de vigilancia de la privacidad establecieron un grupo de trabajo para abordar problemas relacionados con ChatGPT y su cumplimiento con el Reglamento General de Protección de Datos (GDPR) de la UE. OpenAI ha tenido que realizar ajustes para cumplir con las regulaciones, como agregar funciones de verificación de edad y permitir a los usuarios europeos bloquear su información.
Los reguladores están buscando aplicar las normas existentes en áreas como derechos de autor, privacidad de datos y el contenido producido por los modelos de IA. En la UE, se están considerando propuestas para la Ley de Inteligencia Artificial que requerirían que las empresas revelen los materiales protegidos por derechos de autor utilizados para entrenar los modelos, lo que podría exponerlas a demandas legales.
Los reguladores están explorando formas creativas de aplicar la legislación existente a la IA. Por ejemplo, la Comisión Nacional de Informática y de las Libertades (CNIL) en Francia está considerando utilizar una disposición del GDPR que protege a las personas de la toma de decisiones automatizada. Sin embargo, existe incertidumbre sobre si las disposiciones actuales son suficientes.
A medida que los reguladores se adaptan a los avances tecnológicos, algunos en la industria han pedido un mayor compromiso entre los reguladores y las empresas para lograr un equilibrio adecuado entre la protección del consumidor y el crecimiento empresarial.