IA Generativa

IA generativa

De los “memes” con famosos a los desnudos de menores en Almendralejo.

 

Carlos Vera del Ruste.

Abogado especialista en Derecho Digital e IA en SIA-Minsait y docente del Máster en Liderazgo y Gestión Responsable de la IA.

 

En los últimos dos años, la Inteligencia Artificial Generativa (IA Generativa) ha supuesto una auténtica revolución en la creación de contenido visual; ha transformado por completo la forma en que concebimos y producimos material gráfico.

A su vez, las redes sociales nos han acostumbrado durante la última década al consumo masivo de imágenes, deformando nuestro criterio de percepción.

 

«Todo es susceptible de ser falso, todo puede convertirse en un “meme”.»

 

Esta cultura de usuario, sin duda, nos ha hecho más precavidos al utilizar aplicaciones, visitar sitios web y compartir información en redes sociales, pero también nos ha hecho banalizar la privacidad y el derecho a la propia imagen, especialmente el de otros usuarios.

Los más perjudicados comúnmente son las personas famosas, que en la mayoría de los casos serán sujetos de parodia mediante deepfake: vídeos y audios generados artificialmente que pueden hacer que una persona parezca decir o hacer cosas que nunca hizo.

«Lo preocupante de la IA generativa es que para pasar de la parodia al delito solo hace falta una cosa: la intención.»

 

Todos hemos visto al Papa Francisco con un abrigo Balenciaga, a Cristiano Ronaldo dándonos los buenos días, o a Mariano Rajoy hablando en inglés.

Estos vídeos, aunque generalmente son simpáticos y evidentemente falsos, pueden generar confusión, desinformación y daño a la reputación de estas figuras públicas.

 

1. Inteligencia Artificial Generativa y el Caso Almendralejo

Un ejemplo reciente que ha capturado la atención pública es lo sucedido en Almendralejo (Badajoz). En este caso, utilizando inteligencia artificial se manipularon sin consentimiento fotos de menores de edad para crear falsos desnudos.

 

«La intención, probablemente, no era otra más que la de ridiculizar y gastar una broma pesada, pero el resultado es la comisión de un delito y el menoscabo del honor de las víctimas, con las consecuencias legales que ello implica.»

 

El caso de Almendralejo ejemplifica la urgente necesidad de concienciar a la sociedad sobre los riesgos de la Inteligencia Artificial Generativa y de la importancia de desarrollar la sensibilidad moral de los usuarios, especialmente de la gente más joven.

Pero también refleja la necesaria responsabilidad que deben mostrar las empresas al introducir en el mercado sistemas de inteligencia artificial generativa de propósito general.

 

2. Regular el uso y el desarrollo de la IA

El legislador europeo hace tiempo que está trabajando en una propuesta de reglamento que persigue establecer normas armonizadas sobre el desarrollo y uso de la inteligencia artificial para toda la Unión europea.

 

«Este reglamento busca evitar que sea posible comercializar sistemas de IA descontrolados

 

Va a exigir a los desarrolladores que antes de la puesta a disposición de la IA se hayan contemplado y gestionado los riesgos previsibles asociados a un uso normal de la IA (discriminación por sesgos, vulneración de derechos de autor, etc.) y los riesgos que razonablemente podrían materializarse por un uso indebido (como ha sido el caso de Almendralejo).

Y, a su vez, exige a los proveedores de estos sistemas que hagan una monitorización constante del funcionamiento de estos sistemas una vez estén siendo utilizados por el público con la finalidad de detectar nuevos riesgos que no ha sido posible prever durante su desarrollo.

 

3. Foco en la seguridad y el control creativo

En esta línea, los proveedores que están marcando tendencia, como OpenAI, ya contemplan estas exigencias de la normativa – que no son sino un reflejo de marcos de buenas prácticas basados en estándares éticos muy extendidos a nivel global – en cada nueva versión de sus sistemas de IA.

Por ejemplo, la nueva versión del generador de gráfico de OpenAI, DALL·E 3, ha puesto foco en la seguridad y en el control creativo.

Las medidas técnicas de seguridad adoptadas pueden resumirse de la siguiente manera:

  1. Medidas para la prevenir generaciones dañinas: Por un lado, DALL·E 3 tiene mitigaciones para rechazar solicitudes que soliciten una figura pública por su nombre. Por otro lado, se ha mejorado el desempeño de seguridad en áreas de riesgo para evitar que con su herramienta se pueda generar desinformación o imágenes discriminatorias.
  1. Clasificador de procedencia: Se están investigando las mejores formas de ayudar a las personas a identificar si una imagen fue generada o no por DALL·E 3.
  1. Control creativo: DALL·E 3 está diseñado para rechazar solicitudes que soliciten una imagen al estilo de un artista vivo. A su vez, OpenAI ha creado un portal donde los creadores pueden excluir sus imágenes del entrenamiento de sus futuros modelos de generación de imágenes. Está práctica, basada en un modelo de opt-out, es cuestionable debido a que una obra desde el momento de su creación goza de plena protección jurídica y el autor no debería pedir que su obra se excluya del entrenamiento de modelos de IA, debería ser la empresa quien solicitase permiso al artista. A pesar de ello, es un buen comienzo.

«Hasta que contemos con autoridades de supervisión en materia de protección de datos en plenas funciones, las autoridades nacionales en materia de protección de datos son una buena salvaguarda para los derechos y libertades de las personas físicas.»

 

Así, por ejemplo, la Agencia Española de Protección de Datos ha puesto a disposición de todos los ciudadanos un medio para solicitar la retirada inmediata de internet de fotografías, vídeos o audios de contenido sexual o violento cuya difusión ilícita pone en grave riesgo los derechos y libertades o la salud física y/o mental de las personas afectadas. Este medio se denomina Canal Prioritario.

 

4. Enfoque multidisciplinario y trabajo en equipo

En conclusión, el abuso de la IA plantea desafíos significativos para la sociedad y la ética en un mundo digital. Si bien existen herramientas legales y regulaciones para abordar estos problemas, es esencial un enfoque multidisciplinario que involucre a gobiernos, industrias y la sociedad civil para encontrar soluciones efectivas y equilibradas que protejan la privacidad y la dignidad de las personas en esta nueva era tecnológica.