Centro Nacional de IA analiza el fenómeno de la inteligencia artificial generativa para fines pornográficos

Las imágenes falsas de mujeres desnudas abren el debate de los límites que deben existir entorno a la IA generativa. Experta en el tema, Dra. Claudia López, promueve regular de manera efectiva y así proteger a quienes se vean afectadas.

La facilidad en el acceso a sistemas de inteligencia artificial que permiten la generación de deepfake porn, término en inglés que se utiliza cuando existen imágenes o videos que han sido generados por aprendizaje profundo (deep learning), en este caso, para pornografía, tiene como implicancia el aumento del riesgo de situaciones de violencia contra las mujeres y niñas, niños y adolescentes (NNA).

Así lo sostiene la académica de la Universidad Técnica Federico Santa María e investigadora principal del Centro Nacional de Inteligencia Artificial (CENIA), Dra. Claudia López Moncada, quien precisa que como se trata de tecnologías de fácil acceso, estas pueden ser usadas por personas de casi cualquier edad, generándose amenazas de agresión sexual dentro del mundo virtual, que tienen nuevas particularidades. Por ejemplo, además de ser falsas, estas imágenes son muy difíciles de eliminar de manera permanente en Internet, por lo que “se deben crear mecanismos para controlarlas de mejor manera, tanto desde la educación familiar y en colegios como desde los poderes del Estado”.

Agrega que “este es un fenómeno invisibilizado y la única forma de que se actúe mejor es que se tengan formas más justas para proteger los derechos de NNA y mujeres”.

De hecho, el tema salió a la palestra a partir de un caso que ocurrió en el Colegio Saint George de Santiago, donde un grupo de estudiantes crearon imágenes de siete compañeras a través de IA, las que luego viralizaron, siendo así vulneradas en su integridad y, por lo cual, se interpusieron acciones legales.

Responsabilidades

En relación a este caso, la Dra. López indica que este no es un hecho aislado y que se conocen otras situaciones tanto en Chile y fuera del país, no obstante, más allá de la acción puntual de los estudiantes, su grado de culpabilidad y lo que hicieron el colegio o los padres para enfrentarlo.

López explica que “existe una capa adicional, una lectura más general que se debe hacer y que tiene que ver con los tipos de tecnologías que permitimos que existan como sociedad. Que exista una tecnología cuyo único fin sea desnudar cuerpos que están vestidos, y que no sirve para nada más que eso, para mí es preocupante. Me preocupa pensar que a alguien se le ocurrió hacerla y que se dedicó, quizás con más gente, a crearla. Y luego, cómo dejamos que eso se comercialice en las apps. a las que podemos acceder todas personas con un teléfono”.

Añade que “hay  niños involucrados aquí, pero hay algo más, existen adultos que permitieron que esto pasara y desde aquí hay que cuestionar el problema y entender que los niños que hacen estas acciones también como producto de una cultura que permiten y reproduce la violencia de género”.

De la misma forma, la académica USM sostiene que el mercado avala este tipo de productos, ya que los ofrece, habilitando a un  público que quiere utilizarlos, de diferentes edades, no existiendo fiscalización adecuada por parte de las aplicaciones en cuanto a sus términos de servicio, “porque si bien pueden decir que es para mayores de edad, nadie verifica este tipo de información. Por otro lado, incluso si fueran mayores de edad, debiese haber un actor  institucional que no permitiera estos usos de la IA y que si alguien lo hace es considerado de índole criminal ya que solo hace daño a otras personas. Con esto se explotan las debilidades del sistema de comercialización del software que es muy fácil de acceder, por lo que hay mucho que mejorar”.

Mundo sexista

Si bien algunas de estas aplicaciones de deepfake porn pueden usarse para cualquier cuerpo, se utiliza mayoritariamente para desnudar cuerpos de mujeres, por esto, la Dra. Claudia López es enfática en señalar que “es pertinente aceptar que se vive en un mundo muy sexista y que la industria de la tecnología está muy masculinizada, lo que ayuda a explicar por qué se tiene estos productos. Además, las instituciones que tienen que ver con las regulaciones y la política pública, lamentablemente, por décadas han permitido que la violencia de género continúe sin mucho castigo para victimarios ni mucha reparación para las víctimas. Se hace cada vez más necesario que eso cambie”.

Síguenos en facebook

Comparte

Facebook
Twitter
WhatsApp
error: Contenido protegido!!!