Deepfakes: ¿Qué defensa legal hay contra el mal uso de la IA?
La cantante Denise Rosenthal fue una de las tantas víctimas de los deepfakes. Estas codificaciones suelen ser utilizadas para falsear vídeos e imágenes de carácter íntimo y sexual, por lo cual, la artista decidió querellarse ante los culpables. Sin embargo, ¿es posible llevar a lo legal este mal uso de la inteligencia artificial?
Para saber más sobre lo legal y las distintas aristas, Jorge Lira conversó en Sin Gravedad con Daniela Olivares, investigadora del Centro de Estudios de Derecho Informático (CEDI).
En esta entrevista, lo primero que Olivares aclara, es que Chile carece de herramientas legales específicas para abordar el mal uso de la IA, lo que dificulta la protección de las víctimas.
La falta de legislación adecuada en el país respecto a la difusión de imágenes íntimas y la violencia digital demuestra la necesidad de una regulación más amplia que aborde el fenómeno de la generación de imágenes con IA.
Por ejemplo, hace un par de días, la Unión Europea regularizó mediante la ley el uso de la inteligencia artificial, categorizando la protección de la privacidad.
Según la investigadora, esta es unas de las tareas que quedan pendientes para Chile, ya que, en general la falta de legislación pone en riesgo el cumplimiento de tratados internacionales relacionados con la protección a la mujer y la erradicación de la violencia.
Revisa la entrevista completa con Daniela Olivares en Sin Gravedad.