Crear imágenes de pedofilia con Inteligencia Artificial (IA) es delito. Así lo dictaminó la Justicia argentina en un precedente histórico e inédito en el país. Un fallo de la Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana dictaminó que el actual artículo 128 del Código Penal argentino comprende y penaliza las representaciones de abuso sexual infantil generadas o modificadas mediante IA, incluso cuando no hay víctimas reales identificadas.
Este fallo redefine la persecución de la explotación de menores en la era digital y sienta un pilar fundamental en la lucha contra la pedofilia impulsada por las nuevas tecnologías.
Este dictamen judicial parte de la denuncia contra un hombre acusado de publicación y distribución de representaciones de menores de 18 años en actividades sexuales.
Y así establece una clara señal de que el vacío legal que preocupaba a fiscales y especialistas está siendo llenado por la interpretación judicial, hasta tanto el Congreso sancione una ley específica.
El argumento de la defensa y el rechazo de Cámara
La defensa del acusado alegó que no se había logrado acreditar la existencia de víctimas reales y que el contenido podría haber sido generado o alterado digitalmente mediante IA o imágenes generadas por computadora (CGI). La premisa de la defensa era que el artículo 128 del Código Penal busca proteger a menores de edad concretos y no penaliza representaciones ficticias.
Sin embargo, los camaristas Mariano Magaz, Humberto Bottini y María Pía Leiro rechazaron esto y confirmaron la elevación a juicio. Los jueces sostuvieron que el artículo 128 del Código Penal, reformado por la Ley 27.436, contempla las representaciones de menores en situaciones sexuales explícitas, sin importar cómo hayan sido creadas. La clave está en el término "representación", que incluye "imagen o idea que sustituye a la realidad". De esta manera marcaron precedente jurídico.
La jueza de Garantías Graciela Cione determinó que una "simple observación de los videos y fotografías" permitía concluir que se trataba de niños y niñas de entre 3 y 8 años, y hasta 13 años, más allá de su falta de identificación.
Además, el Tribunal advirtió sobre un riesgo mayor: permitir este tipo de contenidos, incluso si fueran creados artificialmente, llevaría a normalizar la pedofilia, lo que, en definitiva, pone en peligro el bien jurídico protegido: la libertad e integridad sexual de las infancias.
Respecto a la prueba, el fallo señaló que, si bien el informe pericial inicial no detalló si las imágenes eran representaciones de personas inexistentes, el perito sí informó sobre la disponibilidad de los elementos multimedia y sus metadatos (como fecha de creación, modificación o ubicación). Esto abre la puerta a cualquier medida adicional que se requiera durante la etapa de juicio para determinar el origen y la naturaleza precisa del material.
Este dictamen refuerza la postura de que el daño inherente al material de abuso sexual infantil, incluso si es digitalmente fabricado, es real y perjudicial para la sociedad y la protección de los menores.
Una legislación vieja y la necesidad de actualización
Daniel Monastersky, director del Centro de Estudios en Cibernética y Datos de la Universidad Austral, dijo a Clarín que la "producción de material de explotación sexual infantil, aunque las imágenes sean generadas por IA, están basadas en fotografías reales de menores y las representan en situaciones sexuales explícitas".
Y agregó: "El uso no autorizado de las imágenes originales de las menores para crear este contenido constituye una clara violación de su privacidad. Al crear versiones falsas y sexualizadas de las menores, se podría argumentar que hay una forma de suplantación de identidad (contravención en CABA). Debería considerarse urgente incluirlo como delito en el Código Penal de la Nación".
La urgencia de una ley "take it down" a la Argentina
El fiscal Lucas Moyano, de la fiscalía especializada en Cibercrimen de Azul, puso el foco en la necesidad urgente de que Argentina adopte una legislación similar a la ley "Take It Down" de Estados Unidos. Esta normativa, pionera a nivel federal en EE. UU., fue diseñada precisamente para abordar los "deepfakes" de contenido sexual explícito y la difusión no consentida de imágenes íntimas.
La ley estadounidense sanciona de manera explícita la creación y difusión de imágenes generadas con IA que simulan situaciones sexuales explícitas sin el consentimiento de la persona representada. Para Moyano, una medida análoga en Argentina permitiría una herramienta legal más robusta y específica para enfrentar este flagelo, que no solo afecta a menores, sino también a adultos víctimas de la difusión no consentida de "deepfakes" sexuales.
Este llamado a la acción legislativa subraya que, aunque la justicia avance con interpretaciones audaces, la complejidad y la rápida evolución de la IA exigen una respuesta normativa clara y actualizada para proteger a las víctimas y cerrar cualquier brecha que los delincuentes puedan explotar.