Expertos alertan sobre el uso de IA para crear videos falsos de contenido sexual con menores
La inteligencia artificial vuelve a situarse en el centro del debate público tras una denuncia bajo investigación por la Policía, relacionada con el presunto uso de fotos de menores para generar videos falsos con contenido sexual mediante tecnología “deepfake”.
El caso ha encendido las alarmas por su posible impacto emocional y social en las víctimas, particularmente en menores en edad escolar.
Sobre este tema, Emmanuel Oquendo, CEP de BrainHi y experto en inteligencia artificial, junto al licenciado Miguel Francisco Marrer, advirtieron que una parte significativa de estudiantes ya ha estado expuesta a este tipo de contenido. Además, señalaron que muchas víctimas no lo comunican en sus hogares por miedo, vergüenza o por pensar que los adultos no comprenderán que se trata de material manipulado.
Uno de los principales retos, explicaron, es la dificultad para identificar a los responsables y rastrear el origen del contenido, debido a que estas herramientas están ampliamente disponibles en internet.
En el ámbito legal, indicaron que existe un desafío doble: demostrar la falsedad o manipulación del material y contar con legislación específica que atienda los delitos cometidos mediante inteligencia artificial. Aunque existen leyes relacionadas con el abuso y la explotación sexual, estas no siempre contemplan escenarios en los que el contenido ha sido generado artificialmente.
Ante este panorama, se discuten propuestas para regular el uso de estas tecnologías, junto con medidas de prevención que incluyen la educación digital, el fortalecimiento de la comunicación familiar y el uso de controles parentales.