Tres años después de que la mujer surcoreana de 30 años recibiera una andanada de imágenes falsas en línea que la mostraban desnuda, todavía está recibiendo tratamiento por trauma. Tiene dificultades para hablar con hombres. El uso de un teléfono móvil le devuelve la pesadilla.
Muchas otras mujeres surcoreanas han dado recientemente un paso al frente para compartir historias similares mientras Corea del Sur lidia con un diluvio de videos e imágenes deepfake explícitos y no consensuales que se han vuelto mucho más accesibles y fáciles de crear.
No fue hasta la semana pasada que el parlamento revisó una ley para ilegalizar ver o poseer contenido pornográfico deepfake.
La mayoría de los presuntos perpetradores en Corea del Sur son adolescentes. Los observadores dicen que los chicos atacan a amigas, parientes y conocidas, en su mayoría menores de edad, como una broma, por curiosidad o misoginia. Los ataques plantean serias preguntas sobre los programas escolares, pero también amenazan con empeorar una división ya problemática entre hombres y mujeres.
El porno deepfake en Corea del Sur ganó atención después de que se difundieran en línea en agosto listas no confirmadas de escuelas que tuvieron víctimas. Muchas niñas y mujeres han eliminado apresuradamente fotos y videos de sus cuentas de Instagram, Facebook y otras redes sociales. Miles de mujeres jóvenes han organizado protestas exigiendo medidas más enérgicas contra el porno deepfake. Políticos, académicos y activistas han celebrado foros.
Las listas de escuelas no han sido verificadas formalmente, pero funcionarios, incluido el presidente Yoon Suk Yeol, han confirmado un aumento de contenido deepfake explícito en las redes sociales. La policía ha lanzado una ofensiva de siete meses.
La reciente atención al problema ha coincidido con el arresto en agosto en Francia de Pavel Durov, el fundador de la aplicación de mensajería Telegram, por acusaciones de que su plataforma se utilizaba para actividades ilícitas, incluida la distribución de abuso sexual infantil. El organismo de control de telecomunicaciones y radiodifusión de Corea del Sur dijo que Telegram se ha comprometido a aplicar una política de tolerancia cero sobre el contenido deepfake ilegal.
La policía ha detenido a 387 personas por presuntos delitos de deepfake este año, más del 80% de ellos adolescentes. Por otra parte, el Ministerio de Educación dice que unos 800 estudiantes han informado a las autoridades sobre contenido deepfake íntimo que los involucra este año.
Los expertos dicen que la verdadera escala de la pornografía deepfake en el país es mucho mayor.
La empresa estadounidense de ciberseguridad Security Hero llamó a Corea del Sur “el país más atacado por la pornografía deepfake” el año pasado. En un informe, dijo que los cantantes y actrices surcoreanos constituyen más de la mitad de las personas que aparecen en la pornografía deepfake en todo el mundo.
La prevalencia de la pornografía deepfake en Corea del Sur refleja varios factores, entre ellos el uso intensivo de teléfonos inteligentes, la ausencia de una educación integral sobre sexo y derechos humanos en las escuelas y una regulación inadecuada de las redes sociales para los menores, así como una cultura misógina y normas sociales que objetivan sexualmente a las mujeres.
Los críticos dicen que las autoridades no han hecho lo suficiente para contrarrestar la pornografía deepfake a pesar de una epidemia de delitos sexuales en línea en los últimos años, como videos de mujeres en baños públicos y otros lugares grabados con cámaras espía. En 2020, miembros de una red criminal fueron arrestados y condenados por chantajear a docenas de mujeres para que filmaran videos sexualmente explícitos para venderlos.