En los últimos días, Internet se ha inundado con una nueva tendencia: imágenes de estilo anime inspiradas en Studio Ghibli y figuras de acción, creadas utilizando herramientas de Inteligencia Artificial (IA) como las «Imágenes para ChatGPT» de OpenAI. Sin embargo, es importante estar al tanto de los riesgos de seguridad y privacidad que supone compartir fotos personales en plataformas y aplicaciones impulsadas por IA. Los expertos de Kaspersky ofrecen recomendaciones para proteger la privacidad de los datos.
Recientemente ha surgido una tendencia en la que los usuarios suben sus propias fotos, a menudo selfies, a plataformas de IA que las transforman en retratos estilizados. Inspirados en estéticas icónicas como los visuales oníricos de Studio Ghibli o las figuras de acción, estas herramientas utilizan modelos generativos para reinventar a los usuarios como personajes fantásticos o figuritas heroicas. El proceso generalmente implica subir un retrato claro, elegir un estilo visual y dejar que la IA genere una imagen completamente personalizada. Los resultados finales suelen compartirse en plataformas de redes sociales, con etiquetas como #AIart, #GhibliStyle o #AIactionfigure que gozan de gran popularidad en Instagram y TikTok. Por ejemplo, según el informe de Kaspersky “Superstición e inseguridad: cómo se relacionan los usuarios españoles con el mundo digital”, el 41% de los encuestados en nuestro país, cuando juegan mini-juegos y hacen pruebas por diversión, publican sus resultados en redes sociales, algo que también ocurre con la tendencia Ghibli.
Si bien los resultados pueden ser visualmente sorprendentes, el atractivo de estas herramientas de IA a menudo distrae a los usuarios de las implicaciones subyacentes en cuanto a ciberseguridad. Al subir selfies o retratos a generadores de imágenes de IA, los usuarios pueden consentir sin saberlo que la plataforma retenga y reutilice sus imágenes. Cada imagen subida se convierte en datos que pueden almacenarse, analizarse y, potencialmente, explotarse si la plataforma carece de protocolos de seguridad robustos. Estas imágenes pueden utilizarse para seguir entrenando modelos de IA o incluso ser incluidas en conjuntos de datos públicos, exponiendo potencialmente a los individuos a sistemas de reconocimiento facial, doxxing o el mal uso de deepfakes. Y dado que muchos de estos servicios dependen de la infraestructura en la nube o de API de terceros, no siempre está claro a dónde va tu información, ni quién tiene acceso a ella.
“Es fácil dejarse llevar por la emoción de transformarse en un personaje generado por IA, pero vale la pena hacer una pausa antes de subir tu foto a un servicio de IA”, dice Anna Larkina, experta en privacidad de Kaspersky. “Cada imagen que compartes puede convertirse en una herramienta en manos de otros. Los estafadores pueden reutilizar fotos personales para imitar tu identidad, manipular a tus contactos o crear mensajes de phishing persuasivos. Lo que parece una diversión inofensiva en el mundo online puede convertirse rápidamente en un riesgo de seguridad si tus datos caen en manos equivocadas”.