Incidentes Asociados

¿Una manzana al día mantiene alejada a la IA?
Los creadores de contenido están desmintiendo a los supuestos médicos deepfake que estafan a los usuarios de redes sociales con consejos médicos infundados.
En TikTok, una sola búsqueda muestra docenas de videos de mujeres repitiendo frases como "13 años como doctora de coños y nadie me cree cuando les digo esto", antes de revelar supuestos secretos de salud para tener pechos firmes, abdomen definido, mandíbulas definidas y un pH equilibrado.
Pero los supuestos expertos ni siquiera son reales. Son completamente generados por inteligencia artificial.
TikTokers con ojo de águila han denunciado a supuestos "médicos" generados por IA que afirman ser expertos en el campo de la medicina y ofrecen consejos poco convencionales. TikTok / @locks_health
Algunos de los supuestos "médicos" podrían afirmar ser expertos en otros campos (dieta, cirugía plástica, senos, glúteos, abdomen y más) y ofrecer consejos para curar o remediar dolencias o problemas de salud de los espectadores.
Una cuenta ha publicado docenas de videos de la misma mujer, quien afirma haber pasado 13 años como doctora de "coochies" y "butt". Otra cuenta presenta a la misma mujer, quien también ofrece consejos médicos infundados bajo la apariencia de una supuesta "médica de coños".
Media Matters informó que el mismo grupo de supuestos personajes deepfake también han aparecido como vendedores de productos de bienestar o han afirmado tener conexiones con Hollywood para difundir chismes de expertos.
Las discrepancias son suficientes para levantar algunas cejas.
Una sola búsqueda de estos clips informativos arroja docenas de resultados, y al navegar por las páginas de los usuarios se muestran varios videos del mismo creador, quien afirma ser un médico especializado en "nalgas", "nalgas" o "coñitos", además de dietista y cirujano plástico. TikTok / @locks_health
Un usuario afirmó que las personalidades generadas por IA provienen de la aplicación Captions, que ofrece una herramienta de IA generativa para videos en línea. TikTok / @locks_health
Javon Ford, creador de su marca de belleza homónima, reveló recientemente que las personalidades generadas por IA se pueden manipular en una aplicación llamada Captions, que se promociona como una herramienta para generar y editar videos con IA que hablan. La compañía afirma tener 100,000 usuarios diarios de la aplicación, con más de 3 millones de videos producidos cada mes.
Sin embargo, Ford calificó el servicio de "profundamente insidioso".
“Quizás hayas visto a algunos de estos 'creadores' en tu página 'Para ti'. Ninguno es real”, advirtió.
En un video de TikTok, repasó una lista exhaustiva de avatares de IA que los usuarios podían elegir, como una mujer llamada "Violet", que aparece en muchos de los videos de "coochie doctor", demostrando cómo se puede escribir un guion y cómo el avatar lo regurgita.
Usuarios horrorizados calificaron la tecnología de "muy peligrosa", mientras que algunos consideraron abandonar las redes sociales por completo debido a la "aterradora" realidad de los deepfakes realistas.
"He visto a Violet muchísimas veces", comentó un espectador sorprendido, mientras que otro coincidió en que la han visto "decir que es dentista y enfermera".
"¡Eso sí que da miedo! Ahora que lo dices, me doy cuenta, pero sin la advertencia, ¡quizás me lo haya tragado!", admitió otro.
En un intento por educar a los espectadores, los creadores han destacado las maneras de determinar si la persona en pantalla es real o generada por IA, a medida que los deepfakes proliferan en línea.
Los creadores de contenido sospechosos ofrecen consejos médicos en varias cuentas, donde se hacen pasar por médicos de diferentes especialidades. TikTok / @brokegirlguides
Ford, por ejemplo, describió los "movimientos bucales", calificándolos de "extraños". Se dio cuenta de que los labios no se sincronizaban con el audio, lo que, según él, es la "primera señal de alerta".
"Estamos en 2025", dijo en un TikTok. "Nadie debería tener problemas de retardo en el audio y el video".
Añadió que sus afirmaciones —de que un producto o remedio natural funciona mejor que cualquier otro de uso común— también deberían ser motivo de alarma.
Ford también recomendó revisar el perfil del dueño de la cuenta para ver cuántos videos aparecen con el supuesto "doctor", quien ha sido ginecólogo, proctólogo y más en tan solo 13 años.
"¡Vaya, vaya! Han tenido una carrera productiva", bromeó.
Un usuario llamado Caleb Kruse, experto en medios de pago, señaló las señales reveladoras de un avatar de IA en un video anterior en TikTok, usando el contenido de otro creador como ejemplo. La mujer posteriormente confirmó que, si bien es una persona real, el video en cuestión fue creado con IA por una empresa que le había pedido clonar su imagen.
Además de los movimientos de boca poco realistas, Kruse destacó los ojos de la mujer, los movimientos de cabeza extraños y la sensación general del video, o la sensación de que "no es real".
"Los ojos son demasiado grandes cuando no deberían serlo; no siempre reflejan exactamente cómo reaccionaría una persona normal al decir algo", explicó. “En tercer lugar, está la cadencia, cómo habla, cómo fluyen las palabras entre frases”, continuó. “A veces hay pausas extrañas que normalmente no se notan”.
Las críticas fueron una llamada de atención para sus seguidores.
“Esto debería ser ilegal”, comentó un espectador consternado.
“Parece tan real que da miedo”, añadió otro.