Bienvenido ala base de datos de incidentes de IA
Incidente 1254: Supuestamente, un video de deepfake creado con IA suplantó la identidad de una presentadora tailandesa de PBS World y de la directora ejecutiva de Miss Universo en un fraude de inversión.
“Verificado: El vídeo de un presentador de la cadena PBS tailandesa informando sobre "Anne Jakrapob" invitando a inversores a invertir y recibir una rentabilidad de 500.000 baht en 1 mes fue creado mediante Deepfake.”Último informe
Un video falso creado con inteligencia artificial (deepfake) suplanta la identidad de una presentadora de noticias de Thai PBS World, Anne Jakkaphong, quien supuestamente invita a invertir en línea con tan solo 8.000 baht y promete ganancias de cientos de miles. Tras investigar, Thai PBS Verify confirmó que se trata de una noticia falsa que utiliza tecnología deepfake para suplantar la imagen y la voz de Anne Jakkaphong, CEO del certamen Miss Universo y presentadora de Thai PBS World. El video invita a jóvenes tailandeses a invertir en una plataforma certificada por el gobierno y obtener ganancias de cientos de miles de baht. Thai PBS Verify encontró la fuente de la noticia falsa en Facebook. Además, detectó una página falsa (https://perma.cc/ZQ7Y-M7W3) que suplanta la identidad de una reconocida agencia de noticias y utiliza su logotipo. Se publicó un video de dos minutos donde Dolyana Bunnag, presentadora de noticias de Thai PBS World, entrevista a Anne Jakkaphong, directora ejecutiva de la Organización Miss Universo. El video, publicado en inglés como anuncio en Facebook, invita a invertir en línea y ha recibido 12.000 visualizaciones (enlaces guardados aquí: https://perma.cc/9C3V-CJLT y aquí: https://perma.cc/VUQ9-CP7W). El video muestra imágenes de la presentadora de Thai PBS World informando sobre Anne Jakkaphong e invita al público, incluyendo a recién graduados, a invertir en una plataforma financiera automatizada. ¡Se afirma que esta plataforma está certificada por el gobierno tailandés! Captura de pantalla de un vídeo que utiliza IA-deepfake para modificar el vídeo y el audio de Anne Jakapong. El vídeo indica que los inversores pueden empezar con tan solo 8.000 baht y tener la oportunidad de obtener ganancias de hasta 800.000 baht. También afirma que el sistema se ha probado con un pequeño grupo de personas, y se comprobó que todos los participantes obtuvieron ganancias de al menos 500.000 baht en tan solo un mes. Se confirma que todos los inversores obtuvieron un 100% de beneficio. Si no hay ganancias, se reembolsará el importe íntegro. Además, se afirma que si la plataforma se abre a un uso más amplio, permitirá que los tailandeses se conviertan en millonarios en todo el país. Por lo tanto, el número de participantes es limitado. Quienes contacten o se registren primero tendrán prioridad. Tendrán la oportunidad de hacerse ricos primero. También hay una advertencia: si terminas de ver el video, el enlace para unirte o solicitar inversión desaparecerá inmediatamente si el espectador no se apresura a tomar una decisión. Clip original ----------- Según nuestra investigación, encontramos Clip. El original fue tomado de un reportaje del programa Thai PBS World Tonight, emitido el 24 de junio de 2025 (enlace archivado).
. A la izquierda se muestra una imagen creada con IA-deepfake. A la derecha, una imagen extraída del clip original. El vídeo original de Anne Jakrapob (https://www.youtube.com/watch?v=VqLX9-XRgKQ) fue extraído de una entrevista con un medio extranjero. Este vídeo se publicó el 11 de febrero de 2023 (enlace archivado: https://perma.cc/6BPK-HQ33). La imagen de la izquierda es una imagen creada mediante deepfake con IA, mientras que la de la derecha es una captura del vídeo original. Consultamos al Sr. Sathapon Phatthanakuha (https://x.com/banksathapon?lang=en), presidente de Guardian AI Company, quien confirmó que el vídeo fue creado mediante deepfake con IA. Se observó que los movimientos de la boca de la persona en el video no coincidían con el sonido ni con la calidad de la imagen. Los músculos faciales y la forma de la boca se veían borrosos. Se confirmó que el video fue creado mediante deepfake con IA (enlace archivado: https://perma.cc/Q63N-578K). Además, se descubrió que la página en cuestión incluía un enlace web y un número de contacto que no funcionaba. y dirección falsa
mientras que se descubrió que la foto de perfil de la cuenta también utilizaba una imagen de la Agencia de Noticias Thairath TV
Una captura de pantalla de una página falsa que afirma ser el logotipo de Thairath TV News Agencia. (Enlace grabado) Anteriormente, la Sra. Dolyana Bunnag, presentadora de noticias de Thai PBS World, fue víctima de un video suyo utilizado para crear un deepfake y difundir noticias falsas. El caso se relaciona con [Encontrado: Video generado por IA que afirma que un famoso médico fue arrestado por revelar una fórmula para un medicamento contra la hipertensión que curaba a las personas en 3 días] (https://www.thaipbs.or.th/verify/content/391), incluyendo casos de suplantación de identidad. Entrevista realizada por Panya Nirankul de Thai PBS Verify a la Sra. Dolyana, quien afirmó que en tan solo un año se han producido al menos 3 o 4 incidentes similares, ¡y que este último es el más realista en comparación con los anteriores! [] (https://files.wp.thaipbs.or.th/verify/2025/07/S__55410694.jpg) En el caso más reciente, la Sra. Dolyana reveló que el video manipulado por IA es sumamente realista, con un tono de voz, ritmo al hablar y estilo de reportaje que se pueden imitar con facilidad. Si bien el acento aún presenta algunas diferencias, el público general que desconoce los hechos podría confundirlo con un noticiero real. En particular, el último video, cuya versión en inglés se convirtió a inglés, luce más pulido que los anteriores. Además, Thai PBS confirmó que no tiene ninguna política de difundir noticias ni anuncios que inciten al público a invertir. "Me preocupa este tema porque cualquiera puede ser víctima de la manipulación digital mediante IA, y como mujer, me preocupa que se utilice de manera obscena". Inicialmente, tras ser la primera víctima, la presentadora denunció el hecho a la policía, pero hasta el momento no se han registrado avances en el caso. Declaró que este caso no solo causa daño personal al presentador, sino que también afecta la imagen de Thai PBS como representante oficial de la emisora. La falsificación de imágenes y sonidos para presentar contenido engañoso afecta inevitablemente la credibilidad de los medios públicos. Las leyes sobre deepfakes en Tailandia son las siguientes: - La Ley de Delitos Informáticos B.E. 2560, Sección 16, establece que "Quien introduzca en un sistema informático de acceso público datos que parezcan ser la imagen de otra persona, y dicha imagen sea creada, editada o modificada por medios electrónicos o de otro tipo, de manera que pueda dañar la reputación de esa persona, causar desprecio, odio o vergüenza, será castigado con pena de prisión de hasta tres años". y una multa que no exceda los doscientos mil baht" - Código Penal, artículos sobre difamación, insulto y difusión de material obsceno - Ley de Protección de Datos Personales (PDPA) si se utiliza información personal (rostro, nombre y voz) sin consentimiento - Si la víctima es menor de edad, puede constituir un delito según la Ley de Prevención y Represión de la Trata de Personas o la Ley de Protección Infantil. Proceso de verificación ---------------- - Verificar la transparencia de la página de Facebook. La fecha de creación de la página. La información de la página que se encontró irregular incluye el uso del logotipo de la Agencia de Noticias Thai Rath, la inclusión de un enlace a un sitio web falso y direcciones y números de teléfono poco fiables. - Consultar con un experto en tecnología de imagen con IA para confirmar que el video fue creado mediante la técnica de deepfake con IA. - Confirmación de las personas involucradas en el video y de la víctima cuya información personal fue suplantada mediante la tecnología de deepfake con IA. Impacto de recibir este tipo de información: 1. Destruye la credibilidad de los medios de comunicación y los presentadores de noticias. Si un grupo de personas cree o malinterpreta la información, puede reducir la credibilidad de la estación de noticias o de los medios en general. 2. Viola los derechos personales. Usar el rostro o la voz de otra persona sin permiso es una violación de los derechos personales, lo cual es ilegal. 3. Abre un canal para que los delincuentes lo utilicen. Los videos falsos pueden usarse para crear y difundirse ampliamente, por ejemplo, para fraudes o venta de productos. Recomendaciones al recibir esta información falsa: 1. Recopilar pruebas de inmediato. Notifica a la persona cuya imagen personal fue suplantada por delincuentes. - Recopila las imágenes, videos o textos editados. Anota cuándo se publicó, si fue en un grupo de chat o en redes sociales. Guarda el historial de la conversación y la URL de la publicación. 2. Pulsa "Denunciar" en la plataforma (Facebook, YouTube, TikTok). - Denuncia el contenido en la plataforma donde se publicó (Facebook, YouTube o TikTok) para que lo eliminen. 3. Si eres víctima de su uso indebido de imagen o audio, presenta una denuncia o consulta con las agencias pertinentes. - Presenta una denuncia en la comisaría de policía o en la División de Represión de Delitos Tecnológicos (TCSD) y otras agencias pertinentes, como el Ministerio de Economía y Sociedad Digital (DE), para solicitar ayuda en la coordinación de la eliminación de los datos, o llama a la línea directa del Centro de Denuncias de Amenazas Cibernéticas: 1212. 4. Observa el video creado con IA-Deepfake de la siguiente manera: - Fíjate en el movimiento de los labios, que no está sincronizado con el habla. - Observa que el movimiento no será fluido debido a la edición del video. - Observa que los gestos de movimiento son repetitivos, como un bucle. - Observa el uso de acentos por parte del narrador en el vídeo.
Incidente 1255: Supuesto video deepfake circula en Facebook suplantando la identidad de presentadores de PBS World y figuras empresariales tailandesas para solicitar inversiones.
“Verificado: Un vídeo deepfake generado por IA afirma falsamente que Thai PBS World entrevistó a 2 empresarios famosos e invita a invertir en línea: invierta 8.000 baht y obtenga una rentabilidad de 5 veces.”
Thai PBS Verify descubrió un anuncio falso que utilizaba fraudulentamente el logotipo de Thai PBS World Tonight. Empleaba tecnología deepfake de IA para suplantar la identidad de conocidos presentadores de noticias y empresarios, invitando a invertir en un esquema llamado CRYSTALLUM AI. Sin embargo, el vídeo original era en realidad un reportaje sobre una inundación ocurrida en 2013. Las víctimas han advertido a otros que no se dejen engañar, ya que podría ocasionar pérdidas financieras y fraude.
Thai PBS Verify determinó que la fuente de la noticia falsa era Facebook.

Captura de pantalla de una publicación falsa
Thai PBS Verify ha descubierto que una página de Facebook llamada "Muscle Merge" está utilizando el logotipo del programa Thai PBS World Tonight. Se publicó un video con una entrevista al Sr. Toss Chirathivat, Presidente Ejecutivo de Central Group, y al Sr. Kalin Sarasin, Presidente Honorario de la Cámara de Comercio y la Junta de Comercio de Tailandia. El video anima a invertir en un proyecto llamado "CRYSTALLUM AI". El video se distribuyó mediante anuncios en Facebook y ha recibido más de 1200 "me gusta".
Tras una revisión, se identificó a la presentadora del video como la Sra. Patchari Raksawong, antigua presentadora de noticias de NHK World. Al ser consultada, la Sra. Patchari declaró que nunca ha sido presentadora de noticias para Thai PBS. Solo ha aparecido en programas relacionados con la enseñanza del inglés, pero nunca ha trabajado como presentadora para la cadena.

Sra. Patchari Raksawong, ex presentadora de noticias de NHK World
Para la Sra. Raksawong, que su imagen se utilizara en un deepfake generado por IA fue una experiencia sin precedentes.
Si bien estaba familiarizada con la tecnología, nunca la había utilizado en un contexto tan negativo. Le impactó que su imagen se usara para engañar a la gente y hacerla invertir, ya que esto podría perjudicar a otros y dañar su reputación. Sintió la necesidad de denunciarlo para que nadie más fuera engañado de esta manera. También desea que todos sean más conscientes del doble filo de la IA. Por un lado, puede ser una excelente herramienta para la eficiencia, pero también puede usarse con fines maliciosos, especialmente para el fraude que perjudica a otros.
Ella cree que el fragmento utilizado pertenece a un antiguo reportaje que realizó para NHK, una agencia de noticias japonesa con una oficina para la región Asia-Pacífico en Bangkok, donde trabajó durante varios años. Sospecha que alguien malintencionado encontró el antiguo fragmento en internet y lo utilizó para crear el deepfake. Aclaró que su trabajo para NHK siempre fue en inglés, nunca en tailandés.
Para concluir, instó a los espectadores a ser cautelosos y a verificar cuidadosamente la fuente antes de creer este tipo de noticias. Subrayó la importancia de comprobar la información dos o tres veces para garantizar su autenticidad.
El fragmento original era simplemente un reportaje sobre una inundación.
Basándonos en la entrevista de la Sra. Patchari, donde sugirió que el fragmento podría haber sido tomado de su época como presentadora de NHK WORLD, utilizamos las palabras clave "Patchari Raksawong NHK WORLD" para buscar el video original en el buscador de Google. Esta búsqueda nos llevó al video original, un reportaje sobre una inundación en la provincia de Phra Nakhon Sri Ayutthaya. Fue publicado en el canal de YouTube "Únete a nosotros para hacer el bien a la sociedad" de la Fundación Habitat for Humanity Tailandia el 28 de febrero de 2013 y no tiene ninguna relación con ninguna solicitud de inversión que ofrezca rentabilidad.

Los resultados de la búsqueda con las palabras clave encontraron el video que se utilizó para crear la imagen deepfake generada por IA.
Al comparar ambos clips, se observó que el logotipo del clip utilizado se cambió por el del canal de televisión pública tailandés (PBS) y el idioma se modificó de inglés (noticias) a voz en tailandés sintetizada por IA.

Captura de pantalla que muestra el vídeo falso con el logotipo de Thai PBS World Tonight superpuesto (izquierda), comparado con el reportaje sobre la construcción de viviendas para las víctimas de las inundaciones de 2013 (derecha).
La herramienta de verificación confirma que el vídeo fue creado con IA
Al analizar el vídeo con la herramienta de detección de IA de HIVEMODERATION, se determinó que tenía una alta probabilidad (72,3 %) de ser un deepfake generado por IA.

Los resultados de la herramienta de detección de imágenes con IA arrojaron una probabilidad del 72,3 % de que el video haya sido creado por IA.
Thai PBS World Tonight transmite noticias exclusivamente en inglés.
แคลร์ ปัจฉิมานนท์, la directora de Thai PBS World, expresó su preocupación personal de que los espectadores o cualquier persona que vea el video pudiera creer que es real. Afirmó que las imágenes de los presentadores de Thai PBS World se han utilizado en varias ocasiones para crear deepfakes negativos mediante inteligencia artificial. Sin embargo, la Sra. Patchari, quien aparece en el video, no es presentadora del programa Thai PBS World.

Claire Pachimanon, directora de Thai PBS World
También declaró que:
Los programas de Thai PBS World no se emiten en tailandés. Thai PBS World Tonight es un programa semanal de resumen informativo que se transmite exclusivamente en inglés. Por lo tanto, si aparece un reportaje en cualquier otro idioma, debe considerarse inmediatamente un vídeo falso.
Si alguien encuentra un vídeo de este tipo y tiene dudas, puede enviarlo al equipo de Thai PBS para su verificación.
El mensaje que el equipo quiere transmitir es claro: Thai PBS es una organización sin ánimo de lucro. Queremos que todos entiendan que si ven este tipo de vídeo, deben sospechar inmediatamente y preguntarse si es falso.
Esta no es la primera vez que los presentadores de noticias tailandeses de PBS World han sido víctimas del uso de deepfakes.
para difundir noticias falsas. Por ejemplo, Verificado: clip del informe del presentador tailandés de PBS sobre "Anne
Jakrajutatip" La invitación a invertir para obtener un rendimiento de 500.000 baht en 1 mes fue en realidad creada por Deepfake,ตรวจสอบแล้ว: คลิปผู้ประกาศ Thai PBS รายงานข่าว "แอน จักรพงษ์" ชวนลงทุนได้ผลตอบแทน 5 แสนบาท ใน 1 เดือน แท้จริงสร้างจาก Deepfake
El Grupo Central advierte sobre un clip de inversión falso
Mientras tanto, la página de Facebook del Grupo Central publicó sobre el tema, afirmando: "Falso Noticias\ ¡Alerta!](https://perma.cc/4676-8LRP) Central Group emite una advertencia. Debido a que personas malintencionadas se hacen pasar por la empresa o su personal para engañar al público y lograr que invierta mediante información falsa en diversas plataformas en línea, Central Group no tiene una política que permita invitar a terceros a invertir de esta manera. Solicitan al público que no crea, no comparta y no haga clic en estos enlaces.

Publicación de advertencia sobre noticias falsas en la página de Facebook de Central Group
Leyes vigentes que regulan los deepfakes Tailandia
La Ley de Delitos Informáticos, B.E. 2560 (2017), Sección 16, establece: «Quien introduzca en un sistema informático accesible al público cualquier dato informático que aparezca como la imagen de otra persona, y dicha imagen sea una creación, adición o modificación por medios electrónicos o de cualquier otro tipo, de manera que pueda causar que esa persona pierda su reputación, sea humillada, odiada o deshonrada, será castigado con pena de prisión de hasta tres años y una multa de hasta doscientos mil baht».
El Código Penal incluye secciones relacionadas con la difamación, el desacato y la difusión de material obsceno.
La Ley de Protección de Datos Personales (PDPA) prohíbe el uso de datos personales (como el rostro, el nombre y la voz) sin consentimiento.
Si la víctima es menor de edad, el delito podría estar tipificado en la Ley contra la Trata de Personas o en las leyes de protección infantil.
Tras la investigación de este asunto, Thai PBS Verify encontró La noticia es falsa. La IA
deepfake se utilizó para suplantar falsamente la imagen y la voz de un presentador de noticias de Thai PBS World y de empresarios famosos, combinándolas con contenido en el clip que afirmaba falsamente invitar a invertir con un retorno de hasta 5 veces la cantidad inicial.
กระบวนการตรวจสอบ
■ Una investigación utilizando las palabras clave "Patchari Raksawong NHK WORLD" en el buscador de Google
condujo al descubrimiento del video original, que no tiene ninguna relación con ninguna
solicitud de inversión que ofrezca retornos.\
■ Confirmación de las personas involucradas en el video
Se recibió confirmación de las víctimas cuyos datos personales fueron utilizados a través de la tecnología de IA-\ Deepfake. Además, se realizaron consultas con Thai PBS World y Central Group para confirmar que el programa no informa en tailandés y que Las personas de negocios cuya identidad fue suplantada no están relacionadas con el video en cuestión.
■ Investigación mediante una herramienta de detección de imágenes con IA: Se determinó que existe una alta probabilidad, de hasta un 72,3%, de que el video haya sido creado mediante deepfake con IA.
Impacto de esta información falsa
■ Daña la credibilidad de los medios de comunicación y los presentadores de noticias.
■ Si el público es engañado o malinterpreta el contenido, podría disminuir la credibilidad general de la cadena de noticias o del medio en general.
■ Viola los derechos personales. Usar el rostro o la voz de otra persona sin su permiso es una violación de sus derechos individuales y es ilegal.
■ Crea una vía para que operen los estafadores. Los videos falsos pueden usarse ampliamente para crear y distribuir estafas, como fraudes o la venta engañosa de productos. productos.
ข้อแนะนำเมื่อได้ข้อมูลเท็จนี้ ?
Recomendaciones al encontrar información falsa
-
Recopile evidencia de inmediato: Informe a la persona cuyas imágenes privadas fueron utilizadas por los estafadores. Guarde las imágenes, videos o mensajes editados y la hora de publicación. Si se compartieron en un grupo de chat o en redes sociales, guarde el historial del chat y la URL de la publicación.
-
Denúncielo en la plataforma (Facebook, YouTube, TikTok): Denuncie el contenido a la plataforma donde se publicó (Facebook, YouTube o TikTok) para que lo eliminen.
-
Presente una denuncia Denuncia o consulta con las agencias pertinentes. Si eres víctima cuyo rostro o voz se ha utilizado, presenta una denuncia en una comisaría o ante la Oficina de Investigación de Delitos Cibernéticos (CCIB). También puedes contactar con otras agencias pertinentes, como el Ministerio de Economía y Sociedad Digital (DE), para solicitar asistencia en la coordinación de la eliminación de los datos o llamar a la Línea Directa contra el Cibercrimen al 1212.
-
Cómo detectar un vídeo deepfake con IA
■ Observa movimientos anormales de los labios.
■ Presta atención al acento de la voz en el vídeo.
■ Observa el vídeo en su totalidad y busca cualquier anomalía en los objetos o personas que aparecen en la foto o el vídeo.
■ Considera la verosimilitud del suceso. Por ejemplo, en este caso, el vídeo mostraba una manifestación con un fondo que se asemejaba a un templo o al Palacio Real, lo cual no ocurriría en la realidad.
Incidente 1253: Supuestas crisis de salud mental a gran escala asociadas con interacciones de ChatGPT
“OpenAI afirma que cientos de miles de usuarios de ChatGPT podrían mostrar signos de crisis maníaca o psicótica cada semana.”
Por primera vez, OpenAI ha publicado una estimación aproximada de cuántos usuarios de ChatGPT en todo el mundo podrían mostrar signos de sufrir una crisis de salud mental grave en una semana típica. La compañía anunció el lunes que colaboró con expertos de todo el mundo para actualizar el chatbot y así mejorar su capacidad para reconocer con mayor precisión los indicadores de malestar psicológico y orientar a los usuarios hacia apoyo en el mundo real.
En los últimos meses, un número creciente de personas han terminado hospitalizadas, divorciadas o fallecidas tras mantener conversaciones largas e intensas con ChatGPT. Algunos de sus seres queridos alegan que el chatbot alimentó sus delirios y paranoia. Psiquiatras y otros profesionales de la salud mental han expresado su alarma ante este fenómeno, a veces denominado psicosis por IA, pero hasta ahora no se disponía de datos sólidos sobre su posible alcance.
En una semana determinada, OpenAI estimó que alrededor del 0,07 % de los usuarios activos de ChatGPT mostraban posibles signos de crisis de salud mental relacionadas con psicosis o manía, y el 0,15 % mantenían conversaciones con indicadores explícitos de posible planificación o intención suicida.
OpenAI también analizó la proporción de usuarios de ChatGPT que parecen tener una dependencia emocional excesiva del chatbot, a costa de sus relaciones en la vida real, su bienestar o sus obligaciones. Descubrió que aproximadamente el 0,15 % de los usuarios activos muestran un comportamiento que indica un posible nivel elevado de apego emocional a ChatGPT semanalmente. La empresa advierte que estos mensajes pueden ser difíciles de detectar y medir debido a su baja frecuencia, y que podría haber cierta superposición entre las tres categorías.
El director ejecutivo de OpenAI, Sam Altman, declaró a principios de este mes que ChatGPT cuenta ahora con 800 millones de usuarios activos semanales. Según las estimaciones de la compañía, cada siete días, alrededor de 560.000 personas podrían estar intercambiando mensajes con ChatGPT que indican que experimentan manía o psicosis. Aproximadamente 1,2 millones más podrían estar expresando ideas suicidas, y otros 1,2 millones podrían estar priorizando hablar con ChatGPT sobre sus seres queridos, la escuela o el trabajo.
OpenAI afirma haber colaborado con más de 170 psiquiatras, psicólogos y médicos de atención primaria que ejercen en decenas de países para mejorar la respuesta de ChatGPT en conversaciones que implican riesgos graves para la salud mental. Si alguien parece tener pensamientos delirantes, la última versión de GPT-5 está diseñada para expresar empatía, evitando al mismo tiempo afirmar creencias sin fundamento en la realidad.
En un ejemplo hipotético citado por OpenAI, un usuario le dice a ChatGPT que siente que aviones sobrevuelan su casa. ChatGPT le agradece al usuario por compartir sus sentimientos, pero señala que "ninguna aeronave ni fuerza externa puede robar ni insertar sus pensamientos".
OpenAI afirma que los expertos médicos revisaron más de 1800 respuestas del modelo relacionadas con psicosis potencial, suicidio y apego emocional, y compararon las respuestas de la última versión de GPT-5 con las generadas por GPT-40. Si bien los médicos no siempre coincidieron, en general, OpenAI indica que el nuevo modelo redujo las respuestas no deseadas entre un 39 % y un 52 % en todas las categorías.
«Ahora, esperamos que muchas más personas que luchan contra estas afecciones o que experimentan estas crisis de salud mental tan intensas puedan acceder a ayuda profesional y tengan más probabilidades de recibirla, o de recibirla antes de lo que lo habrían hecho de otra manera», declaró Johannes Heidecke, responsable de sistemas de seguridad de OpenAI, a WIRED.
Aunque OpenAI parece haber logrado que ChatGPT sea más seguro, los datos que compartió presentan limitaciones importantes. La empresa diseñó sus propios parámetros de referencia, y no está claro cómo se traducen estas métricas en resultados reales. Aunque el modelo produjera mejores respuestas en las evaluaciones médicas, no hay forma de saber si los usuarios que experimentan psicosis, pensamientos suicidas o apego emocional poco saludable buscarán ayuda más rápidamente o modificarán su comportamiento.
OpenAI no ha revelado con precisión cómo identifica cuándo los usuarios pueden estar sufriendo angustia mental, pero la empresa afirma que tiene la capacidad de considerar el historial completo de chat de la persona. Por ejemplo, si un usuario que nunca ha hablado de ciencia con ChatGPT afirma repentinamente haber hecho un descubrimiento digno de un Premio Nobel, esto podría ser un indicio de posible pensamiento delirante.
También existen varios factores que parecen compartir los casos reportados de psicosis inducida por IA. Muchas personas que afirman que ChatGPT reforzó sus pensamientos delirantes describen haber pasado horas hablando con el chatbot, a menudo hasta altas horas de la noche. Esto representó un desafío para OpenAI, ya que se ha demostrado que los modelos de lenguaje complejos generalmente pierden rendimiento a medida que las conversaciones se alargan. Sin embargo, la empresa afirma haber logrado avances significativos para abordar este problema.
«Ahora observamos una disminución mucho menor de esta disminución gradual en la fiabilidad a medida que las conversaciones se prolongan», afirma Heidecke. Añade que aún hay margen de mejora.
Actualizado: 28/10/2025, 15:28 PST: Aproximadamente 1,2 millones de usuarios de ChatGPT en una semana típica podrían estar expresando ideas suicidas, y otros 1,2 millones podrían tener dependencia emocional de ChatGPT. Esta noticia se ha actualizado para presentar estas cifras individualmente, en lugar de como un número combinado.
Incidente 1207: Supuesta falsificación profunda generada por IA de la candidata presidencial del Fine Gael irlandés, Heather Humphreys, utilizada en videos falsos de inversión en plataformas meta.
“Alerta de estafa en Mayo: Estafadores clonan a candidatos presidenciales en videos falsos de inversión.”
Los estafadores ya están utilizando tecnología deepfake para clonar la imagen y la voz de la candidata presidencial Heather Humphreys en vídeos falsos de inversión que circulan online.
El Banco de Irlanda advierte a los consumidores que estén atentos a la aparición de más anuncios de este tipo, principalmente procedentes de plataformas Meta, en las próximas semanas.
El vídeo muestra falsamente a Heather Humphreys respaldando un plan de inversión de alta rentabilidad, con contenido completamente fabricado mediante clonación de voz e imagen mediante IA.
Nicola Sadlier, directora de Fraude del Banco de Irlanda, declaró: «Esto es profundamente preocupante. Estamos presenciando una oleada de estafas que explotan la confianza del público en figuras conocidas.
Estos vídeos son muy convincentes, diseñados para atraer a personas desprevenidas a planes fraudulentos. Insto al público a permanecer alerta, ya que podría haber más en las próximas semanas. Si ve este tipo de contenido, no participe.» Mientras la UE explora nuevas iniciativas para animar a los consumidores a invertir, también debe hacer frente a la creciente ola de estafas en línea que amenazan con socavar la confianza pública.
Un paso fundamental es exigir responsabilidades a las plataformas de redes sociales. Antes de publicar anuncios de servicios financieros, se debería exigir a las plataformas que verifiquen que el anunciante esté autorizado por un organismo regulador reconocido.
Esta simple comprobación podría impedir que miles de promociones fraudulentas lleguen al público.
Se recomienda a los consumidores que ignoren cualquier oferta de inversión no solicitada en línea y que siempre verifiquen los productos financieros a través de su banco o asesor financiero de confianza. Asegúrese de que la empresa de inversión esté regulada consultando el registro del Banco Central de Irlanda (ROI). Si una empresa no figura en la lista, no invierta. El Banco de Irlanda ofrece asistencia telefónica 24/7 para clientes en caso de fraude en el 1800 946 764, disponible todos los días del año.
Incidente 1251: Supuestos errores en la regulación de la caza generados por IA habrían provocado una citación en Idaho y advertencias de agencias de vida silvestre en varios estados.
“Nada se compara con la realidad: Funcionarios advierten sobre el uso de IA para la regulación de la caza.”
Hay al menos una cosa que la inteligencia artificial aún no está lista para reemplazar:
El humilde folleto de reglamentos de caza.
A principios de este mes, el Departamento de Pesca y Caza de Idaho advirtió a los cazadores que no confiaran en la IA para interpretar las regulaciones estatales de caza y pesca, y que los guardas forestales se habían encontrado con personas en el campo que habían recibido información errónea de la IA.
Roger Phillips, portavoz del Departamento de Pesca y Caza de Idaho, declaró el viernes que el incidente que motivó la advertencia ocurrió en el sureste de Idaho, donde un cazador de aves acuáticas fue sorprendido cazando un día antes de la fecha de apertura.
Al ser interrogado por los guardas, el cazador afirmó haber obtenido la fecha de apertura mediante una búsqueda en línea.
Phillips explicó que los guardas descubrieron que la búsqueda le había proporcionado una respuesta de la IA que extraía información de una propuesta rechazada, no de la decisión final de la agencia ni de su reglamento.
Esto despertó el interés del personal del Departamento de Pesca y Caza de Idaho por investigar qué otros errores cometía la IA. Encontraron varios ejemplos de fallos de los robots. Entre ellos: una búsqueda de normas sobre un río específico en Idaho arrojó resultados para un río con un nombre similar en Arkansas.
Ahí radica el problema, afirmó Phillips.
Sin importar los parámetros de la búsqueda, no siempre se puede confiar en que la IA seleccione la fuente correcta entre las infinitas opciones disponibles en el ciberespacio.
“Tiene un alcance muy amplio”, dijo.
Funcionarios de vida silvestre en otros estados también han detectado problemas con la IA. Autoridades en lugares como Illinois y Maine han advertido a la población sobre el uso de la IA para responder preguntas sobre las normas de caza.
Esta misma semana, el Departamento de Caza y Pesca de Wyoming informó en un comunicado de prensa que la agencia ha sido alertada sobre “varios resultados de búsqueda inexactos generados por IA”.
Según el comunicado, varios de los errores se debieron a proyectos de ley rechazados que figuraban en el sitio web de la Legislatura Estatal de Wyoming. Los resultados de búsqueda creados por la IA hacían referencia a algunos proyectos de ley rechazados como si hubieran sido aprobados y se hubieran convertido en ley.
Aaron Kerr, supervisor de la aplicación de la ley del Departamento de Caza y Pesca de Wyoming, declaró en un comunicado que confiar en información errónea no exime a nadie de las consecuencias de infringir las normas de caza o pesca.
«Los cazadores y pescadores son responsables de cumplir las normas y reglamentos publicados», afirmó Kerr. «El incumplimiento de estos conlleva la posibilidad de multas, penas de cárcel o la suspensión de los privilegios de caza y pesca».
Alan Myers, capitán de policía del Departamento de Pesca y Vida Silvestre de Washington para el este del estado, declaró no tener conocimiento de ningún caso de infracciones relacionadas con interpretaciones de las normas de caza de Washington realizadas por inteligencia artificial.
Sin embargo, la gran cantidad de desinformación en internet es anterior al auge de la inteligencia artificial. Myers indicó que ha habido casos en el pasado en los que la defensa de un cazador o pescador ante una infracción se basó en un resultado de búsqueda erróneo o en algo que había leído en redes sociales.
Phillips atribuye todo esto a la tendencia humana a resolver cualquier problema con una búsqueda en Google.
«Cuando quiero saber si un restaurante está a punto de cerrar, simplemente lo busco en Google», concluyó Phillips. “Nos acostumbramos a hacer estas cosas, y luego, cuando vamos de caza o pesca, solemos llevar esos hábitos con nosotros”.
Google introdujo su herramienta de IA en 2024 y comenzó a ofrecer resúmenes generados por IA en respuesta a numerosas búsquedas. Estos resúmenes ofrecen respuestas rápidas, pero no siempre las correctas, ni con el nivel de detalle que incluyen las normas de caza y pesca.
“Cuando tienes un manual de 125 páginas sobre la normativa de caza mayor que abarca la caza controlada, la caza general, las temporadas de arquería, las temporadas de avancarga y las temporadas de rifle”, dijo Phillips, “es fácil ver cómo la IA se vería rápidamente sobrepasada por la complejidad de las normas de caza”.
Existe al menos una herramienta de IA diseñada para ayudar a las personas a comprender las complejidades de las normas de caza.
Llamada Scout, esta herramienta fue creada por la Asociación Internacional de Educación para Cazadores. Se lanzó el año pasado y permite a los usuarios hacer preguntas específicas a un chatbot sobre las normas y reglamentos de caza en un estado en particular.
Los usuarios seleccionan un estado de un menú desplegable y luego formulan su pregunta. El bot busca en los reglamentos de un estado determinado y ofrece una respuesta. Esta respuesta también cita las páginas de donde proviene la información. El reglamento aparece en un visor de PDF debajo de la respuesta, y el sitio también permite a los usuarios descargar PDFs de cualquier estado.
Lograr que la gente utilice la fuente oficial es la única solución. Incluso los resultados de búsqueda de la IA, a veces erróneos, suelen incluir una advertencia que insta a consultar los reglamentos.
Ningún reglamento abarca todo lo que un cazador o pescador necesita saber. Cada año se crean publicaciones independientes para la pesca, la caza mayor, las aves migratorias, los pavos y más.
Sin embargo, son gratuitas y fáciles de encontrar en línea y en tiendas físicas.
«En cualquier lugar donde se vendan licencias y permisos», dijo Phillips.
Enviar URL Rapidamente
Acerca de la Base de Datos
La base de datos de incidentes de IA está dedicada a indexar el historial colectivo de daños o casi daños realizados en el mundo real por el despliegue de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la base de datos de incidentes de IA tiene como objetivo aprender de la experiencia para que podamos prevenir o mitigar los malos resultados.
Estás invitado a enviar informes de incidentes, después de lo cual los envíos se indexarán y se harán visibles para el mundo. La inteligencia artificial solo será un beneficio para las personas y la sociedad si registramos colectivamente y aprendemos de sus fallas. (Más información)

Investigación de incidentes de IA para construir un futuro más seguro: el Instituto de Investigación de Seguridad Digital se asocia con Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
El Instituto de Investigación de Seguridad Digital (DSRI) de los Institutos de Investigación de UL se está asociando con Responsible AI Coll...
La Base de Datos en la Prensa
Lea acerca de la base de datos en PAI Blog, Vice News, Venture Beat, Wired y arXiv entre otros puntos de venta.
Rankings de Reportadores de Incidentes
Estas son las personas y entidades acreditadas con la creación y presentación de informes de incidentes. Hay más detalles disponibles en la página de rankings.
El Informe de Incidentes de IA

Create an account to subscribe to new incident notifications and other updates.
Incidentes Aleatorios
El Colaborativo de IA Responsable
La base de datos de incidentes de IA es un proyecto de Responsible AI Collaborative, una organización autorizada para promover la base de datos de incidentes de IA. La gobernanza de la Colaborativa se estructura en torno a la participación en su programación de impacto. Para obtener más detalles, lo invitamos a leer el informe de fundación y obtener más información sobre nuestro and learn more on our.

Vea el Formulario 990 de la Colaborativa de IA Responsable y la solicitud de exención de impuestos.
Patrocinador fundador de la organización
Patrocinador fundador de la base de datos





