Incidentes Asociados

El mundo se detuvo brevemente cuando las imágenes de una explosión en las instalaciones del Pentágono comenzaron a circular en las redes sociales el lunes. La imagen, que comenzó a circular en Twitter el 22 de mayo, mostraba una explosión en un césped fuera del Pentágono.
Desde entonces, la publicación original ha sido eliminada.
Imágenes de la explosión del Pentágono: ¿realmente ocurrió una explosión?
El Departamento de Defensa de EE.UU. ha aclarado que no ha habido ninguna explosión ni en las inmediaciones de las instalaciones del Pentágono.
Forbes citó a un portavoz del Departamento de Defensa diciendo que la imagen que supuestamente muestra una explosión en las instalaciones del Pentágono es una "información errónea". El departamento de bomberos de Arlington tuiteó en breve que "NO hubo explosión ni incidente" en la reserva del Pentágono o cerca de ella.
'No hay peligro inmediato o riesgos para el público': Departamento de Bomberos de Arlington
El departamento de bomberos de Arlington aclaró que "no hay peligro inmediato ni riesgos para el público" alrededor del Pentágono.
Hasta el momento, la fuente de la imagen viral sigue sin determinarse.
Falsificaciones profundas generadas por IA en el centro de atención
Las falsificaciones profundas generadas por la inteligencia artificial han sido el centro de atención por sus representaciones realistas de personas y sujetos absolutamente reales. Se han extendido en las redes sociales como la pólvora.
La proliferación de tales falsificaciones profundas ha aumentado después de que se hicieran públicas una serie de tecnologías de inteligencia artificial altamente poderosas, incluido ChatGPT de OpenAI.
Las representaciones realistas de la IA incluyen al Papa Francisco con un abrigo de Balenciaga, así como imágenes virales generadas por la IA del expresidente Donald Trump resistiendo a las autoridades durante un arresto falso.
La imagen que muestra una explosión dentro de las instalaciones del Pentágono también ha sido descrita como una falsificación profunda.
Mientras tanto, la semana pasada, las palabras de advertencia relacionadas con la regulación de la Inteligencia Artificial provinieron nada menos que de Samuel Altman, el CEO de A.I. startup del día, OpenAI, fabricante de ChatGPT.
En una audiencia en el Senado de EE. UU. la semana pasada, Altman dijo: "Si esta tecnología sale mal, puede salir bastante mal".
Altman propuso la formación de una agencia estadounidense o global que otorgaría licencias a los sistemas de inteligencia artificial más potentes y tendría la autoridad para "retirar esa licencia y garantizar el cumplimiento de las normas de seguridad".