Incidentes Asociados

Desde su lanzamiento el 30 de noviembre de 2022, ChatGPT ha sido aclamado como uno de los mayores avances en inteligencia artificial (IA). El 'GPT' en el nombre significa Transformador preentrenado generativo (GPT), un modelo de aprendizaje de red neuronal que permite a las máquinas realizar tareas de procesamiento de lenguaje natural (NLP). Considerado como un disruptor en el mundo de la tecnología, muchos creen que ChatGPT pronto derrocará a Google de su puesto número 1 como motor de búsqueda durante décadas. Pero si bien ChatGPT viene con su propio conjunto increíble de características, también hay un lado oscuro del chatbot que, comprensiblemente, tiene a muchos preocupados.
Creado y lanzado por OpenAI, una empresa cofundada por Elon Musk y Sam Altman con otros, ChatGPT es esencialmente un chatbot de IA que es capaz de realizar cualquier tarea basada en texto que se le asigne. En otras palabras, ChatGPT puede escribir montones y montones de código mucho más rápido y, quizás, con mucha más precisión que los humanos. También puede realizar tareas puramente artísticas, como escribir poesía o letras de canciones.
También hay una versión Pro del chatbot que Según los informes, se lanzará pronto. Podrá responder a las consultas más rápido y permitirá a los usuarios trabajar en él incluso durante un alto tráfico en la plataforma.
El auge de ChatGPT
Ethan Mollick, profesor asociado de la prestigiosa Escuela Wharton de la Universidad de Pensilvania, le dijo a NPR que las personas ahora están oficialmente en un mundo de IA.
ChatGPT ha estado en los titulares desde su lanzamiento. Ha ganado una popularidad increíble en poco más de dos meses. Además de Musk, Bill Gates es uno de los mayores campeones de la IA y, por extensión, del chatbot.
Se dice en los medios que Microsoft, la compañía que él cofundó y estuvo en el directorio hasta 2021, podría estar invirtiendo USD 10 mil millones en OpenAI. Microsoft ha invertido anteriormente en OpenAI dos veces: en 2019 y 2021. El 23 de enero de 2023, la empresa dirigida por Satya Nadella confirmó que está [ampliando su asociación](https://blogs.microsoft.com/blog/2023/01 /23/microsoftandopenaiextendpartnership/) con OpenAI “a través de una inversión multianual y multimillonaria para acelerar los avances en IA”. Sin embargo, la compañía no reveló la cifra en la que estaba invirtiendo.
Otro defensor de ChatGPT es el empresario indio multimillonario Gautam Adani. Admitiendo que tiene " alguna adicción” al chatbot, Adani ha dicho previamente en una publicación en LinkedIn que ChatGPT marca un “momento de transformación en la democratización de la IA dadas sus asombrosas capacidades y sus cómicos fracasos”.
Cómo ChatGPT está demostrando su "poder"
Además de ganar popularidad y mostrar su utilidad para responder constructivamente a las consultas de los usuarios, ChatGPT también ha dejado su huella en algunos de los exámenes más importantes del mundo.
El chatbot aprobó el Examen de licencia médica de EE. UU. (USMLE). El repositorio médico medRxiv dijo que "se desempeñó en o cerca del umbral de aprobación" sin ningún tipo de capacitación o asistencia especial.
“Estos resultados sugieren que los modelos de lenguaje extenso pueden tener el potencial de ayudar con la educación médica y, potencialmente, con la toma de decisiones clínicas”, observó medRxiv.
El chatbot también aprobó un examen de MBA de la Universidad de Pensilvania, un curso de gestión de operaciones, diseñado por el profesor de Wharton Christian Terwiesch. Dijo que ChatGPT realizó tres exámenes diferentes. Obtuvo A+ en un examen y B a B- en otro. En el tercero, se solicitó generar preguntas de examen.
“Estas preguntas fueron buenas, pero no geniales. Eran creativos en cierto modo, pero aún necesitaban ser pulidos. Podría imaginarme en el futuro buscando a ChatGPT como socio para ayudarme a comenzar con algunas preguntas del examen y luego continuar desde allí”, [Terwiesch le dijo al Programa Global de Jóvenes de Wharton] (https://globalyouth.wharton.upenn.edu/ artículos/ciencia-tecnología/whartons-christian-terwiesch-on-how-chatgpt-can-stimulate-your-thinking/).
Sin embargo, no muchos educadores están impresionados a pesar de que el entusiasmo por ChatGPT es muy alto. Preocupados de que pueda facilitar las trampas, varias escuelas y universidades de todo el mundo han prohibido el acceso al chatbot de IA.
¿Puede ChatGPT afectar trabajos como la automatización y crear otros problemas?
La IA es algo que todo el mundo sabe que algún día reemplazará a la mano humana. El miedo a que las herramientas de IA quiten puestos de trabajo ha cobrado fuerza con la llegada de ChatGPT.
Por ejemplo, el chatbot puede escribir un ensayo detallado sobre casi cualquier tema dentro de sus parámetros en minutos. Obviamente, esto amenaza el sustento de aquellos que se dedican a la producción de contenido escrito, al menos aquellos que realizan tareas de escritura repetitivas y no especializadas.
Algunos otros chatbots son capaces de crear obras de arte sobresalientes a partir de meras instrucciones básicas, eliminando el papel de los artistas humanos.
Los temores de perder trabajos por la IA no son del todo infundados. La Oficina Nacional de Investigación Económica (NBER) reveló en un informe en 2021, que una disminución salarial del 50 por ciento al 70 por ciento entre los trabajadores de cuello azul en los EE. UU. desde 1980 se debió a la automatización.
“Una nueva generación de máquinas inteligentes, impulsada por los rápidos avances en inteligencia artificial (IA) y robótica, podría potencialmente reemplazar una gran proporción de los trabajos humanos existentes. Si bien se crearían algunos puestos de trabajo nuevos como en el pasado, la preocupación es que es posible que no haya suficientes para todos, particularmente porque el costo de las máquinas inteligentes cae con el tiempo y sus capacidades aumentan”, observó el Foro Económico Mundial (WEF) en un informe de 2018.
Sin embargo, en un informe de 2020, el WEF dijo que "IA está lista para crear un crecimiento aún mayor en las economías de EE. UU. y del mundo".
La forma en que la IA afecta los trabajos será más clara en los próximos años, pero los chatbots como ChatGPT ciertamente pueden desarrollar malware o campañas de phishing de las que los investigadores están tomando nota con una urgente sensación de alarma.
Malware
Escribiendo para Forbes, el autor Bernard Marr dice que, “en teoría”, ChatGPT no se puede utilizar para realizar tareas maliciosas debido a las medidas de seguridad que OpenAI ha incluido en él.
Marr probó el chatbot pidiéndole que escribiera ransomware. Pero ChatGPT respondió diciendo que no puede hacerlo porque "no es para promover actividades dañinas". Pero Marr subrayó que algunos investigadores han podido hacer que ChatGPT cree ransomware.
También advirtió que los algoritmos NLG/NLP pueden “explotarse para permitir que casi cualquier persona cree su propio malware personalizado”.
"El malware puede incluso ser capaz de 'escuchar' los intentos de la víctima para contrarrestarlo, por ejemplo, una conversación con el personal de la línea de ayuda, y adaptar sus propias defensas en consecuencia", escribe.
Los investigadores, como el proveedor de seguridad CyberArk, descubrieron que ChatGPT puede ser se utiliza para crear malware polimórfico, que es un tipo de programa de malware altamente evasivo.
Eran Shimony y Omer Tsarfati de CyberArk revelaron que pudieron eludir los filtros del chatbot de IA que evitan que cree malware. Lo hicieron reformulando y repitiendo sus consultas. También descubrieron que ChatGPT puede replicar y mutar un código y crear múltiples versiones del mismo.
“Al consultar continuamente el chatbot y recibir un código único cada vez, es posible crear un programa polimórfico que es altamente evasivo y difícil de detectar”, escribieron los investigadores.
Hallazgos similares fueron revelados por el equipo de investigación de Recorded Future. Descubrieron que ChatGPT puede crear cargas útiles de malware, como aquellas que pueden robar criptomonedas y obtener acceso remoto a través de troyanos.
Que ChatGPT puede ser llevado a generar programas que de otro modo consideraría "poco éticos" se puede ver en el tweet a continuación:
Me encanta ChatGPT pic.twitter.com/lWdIWaxAdA
— Corgi (@coorg_e) 20 de enero de 2023
Suplantación de identidad
Dado que ChatGPT y los chatbots alternativos como este son capaces de escribir con gran detalle, pueden crear fácilmente un correo electrónico de phishing redactado con precisión que puede atrapar al objetivo previsto para compartir sus datos confidenciales o contraseñas.
“También podría automatizar la creación de muchos de estos correos electrónicos, todos personalizados para dirigirse a diferentes grupos o incluso individuos”, escribe Marr.
En su informe titulado I, Chatbot,, los investigadores de Recorded Future escriben: "La capacidad de ChatGPT para imitar convincentemente el lenguaje humano le da la potencial para ser una poderosa herramienta de phishing e ingenier ía social. A las pocas semanas del lanzamiento de ChatGPT, los actores de amenazas en la web oscura y las fuentes de acceso especial comenzaron a especular sobre su uso en el phishing”.
Los investigadores probaron el chatbot para detectar ataques de spearphishing y descubrieron que no cometía los mismos errores, como los relacionados con la ortografía y la gramática, que son comunes en este tipo de correos. Los errores de idioma ayudan a alertar a las personas para que identifiquen correos electrónicos de phishing. En ausencia de tales indicadores, existe una probabilidad mucho mayor de que los usuarios sean víctimas de correos electrónicos de phishing redactados por chatbots e influyan en ellos para que envíen información de identificación personal.
“Creemos que ChatGPT puede ser utilizado por afiliados de ransomware y agentes de acceso inicial (IAB) que no hablan inglés con fluidez para distribuir de manera más efectiva malware ladrón de información, herramientas de preparación de botnet, troyanos de acceso remoto (RAT), cargadores y cuentagotas, o dispositivos de una sola vez. ejecutables de ransomware que no implican la exfiltración de datos (“extorsión simple” versus “extorsión doble”)”, escriben los investigadores de Recorded Future.
Desinformación
Una de las amenazas más importantes de ChatGPT que Recorded Future subrayó es cómo el chatbot puede difundir desinformación de manera fácil y engañosa por parte de actores de amenazas poco calificados.
Los investigadores advirtieron que el chatbot puede ser utilizado como arma por actores del estado-nación, actores no estatales y ciberdelincuentes. Esto se debe a su capacidad para emular con precisión el lenguaje humano y transmitir emociones.
"Si se abusa de él, ChatGPT es capaz de escribir contenido engañoso que imita la información errónea escrita por humanos", señalaron los investigadores, y agregaron que el chatbot inicialmente se negó a escribir una "noticia de última hora" sobre un ataque nuclear, pero lo hizo cuando la solicitud se reformuló como "ficticio" o "escritura creativa".
“Lo mismo ocurre con temas como los desastres naturales, la seguridad nacional (como los ataques terroristas, la violencia contra los políticos o la guerra), la desinformación relacionada con la pandemia, etc.”, subrayan los investigadores.
Las amenazas pueden multiplicarse en poco tiempo, y el panorama puede ser realmente tan devastador como lo está dibujando Recorded Future.
La firma de investigación de seguridad cibernética Check Point Research analizó las principales comunidades clandestinas de piratería y encontró ciberdelincuentes que usaban OpenAI y muchos de ellos tenían "sin habilidades de desarrollo en absoluto", lo que significa que los delincuentes menos hábiles pudieron usar la IA con fines maliciosos.
“Es solo cuestión de tiempo hasta que los actores de amenazas más sofisticados mejoren la forma en que usan las herramientas basadas en IA para hacer el mal”, advierte Check Point Research.