Incidentes Asociados

Suposiciones infundadas, malos consejos, información incorrecta: la mayor fuente de problemas en Internet hoy en día es que las personas compran ciegamente las exageraciones. ChatGPT, que ha conquistado Internet recientemente, parece estar haciendo que sea mucho más fácil para las personas sumarse al caos.
A estas alturas, ChatGPT ha sido sinónimo de respuestas exhaustivas similares a las humanas a preguntas, que incluyen cómo redactar un contrato, crear un código o incluso un guión de película. El chatbot temporalmente gratuito ya está cambiando la forma en que las personas buscan información respondiendo preguntas complejas. A veces, las capacidades de comprensión de ChatGPT te hacen dudar si realmente estás hablando con un humano.
Entonces, ¿por qué la gente ataca a ChatGPT? Pero, antes de hacerlo, veamos algunos de los aspectos positivos de este chatbot revolucionario.
La principal de las características únicas de ChatGPT es memory. El bot puede recordar lo que se dijo anteriormente en la conversación y contárselo al usuario. Esto en sí lo diferencia de otras soluciones de lenguaje natural de la competencia, que todavía están resolviendo la memoria a medida que avanzan consulta por consulta.
Si bien supera algunos de los problemas que plagaron a los chatbots anteriores, que incluyen respuestas de odio o racistas, también genera preguntas sobre cómo el usuario puede diferenciar entre el contenido del bot y la intervención humana a través del lenguaje. Esto se debe a que el texto de ChatGPT puede lograr la sensación de una respuesta veraz incluso si no se basa en hechos.
Las respuestas son inexactas
Recientemente, Stack Overflow, el popular foro de programación, [prohibido](https://meta. stackoverflow.com/questions/421831/temporary-policy-chatgpt-is-banned) todas las respuestas creadas por ChatGPT citan un alto grado de inexactitud en las respuestas del bot. Si bien aclaró que era una política temporal, reiteró que el problema no solo radica en la inexactitud de las respuestas de ChatGPT, sino más profundamente en la forma en que el bot expresa sus respuestas.
Debido a la naturaleza de los LLM, particularmente GPT-3.5, que se ha utilizado para construir ChatGPT, no solo puede generar oraciones gramaticalmente correctas con un tono formal, sino que también las hace sonar autoritarias y contundentes.
Stack Overflow dijo: "[Las respuestas de ChatGPT] generalmente parecen buenas y las respuestas son muy fáciles de producir. También hay muchas personas que prueban ChatGPT para crear respuestas, sin la experiencia o la voluntad de verificar que la respuesta sea correcta antes de publicarla”.
Da información no verificada
En Twitter, varios usuarios, incluido el célebre experto en IA Andrew Ng, publicaron sobre la vaguedad de las respuestas dadas a ciertas preguntas específicas. En algunos casos, las personas incluso publicaron respuestas incorrectas dadas por el chatbot que podrían engañar a sus usuarios.
También hubo casos en los que los usuarios publicaron que, aunque el chatbot no responde a preguntas controvertidas o políticas, sí produce bromas políticamente incorrectas.
Gary Marcus, profesor emérito de la Universidad de Nueva York, ha estado compartiendo una serie de ejemplos en Twitter de casos de información incorrecta por parte del chatbot en los que tiene una capacidad limitada para aprovechar los hechos.
El autor John Warner argumenta que el chatbot inventa información citando una instancia en la que le dio una [lista de artículos] (https://twitter.com/biblioracle/status/1599545554006003712) que no existía.
Afirmaciones respaldadas por citas falsas
Cuando el chatbot se usa para escribir una [noticia básica](https://usbreakingnewshub.com/index.php/2022/12/08/chatgpt-can-fool-humans-even-when-its-wrong-backs- up-assertions-with-fake-quotes/) sobre las ganancias trimestrales de una importante empresa tecnológica, el chatbot produce una réplica confiable de los resultados financieros de la empresa, las áreas en las que vio un aumento en los ingresos y las áreas de crecimiento potencial. Para que parezca más auténtico, incluso complementa el artículo con una cita del director general de la empresa.
Esto se debe a que estos modelos de lenguaje han aprendido que las noticias siempre están respaldadas con una cita y datos. Por lo tanto, el chatbot también replica este comportamiento.
Sin citas y referencias inexistentes
A pesar de una respuesta detallada que parece creíble e imita una conversación humana completa con información exhaustiva, ChatGPT no revela ni enumera sus fuentes, lo que plantea una pregunta alarmante sobre información práctica y verificada.
Además, cuando pone dicha información a disposición, da referencias inexistentes. Tomemos el caso de este usuario que dijo que cada una de las referencias proporcionadas por el chatbot en respuesta a su consulta buscando referencias que trataran con propiedades matemáticas de ¡Las listas no existían!
brillantemente tonto
Gary Marcus en su artículo, '[El camino hacia la IA en la que podemos confiar'](https://garymarcus.substack.com/p/how-come-gpt-can-seem-so-brilliant?r=17uk7&utm_campaign=post&utm_medium= correo electrónico), señala que el conocimiento de GPT es en parte sobre las propiedades específicas de las entidades y no es capaz de dominar por completo las relaciones abstractas.
Tomemos, por ejemplo, si le pide al Chatbot un artículo sobre un área específica (Jayanagar) en Bangalore, al azar escribe sobre una asociación de bienestar de residentes en el área que es conocida por sus iniciativas ciudadanas. No entra en la historia del área, su tamaño u otros aspectos relevantes.
¿En qué se diferencia de la Búsqueda de Google?
Mucha gente hoy llama a ChatGPT el 'Nuevo Google' o 'Google Killer', lo que hasta cierto punto es cierto, particularmente en el caso de mostrar sugerencias extrañas. Google, por ejemplo, sugiere el cáncer como una respuesta para todos y cada uno de los síntomas, incluso cuando consulta por dolor de estómago. Pero, en el caso de ChatGPT, no refleja tales sugerencias, sino que encubre información errónea. En otras palabras, podemos decir que 'ChatGPT es una versión glorificada de la Búsqueda de Google', solo que mucho mejor.