Incidentes Asociados

Un abogado que representa a un hombre en una demanda por lesiones personales en Manhattan se ha puesto a merced de la corte. ¿Qué hizo mal el abogado? Presentó una presentación ante un tribunal federal que citaba al menos seis casos que no existen. Lamentablemente, el abogado usó el chatbot de IA ChatGPT, que inventó completamente los casos de la nada.
El abogado del caso, Steven A. Schwartz, representa a un hombre que está demandando a Avianca Airlines después de que un carrito de servicio supuestamente se golpeó la rodilla en 2019. Schwartz dijo que nunca antes había usado ChatGPT y que no tenía idea de que solo inventaría casos.
De hecho, Schwartz dijo que incluso le preguntó a ChatGPT si los casos eran reales. El chatbot insistió en que lo eran. Pero fue solo después de que los abogados de la aerolínea señalaron en una nueva presentación que los casos no existían que Schwartz descubrió su error. (O el error de la computadora, según se mire).
El juez del caso, P. Kevin Castel, está celebrando una audiencia el 8 de junio sobre qué hacer en este lío enredado, según el [New York Times](https://www.nytimes.com/2023/05/ 27/nyregion/avianca-airline-lawsuit-chatgpt.html). Pero, no hace falta decir que el juez no está contento.
ChatGPT se lanzó a fines de 2022 y se convirtió instantáneamente en un éxito. El chatbot es parte de una familia de nuevas tecnologías llamada IA generativa que puede mantener conversaciones con los usuarios durante horas y horas. Las conversaciones se sienten tan orgánicas y normales que a veces ChatGPT parecerá tener mente propia. Pero la tecnología es notoriamente inexacta y, a menudo, solo inventará hechos y fuentes para hechos que son completamente falsos. El producto de la competencia de Google, Bard, tiene problemas similares.
Pero ninguno de esos problemas ha impedido que las personas usen esta tecnología experimental como si fuera una fuente confiable de información. Hay innumerables informes de niños que reciben ChatGPT para escribir trabajos para ellos, y muchos informes de maestros que piensan que pueden preguntarle a ChatGPT si se usó un trabajo. OpenAI, la empresa detrás de ChatGPT, ofrece un servicio que intenta detectar cuándo se ha utilizado el chatbot de IA, pero, según se informa, ese detector tiene una tasa de precisión del 20 %. Y si solo alimentas los párrafos aleatorios de ChatGPT, la IA no puede decirte si los escribió. Yo mismo probé esto a principios de este mes y ChatGPT [siguió atribuyéndose el mérito del trabajo de otros](https://www.forbes.com/sites/mattnovak/2023/05/16/no-chatgpt-cant-tell-you- if-a-paper-fue-escrito-usando-chatgpt/).
Los chatbots como ChatGPT son controvertidos por varias razones, incluido el hecho de que a algunos expertos en tecnología les preocupa que la IA pueda salirse de control. Algunas personas incluso creen que la IA podría comenzar a tener voluntad propia, desencadenando una especie de escenario similar a Terminator donde [la humanidad está completamente destruida] (https://paleofuture.com/blog/2019/12/9/us -el-ejército-preocupa-a-la-humanidad-está-predispuesta-contra-los-mortales-soldados-cyborg-debido-a-películas-como-terminator). El multimillonario Elon Musk insinuó tal posibilidad cuando recientemente pidió una pausa de seis meses en el desarrollo de la IA, una pausa que probablemente tuvo más que ver con el hecho de que estaba compitiendo para [construir su propio competidor ChatGPT] (https: //www.forbes.com/sites/mattnovak/2023/03/29/the-real-reason-elon-musk-wants-to-pause-ai-development/). Musk fue, después de todo, uno de los cofundadores originales de OpenAI en 2015 antes de ser expulsado después de intentar tomar el control de la empresa en 2018.
Sin embargo, todavía no estamos cerca de las máquinas que organizan una revuelta contra toda la vida orgánica. Los chatbots como ChatGPT son esencialmente formas más avanzadas de texto predictivo. Trabajan tratando de adivinar con una velocidad asombrosa lo que debería decir, y esa velocidad a menudo hace que escupa un montón de basura inexacta. En lugar de simplemente decir "No sé", la tecnología inventará una larga lista de fuentes que en realidad no existen. Y si le pregunta a ChatGPT si las fuentes son reales, le asegurará que lo son.
Los seres humanos han sido mimados por Google, un motor de búsqueda que, aunque es imperfecto, intentará mostrar la información más precisa. Wikipedia, que fue recibida con escepticismo cuando se lanzó por primera vez, es una fuente de información generalmente confiable porque está constantemente vigilada por ejércitos de expertos que se preocupan por hacer las cosas bien. A ChatGPT no le importa si la información que escupe es correcta. Es un truco de magia y las personas que de otro modo han encontrado que los servicios principales como Google y Wikipedia son precisos se encontrarán con un duro despertar. Porque a esta nueva generación de herramientas tecnológicas no les importa la verdad. Fueron diseñados para sonar impresionantes, no para ser precisos. Y los usuarios de Internet seguirán aprendiendo esa dura lección una y otra vez a medida que la IA se integre en numerosas tecnologías que usamos todos los días.
El peligro de la IA puede no estar en una tecnología que desarrolle voluntad propia. El verdadero peligro, al parecer, es que los humanos simplemente creerán cualquier cosa que digan las máquinas, sin importar cuán equivocado sea. ChatGPT no sabe que le está dando información inexacta. Por lo tanto, depende de nosotros verificar los hechos y preocuparnos por hacer las cosas bien.