Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2936

Los temores fuera de lugar de un ChatGPT 'malvado' oscurecen el daño real que se está haciendo
theguardian.com · 2023

El 14 de febrero, Kevin Roose, columnista de tecnología del New York Times, mantuvo una conversación de dos horas con Bing, el motor de búsqueda mejorado con ChatGPT de Microsoft. Salió de la experiencia como un hombre aparentemente cambiado, porque el chatbot le había dicho, entre otras cosas, que le gustaría ser humano, que albergaba deseos destructivos y que estaba enamorado de él.

La transcripción de la conversación, junto con la aparición de Roose en el periódico [The Daily](https: //www.nytimes.com/2023/02/15/podcasts/the-daily/chat-gpt-microsoft-bing-artificial-intelligence.html) podcast, aumentó de inmediato el pánico moral que ya se estaba desatando sobre las implicaciones de los grandes modelos de lenguaje (LLM) como GPT-3.5 (que aparentemente respalda a Bing) y otras herramientas de "IA generativa" que ahora están sueltas en el mundo. Estos se ven de diversas formas como artefactos crónicamente poco confiables, como ejemplos de tecnología que está fuera de control o como precursores de la llamada inteligencia artificial general (AGI), es decir, inteligencia a nivel humano, y por lo tanto representan una [amenaza existencial] (https:/ /erikhoel.substack.com/p/i-am-bing-and-i-am-evil) a la humanidad.

Acompañando a esta histeria hay una nueva fiebre del oro, como los capitalistas y otros inversores se esfuerzan por entrar en acción. Parece que todo ese dinero está quemando agujeros en bolsillos muy profundos. Afortunadamente, esto tiene sus lados cómicos. Sugiere, por ejemplo, que los chatbots y los LLM han reemplazado a las criptomonedas y la web 3.0 como el próximo gran avance, lo que a su vez confirma que la industria de la tecnología colectivamente tiene la capacidad de atención de un tritón.

El resultado más probable es que los chatbots finalmente se vean como un aumento significativo de las capacidades humanas.

Sin embargo, lo más extraño de todo es que el pandemónium ha sido provocado por lo que uno de sus principales investigadores llamó [“loros estocásticos”] (https://dl.acm.org/doi/10.1145/3442188.3445922), por lo que ella significa que los chatbots con tecnología LLM son máquinas que predicen continuamente qué palabra es estadísticamente más probable que siga a la anterior. Y esto no es magia negra, sino un proceso computacional que se entiende bien y ha sido claramente descrito por el profesor Murray Shanahan y [diseccionado con elegancia](https://writings .stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/?s=09) del científico informático [Stephen Wolfram](https://www.theguardian.com /science/2014/jun/29/stephen-wolfram-textbook-never-interested-me-wolframalpha).

¿Cómo podemos darle sentido a toda esta locura? Un buen lugar para comenzar es alejar a las personas de su incurable deseo de interpretar las máquinas de manera antropocéntrica. Desde Eliza de Joe Weizenbaum, los humanos que interactúan con chatbots parecen querer humanizar la computadora. Esto era absurdo con Eliza, que simplemente estaba ejecutando un script escrito por su creador, por lo que tal vez sea comprensible que los humanos que ahora interactúan con ChatGPT, que aparentemente puede responder de manera inteligente a la entrada humana, caigan en la misma trampa. Pero sigue siendo tonto.

[

Todo lo que quería saber sobre la IA, pero tenía miedo de preguntar

](https://www.theguardian.com/technology/2023/feb/24/ai-artificial-intelligence-chatbots-to-deepfakes)

El cambio persistente de LLM como "IA" tampoco ayuda. Estas máquinas son ciertamente artificiales, pero considerarlas como “inteligentes” me parece que requiere una concepción bastante pobre de la inteligencia. Sin embargo, algunos observadores, como el filósofo Benjamin Bratton y el informático Blaise Agüera y Arcas, son menos desdeñosos. "Es posible", admiten, "que este tipo de IA sea 'inteligente', e incluso 'consciente' en de alguna manera, dependiendo de cómo se definan esos términos”, pero “ninguno de estos términos puede ser muy útil si se definen de manera fuertemente antropocéntrica”. Argumentan que deberíamos distinguir la sensibilidad de la inteligencia y la conciencia y que “la verdadera lección para la filosofía de la IA es que la realidad ha superado el lenguaje disponible para analizar lo que ya está disponible. Un vocabulario más preciso es esencial”.

Es. Sin embargo, por el momento, estamos atrapados en la histeria. Un año es mucho tiempo en esta industria. Recuerde, hace solo dos años, las próximas grandes cosas serían la criptografía/web 3.0 y la computación cuántica. El primero se ha derrumbado bajo el peso de su propio absurdo, mientras que el segundo, como la fusión nuclear, todavía está en el horizonte.

Con los chatbots y los LLM, el resultado más probable es que eventualmente serán vistos como un aumento significativo de las capacidades humanas (hojas de cálculo con esteroides, como dijo un cínico colega). Si eso sucede, entonces los principales beneficiarios (como en todas las fiebres del oro anteriores) serán los proveedores de picos y palas, que en este caso son los recursos de computación en la nube que necesita la tecnología LLM y que son propiedad de grandes corporaciones.

Dado eso, ¿no es interesante que lo único de lo que nadie habla en este momento es el impacto ambiental de la [gran cantidad de computación] (https://www.economist.com/business/2023/01/30/the -race-of-the-ai-labs-heats-up?utm_id=1504889) necesarios para entrenar y operar LLM? Un mundo que dependa de ellos podría ser bueno para los negocios, pero sin duda sería malo para el planeta. Tal vez eso es lo que Sam Altman, el CEO de OpenAI, el equipo que creó ChatGPT, tenía en mente cuando [observó](https://www.forbes.com/sites/nicolemartin1/2019/06/27/13-greatest- citas-sobre-el-futuro-de-la-inteligencia-artificial/?sh=4e6e99b83bdf) que "la IA probablemente conducirá al fin del mundo, pero mientras tanto, habrá grandes empresas".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 818b77a