Incidentes Asociados
Un padre hizo una pregunta en un grupo privado de Facebook en abril de 2024: ¿Alguien con un niño superdotado y discapacitado tiene alguna experiencia en las escuelas públicas de la ciudad de Nueva York? El padre recibió una respuesta aparentemente útil que establecía algunas características de una escuela específica, comenzando con el contexto de que "tengo un hijo que también es 2e", es decir, dos veces excepcional.
En un grupo de Facebook para intercambiar artículos no deseados cerca de Boston, un usuario que buscaba artículos específicos recibió una oferta de una cámara Canon "poco usada" y una "unidad de aire acondicionado portátil casi nueva que nunca terminé usando".
Ambas respuestas fueron mentiras. Ese niño no existe y tampoco la cámara ni el aire acondicionado. Las respuestas provinieron de un chatbot de inteligencia artificial.
Según una página de metaayuda, Meta AI responderá a una publicación en un grupo si alguien la etiqueta explícitamente o si alguien "hace una pregunta en una publicación". y nadie responde en una hora." La función aún no está disponible en todas las regiones ni para todos los grupos, según la página. Para los grupos donde está disponible, "los administradores pueden desactivarlo y volver a activarlo en cualquier momento".
Meta AI también se ha integrado en las funciones de búsqueda de Facebook e Instagram, y los usuarios no pueden desactivarla.
Como investigador que estudia ambas [comunidades en línea](https://theconversation.com/metas-threads-is- la creciente-pero-migración-masiva-desde-twitter-es-probable-que-siga-una-batalla-cuesta-arriba-209367) y [ética de la IA](https://theconversation.com/ai-has-social-consequences- pero-quién-paga-el-precio-las-compañías-de-tecnología-problema-con-deuda-ética-203375), considero que la idea de que chatbots no invitados respondan preguntas en grupos de Facebook es distópica por varias razones, empezando por el hecho que las comunidades en línea son para personas.
Conexiones humanas
En 1993, Howard Rheingold publicó el libro "The Virtual Community: Homesteading on the Electronic Frontier" sobre [el POZO](https://www. well.com/about-2/), una de las primeras y comunidad en línea culturalmente significativa. El primer capítulo se abre con una pregunta para padres: Qué hacer con una "cosa hinchada de sangre que chupa el cuero cabelludo de nuestro bebé".
Rheingold recibió una respuesta de alguien con conocimiento de primera mano sobre cómo tratar las garrapatas y resolvió el problema antes de recibir una llamada del consultorio del pediatra. Sobre esta experiencia, escribió: "Lo que me sorprendió no fue sólo la velocidad con la que obtuvimos precisamente la información que necesitábamos saber, justo cuando necesitábamos saberla. También fue la inmensa sensación interna de seguridad que surge al descubrir "Que personas reales, la mayoría de ellos padres, algunos enfermeros, médicos y parteras, estén disponibles, las 24 horas del día, si los necesitas".
Este aspecto de "personas reales" de las comunidades en línea sigue siendo fundamental hoy en día. Imagínese por qué podría plantear una pregunta a un grupo de Facebook en lugar de a un motor de búsqueda: porque desea una respuesta de alguien con una experiencia real y vivida o desea la respuesta humana que su pregunta podría provocar (simpatía, indignación, conmiseración) o ambos.
Décadas de investigación sugieren que el componente humano de las comunidades en línea es lo que las hace tan valiosas tanto para la búsqueda de información como para el apoyo social. Por ejemplo, los padres que de otro modo se sentirían incómodos al pedir consejos sobre paternidad han encontrado un refugio en [espacios privados en línea solo para papás](https://theconversation.com/how-new-fathers-use-social-media-to-make -sentido-de-sus-roles-100150). Los jóvenes LGBTQ+ a menudo se unen a comunidades en línea para encontrar recursos críticos de forma segura al mismo tiempo que reduce la sensación de aislamiento. Foros de apoyo a la salud mental [proporcionan a los jóvenes pertenencia y validación](https://theconversation.com/yes-online-communities-pose-risks-for-young-people-but-they-are-also-important-sources- of-support-158276) además de asesoramiento y apoyo social.
Las comunidades en línea son lugares de apoyo bien documentados para las personas LGBTQ+.
Además de hallazgos similares en mi propio laboratorio relacionados con participantes LGBTQ+ en comunidades en línea, así como [Black Twitter](https://doi.org/10.1145/ 3479602), dos estudios más recientes, aún no revisados por pares, han enfatizado la importancia de los aspectos humanos de la búsqueda de información en las comunidades en línea.
Uno, dirigido por el estudiante de doctorado Blakeley Payne, se centra en [las personas gordas](https://doi.org/10.1145 /3584931.3606987) experiencias en línea. Muchos de nuestros participantes encontraron un salvavidas en el acceso a una audiencia y una comunidad con experiencias similares mientras buscaban y compartían información sobre temas como navegar en sistemas de salud hostiles, encontrar ropa y lidiar con prejuicios y estereotipos culturales.
Otro, dirigido por la estudiante de doctorado Faye Kollig, descubrió que las personas que comparten contenido en línea sobre sus enfermedades crónicas son motivado por el sentido de comunidad que viene con las experiencias compartidas, así como los aspectos humanizadores de conectarse con otros para buscar y brindar apoyo e información.
gente falsa
Los beneficios más importantes de estos espacios en línea, tal como los describen nuestros participantes, podrían verse drásticamente socavados por respuestas provenientes de chatbots en lugar de personas.
Como diabético tipo 1, sigo varios grupos de Facebook relacionados que son frecuentados por muchos padres que se enfrentan recientemente a los desafíos del cuidado de un niño pequeño con diabetes. Las preguntas son frecuentes: "¿Qué significa esto?" "¿Cómo debería manejar esto?" "¿Cuales son tus experiencias con esto?" Las respuestas provienen de la experiencia de primera mano, pero también suelen venir con compasión: "Esto es difícil". "Estás haciendo lo mejor que puedes". Y por supuesto: "A todos nos ha pasado".
Una respuesta de un chatbot que afirmara hablar desde la experiencia vivida al cuidar a un niño diabético, ofreciendo empatía, no sólo sería inapropiada, sino que rozaría la crueldad.
Sin embargo, tiene mucho sentido que estos sean los tipos de respuestas que ofrecería un chatbot. Los modelos de lenguaje grandes, de manera simplista, funcionan de manera más similar al autocompletado que a los motores de búsqueda. Para un modelo entrenado en millones y millones de publicaciones y comentarios en grupos de Facebook, la respuesta "autocompletada" a una pregunta en una comunidad de apoyo es definitivamente una que invoca experiencia personal y ofrece empatía, al igual que la respuesta "autocompletada" en un El grupo de Facebook Buy Nothing podría ser para ofrecer a alguien una cámara en buen estado.
Meta ha implementado un asistente de inteligencia artificial en sus aplicaciones de mensajería y redes sociales.
Mantener a los chatbots en sus carriles
Esto no quiere decir que los chatbots no sean útiles para nada; incluso pueden ser bastante útiles en algunas comunidades en línea, en algunos contextos. El problema es que en medio de la actual avalancha generativa de IA, existe una tendencia a pensar que [los chatbots pueden y deben hacerlo todo](https://www.inc.com/sam-blum/the-real-reasons- por qué-los-chatbots-ai-han-proliferado-en-lugar-de-la-verdadera-innovación.html).
Hay muchas desventajas de [usar modelos de lenguaje grandes como sistemas de recuperación de información](https://theconversation.com/ai-information-retrieval-a-search-engine-researcher-explains-the-promise-and-peril-of -letting-chatgpt-and-its-cousins-search-the-web-for-you-200875), y estas desventajas apuntan a contextos inapropiados para su uso. Una desventaja es cuando la información incorrecta puede ser peligrosa: [una línea de ayuda para trastornos alimentarios](https://www.vice.com/en/article/qjvk97/eating-disorder-helpline-disables-chatbot-for-harmful-responses-after -firing-human-staff) o asesoramiento legal para pequeñas empresas , Por ejemplo.
Las investigaciones apuntan a consideraciones importantes sobre cómo y cuándo diseñar e implementar chatbots. Por ejemplo, un artículo publicado recientemente en una gran conferencia sobre interacción persona-computadora descubrió que, aunque las personas LGBTQ+ que carecían de apoyo social [a veces recurrían a chatbots](https://doi .org/10.1145/3613904.3642482) para ayudar con las necesidades de salud mental, esos chatbots con frecuencia no lograban captar los matices de los desafíos específicos de LGBTQ+.
Otro descubrió que, aunque un grupo de participantes autistas consideró valioso interactuar con un chatbot para obtener consejos sobre comunicación social, ese chatbot también estaba brindando consejos cuestionables. Y otro descubrió que, aunque un chatbot era útil como herramienta previa a la consulta en un contexto de salud, los pacientes a veces consideraban que las expresiones de empatía eran poco sinceras u ofensivas.
El desarrollo y la implementación responsable de la IA significa no solo auditar problemas como el sesgo y la desinformación, sino también tomarse el tiempo para comprender en qué contextos la IA es apropiada y deseable para los humanos que interactuarán con ellos. En este momento, muchas empresas están empuñando la IA generativa como un martillo y, como resultado, todo parece un clavo.
Es mejor dejar muchos contextos, como las comunidades de apoyo en línea, en manos de los humanos.