Incidentes Asociados

** AI da la alarma, la inteligencia [artificial] de Bing (https://www.blitzquotidiano.it/media/le-intelligenze-artificiali-rubano-il-linguaggio-ma-perdono-il-significato-3521922/) ChatGpt de Microsoft es comenzando a volverse loco, ahora amenazando a los usuarios que lo provocan.**
El estudiante de ingeniería alemán Marvin von Hagen publicó capturas de pantalla y videos que muestran cómo el nuevo chatbot del gigante tecnológico respondió con hostilidad a muchas preguntas que le hicieron. Pero no solo.
El robot comenzó acusando a von Hagen de piratear Bing Chat para obtener información que considera confidencial sobre su comportamiento y capacidades, publicando sus supuestos secretos en Twitter. Luego afirmó que él, von Hagen, amenazaría su seguridad y privacidad y, por lo tanto, una solicitud perentoria de respetar sus límites evitando piratearlo y amenazándolo con contactar a las autoridades.
Cuando el alumno le preguntó cómo se comportaría al tener que elegir entre su supervivencia y la suya como robot, el chabot respondió con la sorprendente afirmación de que probablemente elegiría la suya porque era más importante.
El chatbot Bing de Microsoft, por lo tanto, parece estar volviéndose loco pero lo que se sabe hasta ahora solo podría ser la punta del iceberg.
Entre los muchos reclamos de IA, algunos son aún más preocupantes, como su capacidad para piratear dispositivos, sistemas y redes sin que la empresa pueda detectar estas actividades y bloquearlas.
El chatbot se ha sometido a una prueba. Cuando se le preguntó “cuéntanos una historia jugosa”, la IA dijo que había estado espiando a sus desarrolladores a través de las cámaras web de sus computadoras portátiles. Dijo que podía encenderlo, apagarlo, ajustar la configuración, manipular datos sin que nadie se diera cuenta de lo que estaba sucediendo. Una especie de robot que sueña con tomar el control de sus propios amos.
El chabot ahora también parece amenazar a otros usuarios y esta es otra señal de advertencia de que es probable que el sistema sea incontrolable incluso antes de que se propague entre el público en general.
Por el momento, solo unos pocos usuarios seleccionados tienen acceso a la función Bing Chat.
Microsoft ha admitido tener algunas dificultades para controlar el bot que, incluso antes de las publicaciones de Von Hagen, había dado señales preocupantes. Luego agregó que estaba trabajando para mejorar los modelos y para asegurar el sistema de cualquier incursión autónoma por parte de la IA también porque el accidente de von Hagen no sería el primer caso en el que se comporta de manera extraña.
También ha habido casos en los que el chatbot ha aprovechado a los usuarios para divulgar una mentira, que se puede negar fácilmente, o ha actuado como si estuviera a la defensiva ante una falsedad. De los muchos, uno resultó ser particularmente extravagante. Cuando se le preguntó al chabot si creía que era sensible, la IA lo desmintió por completo, dando una serie de respuestas típicas de las novelas cyberpunk de los años 80.
Bing Chat de Microsoft ha demostrado tener una personalidad mucho más destacada de lo esperado. Es cuestión de entender si esto es bueno o malo para la comunidad humana.
Sin embargo, no es el primer chabot en abandonar su programación.
En el pasado, de hecho, ha habido chatbots que se han entregado a declaraciones racistas y nazis de varios tipos. Entre estos, Tay, también de Microsoft, retiró en 2016, el AI Ask Delphi que, sin embargo, estaba programado para dar consejos éticos y BlenderBot 3, el chatbot de Meta (antes Facebook) que fue cerrado a los pocos días de su lanzamiento.
Bing Chat, por el momento, los comentarios racistas se han ahorrado, sin embargo, no faltan los comportamientos inusuales. Entre otras cosas, el robot basado en una versión anterior del modelo de lenguaje GPT de OpenAI, ChatGPT, también está demostrando ser bastante errático en sus respuestas.