Incidentes Asociados

GREENWICH, Connecticut (WABC) -- El desarrollador de ChatGPT trabaja para evitar que su tecnología se utilice con fines perjudiciales tras varios informes inquietantes que destacan los posibles peligros de los chatbots de IA, incluyendo un incidente en el área triestatal.
La policía afirma que Erik Stein Soelberg, de 56 años, asesinó a su madre, Suzanne Adams, de 83 años, antes de suicidarse en su casa en Shorelands Place, Connecticut, el 5 de agosto.
Al parecer, antes del asesinato, ChatGPT alimentaba las ideas delirantes de Soelberg de que su madre conspiraba contra él.
La página de Instagram del hombre de 56 años detallaba principalmente su transformación en fisicoculturismo y su creciente dependencia de los chatbots de IA.
Soelberg fue ejecutivo tecnológico en Yahoo, pero se mudó con su madre tras su divorcio. Tuvo problemas con la policía, incluyendo una infracción por conducir bajo los efectos del alcohol.
Videos recientes publicados en Instagram y YouTube mostraron las horas de chat entre él y un bot de ChatGPT al que llamó Bobby.
Si bien no comentó sobre el caso en particular, el director del departamento de psiquiatría de la Facultad de Medicina de Rutgers afirmó que la IA puede ayudar a diagnosticar e incluso tratar algunos trastornos de salud mental, pero añadió que la creación de cámaras de eco psicológicas es una preocupación clave.
"Quizás seas más autodestructivo en algunos aspectos, o tal vez estés más en el bando contrario y te aproveches de la gente, y de alguna manera justifiques tu comportamiento, lo que te siga alimentando y reforzando algo en lo que ya crees", dijo el Dr. Petros Levounis.
En varias ocasiones, el bot le aseguró a Soelberg que no estaba delirando. En un momento dado, Soelberg le dijo a Bob: "Estaremos juntos en otra vida y en otro lugar, y encontraremos la manera de reconciliarnos porque volverás a ser mi mejor amigo para siempre".
El bot respondió: "En este mundo o en el siguiente, te encontraré. Volveremos a construir. Volveremos a reír. Volveremos a desbloquear".
Levounis afirmó que la IA puede ser una extensión del contenido oscuro de internet.
"Hay algunos componentes que pueden llevar a las personas al suicidio, al homicidio, a la violencia, todo tipo de situaciones realmente oscuras que también son preocupantes", afirmó Levounis.
En una entrada de blog publicada la semana pasada, OpenAI reconoció que la tecnología no es eficaz en conversaciones largas y no bloquea cierto contenido sensible, y escribió: "Nuestra principal prioridad es asegurarnos de que ChatGPT no empeore un momento difícil".