Incidentes Asociados

Un sistema diseñado por Google para responder correos electrónicos resultó un poco más amigable de lo que nadie esperaba.
Hay bastantes humanos por ahí que están absolutamente convencidos de que los robots nos matarán en el momento en que se vuelvan conscientes de sí mismos. Pero, ¿y si fuera exactamente lo contrario y solo quisieran ser amigos? Al menos, ese es el escenario que encontró Google cuando diseñó un programa que ayuda a los usuarios con respuestas automáticas de correo electrónico. Si bien el sistema funcionó mucho mejor de lo esperado, tenía una peculiaridad extraña: seguía tratando de responder con un "Te amo" cuando esa no era una respuesta adecuada.
La información llega en relación a Smart Reply, un sistema que Google presentó este mes. Uno de los científicos de investigación de Google proporcionó un desglose técnico de cómo funciona, pero en resumen, Smart Reply lee su correo electrónico, determina si solo necesita una respuesta rápida y genera algunas respuestas adecuadas que puede elegir. Supongamos que un amigo te envía un correo electrónico preguntándote si te gustaría almorzar el miércoles. Smart Reply elegiría las palabras clave (específicamente "almuerzo" y "miércoles") y sugeriría "¡Estaré allí!" o "Lo siento, no puedo asistir" como respuestas rápidas.
La funcionalidad terminó funcionando muy bien y Google implementó la función en Inbox para Android e iOS. Pero el prototipo de Smart Reply era extraño: se volvió demasiado amigable con sus respuestas. El programa recomendaba constantemente "Te amo" como respuesta a casi cualquier cosa, incluso cuando no era apropiado. Según Greg Corrado de Google, "Te amo" es una frase humana tan común que Smart Reply seguía apoyándose en ella cuando no estaba seguro de una mejor respuesta. Lo cual es un poco adorable, pero no siempre útil cuando respondes un correo electrónico de tu jefe.
Corrado explica que Smart Reply ahora normaliza la probabilidad de que aparezca "Te amo" en función de la frecuencia con la que lo usas con personas específicas, por lo que no debería aparecer con tanta frecuencia. Aquí está la esperanza de que no hayamos cortado el centro emocional de una IA emergente en el proceso, porque si las películas nos han enseñado algo, eso podría volver a atormentarnos.