Incidentes Asociados

Ahora que la IA generativa está más extendida que nunca, la importancia de la intervención humana se está volviendo más evidente. Apenas han pasado tres meses desde que Microsoft publicó [un artículo generado por IA recomendando el Banco de Alimentos de Ottawa como una de las principales atracciones turísticas de Canadá](https://www.windowscentral.com/microsoft/microsoft-retracts-bizarre-ai-generated-article -que-recomendó-el-banco-de-alimentos-de-ottawa-como-atracción-turística) (aunque desde entonces ha sido derribado), y ha ocurrido otro incidente extraño e insensible.
The Guardian acusa a Microsoft de manchar su reputación por incorporando una encuesta marcada "Perspectivas de la IA" junto a [un artículo del medio] (https://www.theguardian.com/australia-news/2023/oct/31/lilie-james-australia-sydney-school-coach -st-andrews-cathedral-death) hablando sobre el desafortunado fallecimiento de una mujer, según un anuncio de [The Verge](https://www.theverge.com/2023/10/31/23940298/ai-generated- poll-guardian-microsoft-start-news-aggregation). La encuesta presentaba insensiblemente varias opciones, incluido asesinato, accidente o suicidio, entre las que se suponía que los lectores debían elegir para adivinar cómo perdió la vida la mujer.
Desde entonces, la insensible encuesta ha sido retirada, pero The Guardian indica que el daño ya está hecho, sin mencionar la agitación emocional causada a la afligida familia. A juzgar por los comentarios dejados en el artículo, es obvio que los lectores no estaban muy contentos con él. De hecho, algunos lectores creen que la encuesta insensible fue obra del propio autor y que el medio estaba señalando con el dedo a AI para encubrir sus huellas.
La directora ejecutiva de The Guardian Media Group, Anna Bateson, ya escribió una carta al presidente de Microsoft, Brad Smith, expresando su preocupación por la encuesta generada por IA que aparece en su artículo y expresando además el posible impacto negativo que podría tener en el medio.
Este es claramente un uso inapropiado de genAI [IA generativa] por parte de Microsoft en una historia de interés público potencialmente angustiosa, escrita y publicada originalmente por periodistas de The Guardian.
Anna Bateson, directora ejecutiva de Guardian
El director ejecutivo destacó la importancia de contar con un marco de derechos de autor sólido, ya que permite a los editores establecer control sobre cómo se aprovecha su contenido. Bateson también pidió a Microsoft que se abstuviera de aplicar tecnología experimental de inteligencia artificial en las historias del medio o junto a ellas, especialmente sin su consentimiento. Y en caso de que así sea, es importante asegurarse de que se notifique a los lectores de dónde provienen las "características adicionales".
Esta no es la primera vez que somos testigos de un hecho de este tipo. En septiembre, un artículo republicado a través de MSN se volvió viral por usar IA para escribir un obituario que [llamaba 'inútil' a un exjugador de la NBA de 42 años recientemente fallecido] (https://www.windowscentral.com/microsoft/controversy -estalla-el-portal-de-noticias-de-microsoft-publica-una-pieza-generada-por-ai-marca-un-jugador-de-la-nba-fallecido-como-inútil)
The Verge contactó a Microsoft para obtener una declaración sobre el extraño suceso y cómo la encuesta generada por IA obtuvo la aprobación del equipo de moderación. El director general de Microsoft, Kit Thambiratnam, respondió afirmando:
"Hemos desactivado las encuestas generadas por Microsoft para todos los artículos de noticias y estamos investigando la causa del contenido inapropiado. Una encuesta no debería haber aparecido junto a un artículo de esta naturaleza y estamos tomando medidas para ayudar a evitar que se produzca este tipo de error. que se repita en el futuro."
La IA tiene sus victorias, si [informes recientes](https://www.windowscentral.com/software-apps/chatgpts-performance-shifted-over-time-according-to-a-stanford-study-but-has-the -bot-gotten-peor) son datos válidos, aún queda mucho trabajo por hacer. También es evidente que la intervención humana sigue siendo crucial, especialmente en un caso así, y es muy poco probable que tal hecho hubiera ocurrido.
El presidente Biden emitió recientemente una Orden Ejecutiva tocando este tema específico problema, junto con otros problemas de seguridad y confianza de la IA. Será interesante ver el impacto que tiene a largo plazo.