Problema 2982

Samsung Electronics Co. está prohibiendo a los empleados el uso de herramientas generativas de IA populares como ChatGPT, Google Bard y Bing debido a problemas de seguridad, contratiempo a la difusión de dicha tecnología en el lugar de trabajo.
La compañía con sede en Suwon, Corea del Sur, notificó el lunes al personal de una de sus divisiones más grandes sobre la nueva política a través de un memorando revisado por Bloomberg. A la compañía le preocupa que los datos transmitidos a tales plataformas de inteligencia artificial se almacenen en servidores externos, lo que dificulta su recuperación y eliminación, y podría terminar siendo revelado a otros usuarios, según el documento.
"El interés en las plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente", dijo Samsung al personal. "Si bien este interés se centra en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa".
Samsung es solo la última gran empresa en expresar su preocupación por la tecnología. En febrero, solo un par de meses después de que el servicio de chatbot de OpenAI despertara un gran interés en la tecnología, [algunos bancos de Wall Street](https://www.bloomberg.com/news/articles/2023-02-24/citigroup -goldman-sachs-join-chatgpt-crackdown-fn-reports "Los bancos de Wall Street están tomando medidas enérgicas contra ChatGPT impulsado por IA (3)") incluido [JPMorgan Chase & Co.] (https://www.bloomberg.com/ quote/JPM:US "Haga clic para ver la página web"), Bank of America Corp. y Citigroup Inc. prohibido o restringido su uso. Italia también prohibió el uso de ChatGPT por temor a la privacidad, aunque revirtió su postura en los últimos días.
Un representante de Samsung se negó a comentar.
Leer más: [El director ejecutivo de IBM ve el 30 % de los trabajos administrativos reemplazados por IA en cinco años](https://www.bloomberg.com/news/articles/2023-05-01/ibm-to-pause-hiring- for-back-office-jobs-that-ai-could-kill "El CEO de IBM ve el 30 % de los trabajos de back-office reemplazados por IA en 5 años")
Las nuevas reglas de Samsung prohíben el uso de sistemas de inteligencia artificial generativa en computadoras, tabletas y teléfonos propiedad de la empresa, así como en sus redes internas. No afectan los dispositivos de la empresa que se venden a los consumidores, como los teléfonos inteligentes con Android y las computadoras portátiles con Windows.
Samsung pidió a los empleados que usan ChatGPT y otras herramientas en dispositivos personales que no envíen ninguna información relacionada con la empresa ni datos personales que puedan revelar su propiedad intelectual. Advirtió que romper las nuevas políticas podría resultar en el despido.
"Le pedimos que se adhiera diligentemente a nuestra guía de seguridad y, de no hacerlo, puede resultar en una violación o compromiso de la información de la compañía que resulte en una acción disciplinaria que puede incluir el despido", dijo Samsung en el memorando.
La compañía realizó una encuesta el mes pasado sobre el uso interno de herramientas de inteligencia artificial y dijo que el 65% de los encuestados cree que dichos servicios representan un riesgo para la seguridad. A principios de abril, los ingenieros de Samsung filtraron accidentalmente el código fuente interno al subirlo a ChatGPT, según el memorando.
"La sede está revisando las medidas de seguridad para crear un entorno seguro para el uso seguro de la IA generativa para mejorar la productividad y la eficiencia de los empleados", dice el memorando. "Sin embargo, hasta que se preparen estas medidas, estamos restringiendo temporalmente el uso de la IA generativa".
Mientras tanto, la empresa está creando sus propias herramientas internas de inteligencia artificial para traducir y resumir documentos, así como para el desarrollo de software. También está trabajando en formas de bloquear la carga de información confidencial de la empresa a servicios externos. El mes pasado, ChatGPT agregó un modo de "incógnito" que permite a los usuarios bloquear sus chats para que no se utilicen en el entrenamiento del modelo de IA.