Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2982

Loading...
Samsung interdit l'utilisation de l'IA générative par le personnel après une fuite de données ChatGPT
bloomberg.com · 2023

Samsung Electronics Co. interdit à ses employés l'utilisation d'outils d'IA générative populaires tels que ChatGPT, Google Bard et Bing en raison de problèmes de sécurité. revers à la diffusion de cette technologie sur le lieu de travail.

La société basée à Suwon, en Corée du Sud, a informé lundi le personnel de l'une de ses plus grandes divisions de la nouvelle politique via une note examinée par Bloomberg. La société craint que les données transmises à ces plates-formes d'intelligence artificielle ne soient stockées sur des serveurs externes, ce qui les rend difficiles à récupérer et à supprimer, et pourraient finir par être divulguées à d'autres utilisateurs, selon le document.

"L'intérêt pour les plates-formes d'IA génératives telles que ChatGPT a augmenté en interne et en externe", a déclaré Samsung au personnel. "Bien que cet intérêt se concentre sur l'utilité et l'efficacité de ces plates-formes, il existe également des inquiétudes croissantes concernant les risques de sécurité présentés par l'IA générative."

Samsung n'est que la dernière grande entreprise à s'inquiéter de la technologie. En février, quelques mois seulement après que le service de chatbot d'OpenAI a suscité une tempête d'intérêt pour la technologie, [certaines banques de Wall Street](https://www.bloomberg.com/news/articles/2023-02-24/citigroup -goldman-sachs-join-chatgpt-crackdown-fn-reports "Wall Street Banks Are Cracking Down on AI-Powered ChatGPT (3)") y compris [JPMorgan Chase & Co.](https://www.bloomberg.com/ quote/JPM:US "Cliquez pour afficher la page Web."), Bank of America Corp. et Citigroup Inc.  soit interdit, soit restreint son utilisation. L'Italie a également interdit l'utilisation de ChatGPT par crainte de confidentialité, bien qu'elle ait inversé sa position ces derniers jours.

Un représentant de Samsung a refusé de commenter.

En savoir plus : [Le PDG d'IBM voit 30 % des emplois de back-office remplacés par l'IA en cinq ans](https://www.bloomberg.com/news/articles/2023-05-01/ibm-to-pause-hiring- for-back-office-jobs-that-ai-could-kill "Le PDG d'IBM voit 30 % des emplois de back-office remplacés par l'IA en 5 ans")

Les nouvelles règles de Samsung interdisent l'utilisation de systèmes d'IA générative sur les ordinateurs, tablettes et téléphones appartenant à l'entreprise, ainsi que sur ses réseaux internes. Ils n'affectent pas les appareils de l'entreprise vendus aux consommateurs, tels que les smartphones Android et les ordinateurs portables Windows.

Samsung a demandé aux employés qui utilisent ChatGPT et d'autres outils sur des appareils personnels de ne pas soumettre d'informations relatives à l'entreprise ou de données personnelles qui pourraient révéler sa propriété intellectuelle. Il a averti que la violation des nouvelles politiques pourrait entraîner un licenciement.

"Nous vous demandons de respecter scrupuleusement nos directives de sécurité et le non-respect de cette consigne peut entraîner une violation ou une compromission des informations de l'entreprise entraînant des mesures disciplinaires pouvant aller jusqu'au licenciement", a déclaré Samsung dans le mémo.

La société a mené une enquête le mois dernier sur l'utilisation des outils d'IA en interne et a déclaré que 65 % des personnes interrogées pensent que ces services présentent un risque pour la sécurité. Plus tôt en avril, les ingénieurs de Samsung ont accidentellement divulgué le code source interne en le téléchargeant sur ChatGPT, indique le mémo.

"Le siège examine les mesures de sécurité pour créer un environnement sécurisé permettant d'utiliser en toute sécurité l'IA générative afin d'améliorer la productivité et l'efficacité des employés", indique le mémo. "Cependant, jusqu'à ce que ces mesures soient préparées, nous restreignons temporairement l'utilisation de l'IA générative."

En attendant, l'entreprise crée ses propres outils d'IA internes pour la traduction et la synthèse de documents ainsi que pour le développement de logiciels. Il travaille également sur les moyens de bloquer le téléchargement d'informations sensibles sur l'entreprise vers des services externes. Le mois dernier, ChatGPT a ajouté un mode "incognito" qui permet aux utilisateurs d'empêcher l'utilisation de leurs chats pour la formation de modèles d'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65