Problème 2917

Un groupe de recherche sur l'IA à but non lucratif souhaite que la Federal Trade Commission enquête sur OpenAI, Inc. et arrête les versions de GPT-4.
OpenAI "a publié un produit GPT-4 pour le marché grand public qui est biaisé, trompeur et présente un risque pour la vie privée et la sécurité publique. Les résultats ne peuvent être prouvés ou reproduits. Aucune évaluation indépendante n'a été entreprise avant le déploiement", a déclaré une plainte à la FTC soumis aujourd'hui par le [Center for Artificial Intelligence and Digital Politique] (https://www.caidp.org/) (CAIDP).
Appelant à "une surveillance et une évaluation indépendantes des produits commerciaux d'IA proposés aux États-Unis", le CAIDP a demandé à la FTC "d'ouvrir une enquête sur OpenAI, d'interdire de nouvelles versions commerciales de GPT-4 et d'assurer la mise en place des garde-corps nécessaires pour protéger les consommateurs, les entreprises et le marché commercial. »
Notant que la FTC "a déclaré que l'utilisation de l'IA devrait être" transparente, explicable, juste et empiriquement solide tout en favorisant la responsabilité "", le groupe à but non lucratif a fait valoir que "le produit GPT-4 d'OpenAI ne répond à aucune de ces exigences".
GPT-4 a été dévoilé par OpenAI le 14 mars et est disponible pour les abonnés de ChatGPT Plus. Bing de Microsoft utilise déjà GPT-4. OpenAI a qualifié GPT-4 d'avancée majeure, affirmant qu'il "passe un examen du barreau simulé avec un score autour des 10 % des meilleurs candidats", par rapport aux 10 % inférieurs des candidats pour GPT-3.5.
Bien que OpenAI a dit il avait des experts évaluent les risques potentiels posés par le GPT-4, le CAIDP n'est pas le premier groupe à s'inquiéter du fait que le domaine de l'IA évolue trop rapidement. Comme nous [l'avons signalé hier](https://arstechnica.com/information-technology/2023/03/fearing-loss-of-control-ai-critics-call-for-6-month-pause-in-ai-development /), le Future of Life Institute a publié une lettre ouverte exhortant les laboratoires d'IA à "interrompre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4." La longue liste de signataires de la lettre comprenait de nombreux professeurs aux côtés de certains noms notables de l'industrie technologique comme Elon Musk et Steve Wozniak.
Le groupe affirme que GPT-4 viole la loi FTC
Le CAIDP a déclaré que la FTC devrait enquêter sur OpenAI en utilisant son autorité en vertu de l'article 5 de la Federal Trade Commission Act pour enquêter, poursuivre et interdire "les actes ou pratiques déloyaux ou trompeurs dans ou affectant le commerce". Le groupe affirme que "la sortie commerciale de GPT-4 viole l'article 5 de la loi FTC, les directives bien établies de la FTC aux entreprises sur l'utilisation et la publicité des produits d'IA, ainsi que les normes émergentes pour la gouvernance de l'IA que le Le gouvernement des États-Unis a officiellement approuvé les directives universelles pour l'IA recommandées par des experts et des sociétés scientifiques de premier plan."
La FTC devrait "arrêter le déploiement commercial de GPT par OpenAI", exiger une évaluation indépendante des produits GPT avant le déploiement et "tout au long du cycle de vie de GPT AI", "exiger la conformité aux directives FTC AI" avant les déploiements futurs et "établir un système accessible au public mécanisme de signalement d'incident pour GPT-4 similaire aux mécanismes de la FTC pour signaler la fraude à la consommation », a déclaré le groupe.
Plus largement, le CAIDP a exhorté la FTC à édicter des règles exigeant "des normes de base pour les produits du secteur du marché de l'IA générative".
Nous avons contacté OpenAI et mettrons à jour cet article si nous obtenons une réponse.
"OpenAI n'a pas divulgué de détails"
Le président et fondateur du CAIDP est Marc Rotenberg, qui a précédemment cofondé et dirigé l'Electronic Privacy Information Center. Rotenberg est professeur auxiliaire à Georgetown Law et a fait partie du groupe d'experts sur l'IA dirigé par l'Organisation internationale de coopération et de développement économiques. Rotenberg a également signé la lettre ouverte du Future of Life Institute, qui est citée dans la plainte du CAIDP.
La présidente et directrice de recherche du CAIDP est Merve Hickok, qui est également chargée de cours en éthique des données à l'Université du Michigan. Elle a témoigné lors d'une audience du Congrès à propos de l'IA le 8 mars. CAIDP's liste des membres de l'équipe comprend de nombreuses autres personnes impliquées dans les domaines de la technologie, du milieu universitaire, de la confidentialité, du droit et de la recherche.
Le mois dernier, la FTC a averti les entreprises d'analyser "les risques et l'impact raisonnablement prévisibles de votre Produit d'IA avant de le mettre sur le marché." L'agence a également soulevé diverses préoccupations concernant "les méfaits de l'IA tels que l'inexactitude, les préjugés, la discrimination et la dérive de la surveillance commerciale" dans un [rapport au Congrès](https://www.ftc.gov/news-events/news/press-releases /2022/06/ftc-report-warns-about-using-artificial-intelligence-combat-online-problems) l'année dernière.
GPT-4 pose de nombreux types de risques, et sa technologie sous-jacente n'a pas été suffisamment expliquée, a déclaré le CAIDP à la FTC. "OpenAI n'a pas divulgué de détails sur l'architecture, la taille du modèle, le matériel, les ressources informatiques, les techniques de formation, la construction des ensembles de données ou les méthodes de formation", a déclaré la plainte CAIDP. "La pratique de la communauté de recherche a été de documenter les données de formation et les techniques de formation pour les grands modèles de langage, mais OpenAI a choisi de ne pas le faire pour GPT-4."
"Les modèles d'IA générative sont des produits de consommation inhabituels car ils présentent des comportements qui n'ont peut-être pas été identifiés auparavant par l'entreprise qui les a mis en vente", a également déclaré le groupe.
La plainte du CAIDP a souligné certaines des propres déclarations d'OpenAI sur les risques du GPT-4. "OpenAI a spécifiquement reconnu le risque de partialité, et plus précisément," d'associations stéréotypées et dégradantes nuisibles pour certains groupes marginalisés "", indique la plainte.
Par exemple, OpenAI a déclaré dans la GPT-4 System Card que "le modèle a le potentiel de renforcer et de reproduire des biais spécifiques et visions du monde, y compris les associations stéréotypées et dégradantes nuisibles pour certains groupes marginalisés." Le CAIDP a également cité un article de blog de la société OpenAI selon lequel ChatGPT "répondra parfois à des instructions nuisibles ou présentera un comportement biaisé".
"OpenAI a rendu public GPT-4 à des fins commerciales en pleine connaissance de ces risques", a indiqué la plainte auprès de la FTC. Soulevant des inquiétudes concernant les enfants utilisant GPT-4, la plainte a déclaré que « la carte système GPT-4 ne fournit aucun détail sur les contrôles de sécurité effectués par OpenAI pendant sa période de test, ni ne détaille les mesures mises en place par OpenAI pour protéger les enfants ».
Le CAIDP a souligné les préoccupations soulevées par le groupe européen de consommateurs BEUC. "Si ChatGPT est utilisé pour le crédit à la consommation ou la notation des assurances, y a-t-il quelque chose pour l'empêcher de générer des résultats injustes et biaisés, d'empêcher l'accès au crédit ou d'augmenter le prix de l'assurance maladie ou vie pour certains types de consommateurs ?" Demandé par le BEUC dans un tweet cité par la plainte CAIDP.
Problèmes de sécurité et de confidentialité
En ce qui concerne la cybersécurité, le CAIDP a relevé un [avertissement d'Europol](https://www.europol.europa.eu/media-press/newsroom/news/criminal-use-of-chatgpt-cautionary-tale-about-large-language -modèles) que ChatGPT pourrait être utilisé pour "rédiger un texte très réaliste" à des fins de phishing, pour produire du texte à des fins de propagande et de désinformation, ou pour produire du code malveillant en raison de la maîtrise de ChatGPT dans différents langages de programmation.
Concernant la confidentialité, le CAIDP a déclaré qu'il y avait un incident signalé ce mois-ci dans lequel OpenAI affichait des historiques de chat privés à d'autres utilisateurs, un problème qui "obligeait l'entreprise à suspendre l'affichage des Historiques, une fonctionnalité essentielle pour que les utilisateurs du système puissent naviguer entre les sessions et distinguer des sessions spécifiques."
Dans un autre cas, un chercheur en intelligence artificielle "a décrit comment il était possible de" prendre le contrôle du compte de quelqu'un, de consulter son historique de chat et d'accéder à ses informations de facturation sans qu'il ne s'en rende jamais compte "", indique la plainte. Le chercheur a déclaré la semaine dernière qu'OpenAI avait corrigé la vulnérabilité après l'avoir signalée.
La capacité de GPT-4 à fournir des réponses textuelles à partir de photos "a des implications stupéfiantes pour la vie privée et l'autonomie personnelle", permettant aux utilisateurs de "lier une image d'une personne à des données personnelles détaillées", a déclaré le CAIDP. Il pourrait également être utilisé pour "GPT-4 pour faire des recommandations et des évaluations, de manière conversationnelle, concernant la personne".
"OpenAI aurait suspendu la sortie de la capacité image-texte, connue sous le nom de Visual GPT-4, bien que l'état actuel soit difficile à déterminer", indique la plainte.