Malgré les puissantes capacités de ChatGPT, de nombreuses grandes entreprises interdisent à leurs employés de l’utiliser.
Samsung a interdit l’utilisation de ChatGPT en mai 2023. Puis, en juin 2023, des organisations comme Amazon et Apple ont fait de même.
Les employés de certaines organisations gouvernementales, de cabinets d’avocats et d’hôpitaux ne sont pas non plus autorisés à utiliser ChatGPT.
Pourquoi donc de plus en plus d‘entreprises interdisent-elles l’utilisation de ChatGPT ? Voici les quatre raisons principales.
Quelles sont les raisons de l’interdiction de ChatGPT dans certaines entreprises ?
- Les problèmes de violation de données
Pour que ChatGPT fonctionne et s’entraîne correctement, il lui faut des données. D’énormes volumes de données provenant d’Internet ont été utilisés pour le former, et cette formation est toujours en cours.
Toutes les données que vous lui fournissez, y compris les informations privées sur les clients, les secrets commerciaux et les informations sensibles, sont susceptibles d’être examinées par ses formateurs. Ces données peuvent par la suite être utilisées pour améliorer le système.
Les réglementations relatives à la protection des données sont très strictes et s’appliquent à de nombreuses entreprises. Par conséquent, elles hésitent à divulguer des informations personnelles à des tiers, cette opération augmentant le risque de fuites de données.

OpenAI ne garantit pas la confidentialité des données à 100 %.
En mars 2023, l’entreprise a reconnu l’existence d’une faille qui permettait à certains utilisateurs de voir les titres des discussions dans l’historique d’autres utilisateurs actifs.
OpenAI a depuis corrigé cette faille, mais ne garantit pas la sécurité et la confidentialité des données des utilisateurs.
Afin d’éviter les fuites de données, qui peuvent nuire à leur réputation, entraîner des pertes financières et mettre en danger leurs clients et leurs employés, de nombreuses entreprises choisissent d’interdire à leurs employés d’utiliser ChatGPT.
- Les menaces pour la sécurité interne
Bien que l’on ne sache pas si ChatGPT est réellement vulnérable aux menaces de cybersécurité, il est probable que son utilisation au sein d’une organisation entraîne des faiblesses potentielles dont les hackers peuvent tirer parti.
Si une entreprise intègre ChatGPT et que la sécurité du chatbot est défaillante, les attaquants peuvent être en mesure de tirer parti de cette faiblesse et d’introduire des programmes malveillants.
À noter également : la capacité de ChatGPT à produire des réponses semblables à celles des humains en fait une véritable mine d’or pour les auteurs de phishing, qui peuvent détourner un compte ou se faire passer pour de vraies organisations afin d’inciter les membres du personnel à divulguer des données critiques.
- La création de Chatbots internes
Malgré ses fonctionnalités de pointe, ChatGPT peut générer des données inexactes et trompeuses. C’est pourquoi de nombreuses entreprises ont développé des chatbots d’IA internes.
La Commonwealth Bank australienne a par exemple demandé à son personnel d’utiliser Gen.ai, un chatbot d’intelligence artificielle (IA) qui utilise les données de la CommBank pour générer des réponses.

Des modèles avancés ont été créés par des organisations telles que Samsung et Amazon, permettant aux entreprises de concevoir et de déployer rapidement et facilement des chatbots personnalisés.
Elles peuvent ainsi éviter les effets négatifs d’un traitement inapproprié des données en utilisant ces chatbots internes, et profiter d’une efficacité accrue.
- Une utilisation imprudente par les employés
De nombreuses entreprises ont des employés qui se contentent de fournir du contenu et de faire leur travail en utilisant les réponses de ChatGPT. Cela encourage la complaisance au travail et étouffe l’innovation et l’originalité.
Cette dépendance peut nuire à la capacité de réflexion critique. ChatGPT produit souvent des statistiques fausses et peu fiables, il peut donc nuire à la réputation d’une entreprise.
Bien qu’il soit un outil utile, son utilisation pour répondre à des questions compliquées nécessitant des connaissances spécialisées peut nuire à la productivité d’une entreprise.
Certains membres du personnel peuvent supposer que ses réponses sont justes et précises, sans même penser à les vérifier et les confirmer.
Les entreprises interdisent donc son utilisation afin de réduire les problèmes de ce type, de sorte que les employés puissent se concentrer sur leur travail et fournir des réponses exemptes d’erreurs.
Le mot de la fin
Les entreprises qui interdisent l’utilisation de ChatGPT mettent en avant des problèmes de cybersécurité, de moralité des employés et de conformité réglementaire.
L’incapacité de ChatGPT à résoudre ces problèmes tout en offrant des solutions commerciales démontre ses limites et souligne la nécessité d’un développement supplémentaire.
Pour éviter les violations potentielles de données les entreprises passent à d’autres chatbots ou interdisent tout simplement à leurs employés d’utiliser ChatGPT.
C’est déjà la fin de cet article. Vous voulez en apprendre davantage sur l’intelligence artificielle ? Consultez nos actualités et nos guides pour vous familiariser avec cette technologie d’avenir.