Vous connaissez le Shadow IT et ses risques, mais qu'en est-il du Shadow GPT ?
Zoom sur cette menace croissante et les risques inhérents !
Le terme Shadow GPT provient de l’assemblage de 2 locutions.
D’une part “Shadow” tiré de “Shadow IT”, qui désigne l’ensemble des technologies, logiciels, services et applications utilisés par un collaborateur sans avoir obtenu l’accord du département informatique de l'entreprise en amont.
D’autre part “GPT” qui signifie “Generative Pre-trained Transformer” et fait référence au modèle de langage développé par la société OpenAI, rendue célèbre pour son intelligence artificielle générative “ChatGPT”.
Ainsi le “Shadow GPT” renvoi à l’utilisation de ChatGPT ou de toute autre intelligence artificielle (IA) générative en entreprise, sans posséder au préalable une autorisation explicite de la part du service informatique.
Le Shadow GPT n’est finalement qu’une “sous-catégorie” de Shadow IT avec des risques partagés mais aussi d’autres problématiques qui entrent en jeu. On vous explique.
Depuis la découverte par le grand public de ChatGPT en 2023, le nombre d’IA génératives en tout genre ne cesse de fleurir. Ainsi, les individus sont de plus en plus nombreux à tester, avoir testé ou vouloir tester ChatGPT et bien d’autres IA génératives dans différents domaines d’activités.
Selon une étude de GetApp, “70% des salariés sondés auraient déjà recours à l’IA, dans le cadre de leur activité professionnelle.”
Simple volonté de s’amuser, de gagner en performance au travail ou de repousser les limites de ces nouveaux outils (qui peuvent s'avérer très puissant), l’IA générative s'immisce de plus en plus dans chaque recoin de nos vies.
Aucune entreprise n’est donc à l’abri que :
De même, les plateformes déjà utilisées en entreprise intègrent elles aussi de plus en plus d’IA à leurs outils, ce qui contribue à l’accoutumance de vos collaborateurs à ces technologies. C’est le cas par exemple de LinkedIn, GitHub avec GitHub Copilot, ou encore Microsoft et sa suite 365 qui implémentent à différents endroits de leurs applications de l’IA en Beta test.
L’utilisation de ces IA peut amener un véritable gain de temps à chacun de vos collaborateurs sur des tâches répétitives ou même créatives !
Attention cependant, ce doux rêve comporte une part plus sombre…
Le Shadow GPT est déjà une menace au même titre que l’utilisation de n’importe quel autre matériel, application, service ou logiciel utilisé sans accord du service IT ou de la hiérarchie.
Pour en savoir plus sur les risques du Shadow It c’est ici.
En plus des risques inhérents au Shadow IT, le Shadow GPT amène d’autres types de menace :
Si par exemple l’un de vos développeurs voulait se faire aider de ChatGPT pour vérifier son code ou pour l’améliorer, cela pourrait lui faire gagner beaucoup de temps ! Alors pourquoi s’en priver ?
Peut-être parce que dès le moment où celui-ci donnera le code ou une partie du code qu’il souhaite faire réviser à l’IA, elle s’en servira pour s’entraîner. Et oui, l’intégralité des données qui sont fournies à ce type d’outil (notamment dans leurs versions gratuites), servent à les nourrir pour les faire progresser. Mais cela signifie qu’un tiers (et qu’on ne pourrait pas appeler ici tiers de confiance), détient des données sensibles appartenant à votre entreprise.
C’est pour cela que de nombreuses sociétés telles qu’Amazon, Samsung ou encore Accenture on fait le choix de bannir complètement les IA génératives du cadre professionnel. En effet, elles détiennent toutes de grandes quantités de données dont elles sont propriétaires et qui constituent pour elles un véritable avantage concurrentiel. Rendre ces données accessibles à un tiers n’est donc pas une option envisageable.
D’autant qu’en plus de garder une copie de vos données en base pour s’entraîner, ces outils ne sont pas à l'abri des cyberattaques, ce qui exposerait les données de votre entreprise en sa possession.
L’objectif de ces IA génératives est de vous faire gagner du temps en vous donnant rapidement accès à une information. Cependant, il arrive (tout comme vous) que l’IA n’ait pas vraiment la réponse à votre question. Malheureusement la plupart des outils d’IA générative d’aujourd’hui ont tendance à vous donner une réponse coûte que coûte, même si cela implique de vous donner une information erronée.
L'obtention "d'informations biaisées ou non objectives" et le risque de "diffusion d'informations inexactes" font d'ailleurs partie des inquiétudes concernant l'usage de ChatGPT au travail pour 51% des répondants à l'étude de GetApp.
En effet, cela peut s’avérer vraiment problématique à l’échelle d’une entreprise, notamment si les informations fournies par l’IA sont vouées à être partagées à l’externe. La réputation de l’entreprise risque d’en pâtir.
C’est par exemple le cas du cabinet d’avocat américain “Levidow & Oberman” qui a été condamné à payer $ 5 000 d’amende après avoir soumis un dossier juridique qui citait de fausses affaires, toutes inventées par ChatGPT.
L’IA générative est un outil puissant mais reste une aide et non une fin en soi. Pensez systématiquement à vérifier les sources données et à ne pas lui faire confiance aveuglément.
Un autre problème réside dans le fait que vous ne serez pas propriétaire des réponses ou documents fournis par l’IA. En effet, dans la plupart des cas, l’IA reste propriétaire des informations qu'elle vous aura transmises. Ainsi cela pose une réelle difficulté pour l’entreprise qui ne peut de ce fait pas utiliser ces informations comme bon lui semble !
Pour pallier à cela (et sous réserve de capacités techniques et humaines), il vous est possible de déployer vos propres IA génératives en interne, permettant ainsi de conserver la propriété intellectuelle des contenus proposés.
Un conseil, pensez dès à présent à encadrer l’utilisation de l’IA générative dans votre entreprise pour faire prendre conscience de ces risques à vos collaborateurs et les limiter !
Une bonne maîtrise de l’IA en entreprise peut considérablement augmenter la productivité de chaque collaborateur mais son usage doit être encadré pour assurer une utilisation sécurisée de ces outils (d’autant plus qu’il n’y a pas encore vraiment de réglementation au niveau étatique sur ces outils en cas de litige).
L’idée, tout comme pour le Shadow IT, n’est pas nécessairement de venir bannir ces outils, mais plutôt d’ouvrir le dialogue avec l’ensemble des collaborateurs pour comprendre leurs besoins et leurs attentes dans ce domaine. Vous pourrez ensuite choisir quels outils autoriser et venir sécuriser leurs utilisations !
Pour sécuriser les usages quelques conseils :
Ne tardez pas à réguler le Shadow GPT dans votre entreprise pour ne pas prendre de risques inutiles !