IA générative grand public en entreprise : Quels risques ?

Dans cet article

Depuis les années 90, les outils informatiques que nous utilisons tous les jours sont devenus plus performants à notre domicile qu’en entreprise.

L’intelligence artificielle n’échappe pas à cette règle, et les solutions d’IA générative comme ChatGPT semblent résoudre un bon nombre de problèmes.

Leur puissance et leur facilité d’utilisation en font des outils très attractifs pour les employés, mais leur usage incontrôlé peut poser des défis aux entreprises en termes de sécurité et de fiabilité.

Les entreprises doivent-elles sauter le pas et utiliser des solutions IA grand public ? Quels sont les impacts d’une utilisation non contrôlée par les employés ?

Démocratisation de l’IA générative

Accessibilité croissante des robots conversationnels

Les progrès spectaculaires de l’IA ces dernières années ont mené à l’apparition d’outils grand public révolutionnaires, capables de générer du texte et du code de façon naturelle à partir de simples instructions en langage courant (prompts).

Des robots conversationnels comme ChatGPT d’OpenAI, Gemini de Google ou Caude d’Anthropic offrent de nombreuses capacités : rédaction, analyse de données, génération de code…

Leur simplicité d’utilisation démocratise l’usage de ces outils en entreprise. Tout le monde peut exploiter la puissance d’un Large Language Model (LLM) sans compétence technique.

Utilisation spontanée par les employés

Face à ces outils perçus comme magiques, capables de décupler la productivité et la créativité, de nombreux employés se mettent à utiliser des solutions d’IA générative pour leur travail quotidien, sans forcément en informer leur hiérarchie ou les équipes techniques.

Les collaborateurs voient ces outils comme un moyen d’automatiser des tâches chronophages (reporting, documentation…), d’obtenir des analyses de données, ou encore de stimuler leur créativité (brainstorming, rédaction).

Cet usage décentralisé et non maîtrisé par l’entreprise soulève cependant certains risques.

Risques et enjeux pour l’entreprise

Risques de sécurité

Les employés qui utilisent des solutions grand public pour leur travail exposent potentiellement des données sensibles de l’entreprise. Tout ce qui est saisi dans les prompts est traité et stocké par les fournisseurs du service, généralement dans le cloud, hors du contrôle de l’entreprise. Cela peut constituer une fuite de données si des informations confidentielles sont entrées par mégarde.

Il est aussi impossible de contrôler ce qu’un robot conversationnel comme ChatGPT pourrait générer à partir des éléments qu’on lui fournit. Un employé pourrait involontairement lui apprendre des informations sensibles sur l’entreprise, ses employés, ses clients ou ses projets, informations que le robot conversationnel pourrait ensuite exposer publiquement à d’autres utilisateurs posant des questions sur ces sujets.

Cas Samsung

En mai 2023, Samsung autorisait l’accès à ChatGPT : des employés ont accidentellement partagé des informations confidentielles alors qu’ils utilisaient le robot conversationnel pour obtenir de l’aide au travail.

The Economist Korea a rapporté trois cas distincts où des employés de Samsung ont involontairement divulgué des informations sensibles à ChatGPT. Dans un cas, un employé a partagé un code source confidentiel pour vérifier s’il y avait des erreurs. Un autre employé a partagé du code pour demander son optimisation. Un troisième a partagé l’enregistrement d’une réunion afin de le convertir en notes pour une présentation.

Suite à ces fuites de données internes, Samsung a pris des mesures pour restreindre temporairement l’utilisation des outils d’IA générative sur les appareils de l’entreprise tels que les ordinateurs, tablettes et téléphones, ainsi que sur les appareils personnels connectés aux réseaux internes.

Exemple d’exfiltration des données de l’entreprise

Problèmes de fiabilité et biais des résultats

Les solutions IA grand public sont conçues pour être généralistes et polyvalentes. Elles éprouvent des difficultés à générer du contenu précis et fiable dans de nombreux secteurs professionnels.

Elles ne fournissent par ailleurs aucune garantie quant à la fiabilité du contenu qu’elles génèrent. Malgré leur apparente assurance, elles sont susceptibles de commettre des erreurs factuelles, d’être influencées par des biais, voire d’”halluciner” en inventant des informations de toutes pièces.

Ces problématiques sont préoccupantes dans les domaines spécialisés comme le juridique, médical et réglementaire, où l’exactitude et la précision de l’information sont cruciales.

Cas Steven Schwartz

En juin 2023, un avocat new-yorkais du nom de Steven Schwartz a été pris en flagrant délit par un juge pour avoir cité dans son mémoire juridique des cas inexistants lors d’un procès contre la compagnie aérienne Avianca.

L’avocat a admis avoir utilisé ChatGPT pour l’aider à constituer son dossier, mais sans vérifier de manière approfondie les informations fournies par l’IA.

Parmi les six cas cités, aucun n’était réel. Lorsque Schwartz a demandé à ChatGPT si les affaires étaient véritables, l’IA a répondu par l’affirmative, bien qu’elle ait ensuite reconnu une confusion.

L’avocat a déclaré regretter d’avoir remplacé la recherche juridique par l’utilisation d’une IA générative et ne pas avoir été au courant de la possibilité d’erreurs dans le contenu généré par ChatGPT.

L’affaire a été transférée à un autre district judiciaire où Schwartz n’a pas le droit de pratiquer. Un avocat du même cabinet devra donc expliquer la situation au juge. Cet incident souligne l’importance de vérifier minutieusement les informations provenant des solutions d’IA générative grand public.

Maîtriser l’usage des solutions IA grand public

Sensibilisation et formation des collaborateurs

La première étape est d’informer les employés sur les risques liés à l’utilisation des outils d’IA grand public dans un contexte professionnel.

Il ne s’agit pas d’interdire leur usage mais d’en poser les limites. Il est impossible de maîtriser totalement ce que fait un employé, d’autant plus avec l’essor du télétravail.

Les entreprises doivent mettre en place une politique précisant quels cas d’usage sont autorisés, par qui, sur quelles données et avec quels outils.

Voici quelques pistes dont vous pouvez vous inspirer pour rédiger une charte d’utilisation de l’IA générative adaptée aux collaborateurs de l’entreprise :

  • Identifiez les cas d’usage pertinents. Les solutions d’IA générative peuvent vous aider à automatiser des tâches rédactionnelles, faire de la veille, générer des idées, analyser des données…
  • Privilégiez les solutions d’IA validées par le département IT. Elles offrent de meilleures garanties en termes de sécurité et de confidentialité.
  • Restez vigilant dans vos instructions. Ne saisissez pas d’information sensible ou confidentielle sur l’entreprise, vos collègues, clients, projets. Vous prenez le risque d’exposer ces informations.
  • Gardez un esprit critique. Les outils d’IA ne sont pas infaillibles, ils peuvent commettre des erreurs factuelles ou avoir des biais. Vérifiez et croisez les informations importantes.
  • Vérifiez le code généré par IA. Il peut contenir des failles de sécurité, révisez celui-ci rigoureusement avant mise en production.
  • Partagez votre expérience. Si certains cas d’usage de l’IA se révèlent particulièrement utiles pour votre métier, il est important de les partager pour qu’ils bénéficient à toute l’entreprise.

Sélection de LLM sécurisés pour l’entreprise

Pour maîtriser les risques, les entreprises ont intérêt à établir un catalogue d’outils d’IA générative validés et intégrés à leur SI.

Plutôt que les IA génératives grand public, il est recommandé d’utiliser des solutions offrant de vraies garanties en termes de sécurité, confidentialité et traçabilité.

Concernant les fournisseurs de LLM propriétaires (comme OpenAI), il peut s’agir pour l’entreprise de bénéficier d’environnements dédiés dont l’exploitation est encadrée.

Une alternative intéressante pour les entreprises disposant de ressources techniques importantes est d’utiliser des LLM Open Source. L’avantage est de garder un contrôle total sur l’hébergement et l’utilisation des modèles.

Développement d’applications personnalisées

Pour intégrer plus efficacement l’IA générative dans des systèmes d’information complexes, les entreprises peuvent opter pour le développement d’applications personnalisées.

Cette approche peut être couplée avec le système de Retrieval Augmented Generation (RAG) qui permet de pallier les problèmes de fiabilité des résultats.

Le RAG combine l’extraction d’informations à partir du corpus de connaissance d’une entreprise avec la génération de texte pour améliorer la pertinence et la précision des réponses générées.

Si cette solution est plus coûteuse et complexe à implémenter, elle apporte un avantage compétitif de taille en permettant de construire des solutions d’IA générative parfaitement intégrées aux connaissances de l’entreprise.

Conclusion

L’utilisation non contrôlée des solutions d’IA générative comme ChatGPT par les employés comporte des risques en termes de sécurité et de fiabilité.

Pour autant, chercher à interdire complètement ces outils serait contre-productif. Les opportunités offertes par l’IA générative pour augmenter la productivité et la créativité sont immenses.

En mettant en place une vraie stratégie de maîtrise du risque, en sensibilisant les collaborateurs et en se dotant de solutions d’IA générative professionnelles intégrées à leur SI, les entreprises peuvent exploiter sereinement l’IA pour en faire un véritable levier de performance.

Picture of Thibaud Michard

Thibaud Michard

CMO reglo.ai. En mission pour démythifier l'Intelligence Artificielle générative.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

reglo.ai

RegloBlog

Les prochains articles Reglo dans votre boite mail.

Partager

reglo.ai

Articles récents

Cas d'usage

12 Juil 2024

Comment utiliser ChatGPT ? Mode d’emploi pour débutant et utilisateur avancé

Vous connaissez ChatGPT mais vous n’êtes jamais allé sur l’application ? Si vous êtes impatient d’utiliser ce chatbot dans votre... Lire plus

RegloBench

27 Juin 2024

Comparatif des meilleurs Chatbots IA grand public en 2024

En 2024, ChatGPT, Claude, Gemini et Mistral dominent le marché des chatbots IA grand public grâce à des modèles de langage... Lire plus

Agent conversationnel : la nouvelle interface homme-machine

Comprendre

15 Juin 2024

Agent conversationnel : la nouvelle interface homme-machine à la maison et au travail

Avec la démocratisation des agents conversationnels grand public comme ChatGPT, les entreprises ont rapidement compris le potentiel d’une telle technologie... Lire plus