Pour lutter contre le Shadow AI, favorisez un usage encadré et sécurisé de l’IA grâce à des solutions techniques émergentes comme le français SAFEBRAIN
Le Shadow IT, en bon français « informatique clandestine », désigne l’utilisation de matériel ou de logiciels informatiques, par un département ou une personne, sans que le service informatique ou de sécurité de l’organisation ne l’ait approuvé, ou même qu’il n’en ait connaissance.
L’avènement des services et applications basés sur le cloud, la démocratisation des devices personnels et la frontière toujours plus ténue entre les sphères professionnelles et personnelles ont renforcé le risque de Shadow IT ces dernières années. Typiquement, les applications susceptibles de relever du Shadow IT incluent des applications de messagerie instantanée, de partage de fichiers, de gestion de projet, de vidéoconférence, etc.
Par le contournement des politiques d’entreprise, leur utilisation expose les organisations à des risques sérieux en matière de sécurité, le département informatique ne disposant pas de visibilité et n’exerçant aucun contrôle sur les services et applications adoptés par les salariés.
Ces risques comprennent notamment la sécurité des données, la conformité aux réglementations, la perte de contrôle de l’environnement informatique, la fragmentation des données, la duplication des efforts et le manque de visibilité et de contrôle.
Le Shadow AI, « l’IA clandestine » est une extension du concept de « Shadow IT ». Il désigne spécifiquement à l’utilisation de solutions d’IA telles que ChatGPT et Bard sans l’approbation de l’entreprise. Citons par exemple l’utilisation de ChatGPT sur les devices personnels de salariés pour corriger du texte, générer du contenu ou pour rédiger un email à un client. Les cas d’utilisation de l’IA en dépit des politiques mises en place par les organisations se multiplient. Là encore, et malgré des avantages indéniables, l’utilisation « clandestine » de ces solutions soulève de sérieuses préoccupations concernant la sécurité et la confidentialité des données.
L’essor de l’IA déclenche un schéma similaire à celui du « Shadow IT » lorsque des départements tels que le marketing, la supply chain et les RH décident de déployer eux-mêmes des solutions d’IA. Cette adoption généralisée entraînera la prolifération d’un environnement de modèles de « Shadow AI ».
Peter Sondergaard – Chairman of the Board, 2021.ai
Pour les organisations, indépendamment des règles mises en place, le Shadow AI se traduit en effet par des risques bien réels :
Interdire l’utilisation des solutions d’IA en entreprise peut sembler être une solution simple pour se prémunir des risques liés à ces technologies. Prises de court par la déferlante ChatGPT, de grandes entreprises, et même certains pays, ont fait ce choix radical.
Pourtant, une telle politique peut avoir des conséquences contreproductives. En fait, face aux nombreux avantages que ces solutions offrent aux salariés, ces derniers peuvent aisément contourner les règles, c’est l’effet « Shadow AI », où les employés utilisent des outils d’IA sans supervision ni contrôle.
De plus, une interdiction totale de l’IA peut freiner l’innovation et la productivité de l’entreprise. Les solutions d’IA offrent de nombreux avantages, tels que l’automatisation des tâches, l’amélioration de la prise de décision et l’optimisation des processus.
En les interdisant complètement, l’entreprise se prive de ces opportunités au risque d’hypothéquer sa compétitivité et la montée en compétences de ses salariés à moyen et long termes.
Plutôt que d’interdire complètement l’utilisation de l’IA, il est préférable de mettre en place des mesures d’encadrement pour minimiser les risques tout en permettant aux employés de bénéficier des avantages de cette technologie. Voici quelques suggestions :