lueur

Guide #3 La double face de l’IA pour la sécurité de vos données.

Chat GPT, Notion…

Sensibilisation aux problématiques de sécurité liées aux usages de l’Intelligence Artificielle.

Les progrès fulgurants de l’Intelligence Artificielle ces derniers mois, et l’adoption rapide de ces nouveaux outils par les entreprises préfigurent la prochaine révolution industrielle, une révolution déjà en marche.

Face à ce changement de paradigme, et alors que des doutes émergent quant aux enjeux éthiques et cyber liés à l’IA, vous pouvez choisir de nager à contre-courant… ou d’ajuster les voiles pour naviguer dans le sens du vent.

NOTRE CONVICTION

Que vous soyez favorable ou non à l’émergence de l’IA, votre entreprise risque de se faire distancer si elle ne suit pas la tendance.

Bien entendu, comme toute innovation son usage devra être maîtrisé et nécessitera un contrôle régulier, qui vous permettra cependant, de ne prendre aucun retard sur les avancées technologique de demain.

QUEL EST LE RISQUE ?

L’utilisation de ChatGPT (et autres solutions d’IA) présente, comme pour toute solution IT, des risques pour votre Cybersécurité :

Fuite ou vol de données, attaques sophistiquées par phishing , logiciels malveillants plus performants, diffusion de désinformation, usurpation d’identité… la gamme de risques cyber accentuée par l’IA est large.

CONFIDENTIALITÉ DES DONNÉES

L’utilisation de Chat GPT et d’autres IA soulève des défis particuliers en matière de prévention des fuites de données (Data Leak Prevention, DLP).

En effet, les salariés peuvent saisir des informations sensibles dans ces systèmes externes hors de contrôle de votre organisation. Ces informations peuvent être stockées, analysées, exploitées et potentiellement exposées en cas de violation de données ou d’attaque informatique.

Les systèmes de DLP traditionnels reposent sur des méthodes de détection des données sensibles dans les communications et les transferts de fichiers, telles que l’inspection approfondie des paquets (Deep Packet Inspection, DPI) et l’analyse de contenu.

Avec Chat GPT, la prévention des pertes de données devient plus complexe. Les interactions entre les systèmes et les utilisateurs sont moins structurées et plus dynamiques que les communications traditionnelles, ce qui rend difficile la détection des fuites de données par les outils de DLP existants.

Dans ce contexte, il est crucial de mettre en place des mesures de protection des données adaptées à l’ère des intelligences artificielles, notamment en renforçant les politiques de DLP existantes et en intégrant des mécanismes de contrôle spécifiques pour surveiller et limiter les échanges d’informations sensibles avec les systèmes de Chat GPT et autres IA.

Les solutions techniques de DLP promettent d’évoluer pour répondre à ces nouveaux usages. En parallèle, nous recommandons la diffusion des bonnes pratiques suivantes à vos salariés :

  • Ne pas saisir de données personnelles, telles que les noms, adresses, numéros de téléphone ou numéros de sécurité sociale.
  • Éviter d’inclure le nom de l’entreprise, des informations sur les clients, des secrets commerciaux ou des informations financières dans les requêtes.
  • Ne pas partager des informations sur les systèmes de sécurité internes, les configurations réseau ou les vulnérabilités de l’entreprise.
  • Blanchir la donnée : utiliser des exemples fictifs ou anonymisés lors de l’échange d’informations avec l’IA.
    • Attention : le blanchiment des données atteint rapidement ses limites, et vous devez avoir conscience qu’avec quelques corrélations très simples (adresse de connexion par exemple), il est « facilement » possible de rattacher des requêtes à l’entreprise, même si son nom n’est pas directement mentionné. La mise en place de connexions VPN peut rendre de tels rapprochements plus complexes.
  • Mettre en place des protocoles d’accès aux IA, tels que l’authentification multi facteurs (MFA) et la gestion des droits d’accès pour limiter les risques de divulgation non autorisée d’informations sensibles.

PHISHING

Le phishing est également une menace importante associée à ChatGPT.

Les pirates informatiques peuvent utiliser les technologies d’IA génératives pour écrire des e-mails de phishing de meilleur qualité et convaincants, qui semblent avoir été écrits par des professionnels « légitimes ». Ce travail nécessitait jusqu’à présent des ressources importantes, ce qui explique que les attaques de phishing de masse restaient souvent de piètre qualité (présence de fautes d’orthographe, de fautes de syntaxe, etc.). L’intégration de l’IA permet d’ores et déjà des attaques beaucoup plus sophistiquées.

Nous vous recommandons fortement d’accentuer encore davantage les efforts de sensibilisation auprès de vos salariés. Selon certaines études, jusqu’à 90 % des cyberattaques réussies impliquent une forme de phishing ou d’ingénierie sociale : l’erreur humaine reste le principal facteur de succès pour les attaquants.

Abbana peut vous proposer un « audit », via de fausses campagnes de phishing qui permettront de mesurer le niveau de maturité de votre organisation en retournant des statistiques qui orienteront les efforts de sensibilisation (taux de signalement des emails frauduleux, taux de clics sur les liens frauduleux, taux de saisie d’informations de connexion comme les identifiants et mots de passe, etc.)

FIABILITÉ DE L’INFORMATION

Les IA, comme le chat GPT, sont capables de générer des réponses pertinentes, mais elles peuvent également fournir des informations incorrectes ou inexactes. Il est donc crucial de vérifier les informations obtenues auprès de sources fiables. Encouragez vos employés à :

  • Toujours valider les informations reçues auprès de sources fiables et officielles.
  • Ne pas se fier uniquement aux réponses des IA pour prendre des décisions importantes.

SÉCURITÉ DES SYSTÈMES

Les systèmes basés sur l’IA peuvent être vulnérables aux cyberattaques. Assurez-vous que vos employés respectent les bonnes pratiques de sécurité, telles que :

  • Utiliser des mots de passe forts et uniques pour chaque compte en ligne.
  • Ne pas partager leurs identifiants de connexion avec d’autres personnes.
  • Signaler immédiatement toute activité suspecte à l’équipe de sécurité informatique.

FORMATION ET SENSIBILISATION

Il est essentiel que vos employés comprennent les enjeux liés à l’utilisation des IA et les mesures à prendre pour minimiser les risques. Nous vous recommandons de vous assurer que :

  • Les employés reçoivent une formation adéquate sur l’utilisation des IA et leurs risques associés.
  • Les employés sont régulièrement informés des mises à jour des politiques et des meilleures pratiques en matière de sécurité.

CONCLUSION

ChatGPT et autres solutions d’IA sont des technologies fascinantes et prometteuses. En veillant à utiliser ChatGPT de manière responsable et en prenant les précautions nécessaires, votre entreprise pourra exploiter ses avantages tout en contenant les risques à un niveau acceptable.

Nous vous encourageons à adapter et à partager le document en Annexe avec vos salariés et à adapter vos politiques internes en conséquence, les équipes d’Abbana restent à votre entière disposition pour vous accompagner dans cette évolution.