Selon Netskope, pour chaque tranche de 10 000 utilisateurs, une entreprise subit environ 183 incidents de publication de données sensibles sur ChatGPT par mois.
En se basant sur les données de millions d’utilisateurs professionnels dans le monde, les chercheurs ont constaté que l’utilisation d’applications d’IA générative augmente rapidement, en hausse de 22,5 % au cours des deux derniers mois, ce qui accroît les risques d’exposition de données sensibles par les utilisateurs.
ChatGPT compte plus de 8 fois plus d’utilisateurs actifs quotidiens que toute autre application d’IA générative.
Au cours des deux derniers mois, l’application d’IA qui a connu la croissance la plus rapide est Google Bard, qui compte actuellement 7,1 % d’utilisateurs supplémentaires par semaine, contre 1,6 % pour ChatGPT. Au rythme actuel, Google Bard ne devrait pas rattraper ChatGPT avant plus d’un an, même si l’on s’attend à ce que l’espace des applications d’IA générative évolue considérablement d’ici là, avec de nombreuses autres applications en cours de développement.
Parmi les autres données sensibles partagées dans le cadre de ChatGPT figurent des données réglementées – notamment des données financières et médicales, des informations personnelles identifiables – ainsi que des éléments de propriété intellectuelle, à l’exclusion du code source et, plus préoccupant encore, des mots de passe et des clés, généralement intégrés dans le code source.
Bloquer l’accès aux contenus et aux applications liés à l’IA est une solution à court terme pour atténuer les risques, mais cela se fait au détriment des avantages potentiels que les applications d’IA offrent pour compléter l’innovation de l’entreprise et la productivité des employés.