Un nouvelle enquête sur la confidentialité désigne l’IA comme une menace équivalente à la cybercriminalité
mai 2024 par Zama
Une nouvelle enquête publiée aujourd’hui révèle les préoccupations des développeurs concernant la menace future posée par l’IA et le machine learning pour la confidentialité de données.
La cybercriminalité est toujours perçue comme la principale menace, avec 55%, mais l’IA arrive en très proche second avec 53%. Bien que l’IA soit une menace relativement nouvelle, la recherche montre que les développeurs croient que cette technologie est une menace qui rattrape rapidement le cybercrime à mesure qu’elle se généralise. Les coûts du cybercrime devraient atteindre 13,82 billions de dollars d’ici 2028 : la réalité est qu’avec une IA de plus en plus sophistiquée potentiellement entre les mains d’une nouvelle génération de cybercriminels, ces coûts pourraient croître de manière exponentielle.
L’IA amplifie non seulement les menaces criminelles, mais pose également un risque direct pour la confidentialité à travers ses capacités inhérentes. Un aspect particulièrement alarmant est le risque de sécurité associé aux systèmes d’IA qui nécessitent de vastes ensembles de données pour l’entraînement, qui incluent souvent des informations personnelles sensibles. Ces ensembles de données rendent les systèmes d’IA des cibles attrayantes pour les cyberattaques, menant à des violations potentielles qui peuvent exposer des données privées à grande échelle. Même dans des contextes non malveillants, l’intégration de l’IA dans les technologies quotidiennes — de l’analytique de santé à la prise de décision financière — peut involontairement révéler des détails personnels qui devraient rester confidentiels. Cela souligne le besoin urgent de mesures de sécurité robustes et de pratiques transparentes pour protéger les informations personnelles contre les divulgations non intentionnelles, assurant ainsi que la confiance du public dans les technologies émergentes ne soit pas érodée.
Le sondage, commanditée par Zama - une entreprise Parisienne de cryptographie spécialisée dans le domaine du chiffrement homomorphe complet (Fully Homomorphic Encryption, ou FHE en Anglais)* - a interrogé plus de 1000 développeurs aux Royaume-Uni et aux États-Unis sur les sujet de la confidentialité des données et de la vie privée
Intéressée par la confidentialité et le respect des données privées, Zama voulait connaître l’avis, la perception et les pratiques favorites de ceux qui intègrent la protection de la confidentialité pour tous dans les applications quotidiennes : les développeurs.
La recherche révèle également que :
• 98% des développeurs pensent que des mesures réglementaires doivent être prises immédiatement.
• 72% ont dit que les réglementations faites pour protéger la confidentialité ne sont pas adéquates pour l’avenir.
• 56% estiment que les structures réglementaires dynamiques qui peuvent s’adapter aux progrès technologiques pourraient devenir une menace réelle.
“Malgré l’augmentation attendue du coût de la cybercriminalité dans les prochaines années, 55% des développeurs interrogés estiment que le cybercrime n’est que ’marginalement problématique’ face à la menace que l’IA va bientôt poser sur nos données. Grâce à cette enquête, on voit que de nombreux développeurs se considèrent comme les véritables gardiens de la confidentialité dans leur organisation. Et c’est pourquoi il faut les écouter”, dit Pascal Paillier, CTO et co-fondateur de Zama.
“Zama partage les préoccupations exprimées par les développeurs concernant les risques pour la confidentialité posés par l’IA et son utilisation potentiellement irresponsable. Les régulateurs et les décideurs aussi devraient considérer cette perspective alors qu’ils essaient de naviguer dans ce nouveau monde. Il est important de ne pas sous-estimer la menace soulignée par les experts de la confidentialité, à savoir les développeurs et de s’assurer que les réglementations à venir abordent les risques accrus pour la confidentialité des utilisateurs”, a-t-il ajouté.
L’enquête révèle ensuite que 30% des développeurs estiment que ceux qui sont responsables d’écrire les réglementations ne sont pas suffisamment informés sur les technologies nascentes, ce qui présente également un réel danger, tandis que 17% pensent que cela poserait un risque pour les futurs progrès technologiques.
“C’est sans aucun doute une période passionnante pour l’innovation, surtout avec les avancées de l’IA qui se développent très rapidement. Mais avec chaque nouvelle évolution, la confidentialité doit être au cœur des préoccupations. Et c’est la vision de Zama, les développeurs ont la capacité et la responsabilité de préserver la confidentialité de leurs utilisateurs. Il est clair, en analysant leurs réponses, qu’ils aimeraient voir les régulateurs prendre plus de responsabilité pour comprendre comment les technologies améliorant la confidentialité peuvent être utilisées pour garantir la confidentialité d’utilisation. Le chiffrement homomorphe (FHE) peut jouer un rôle clef pour garantir que l’innovation puisse encore prospérer, tout en protégeant la confidentialité de tous les utilisateurs”, ajoute-t-il.
*FHE, Chiffrement Homomorphe Complet
Le FHE est une technique de chiffrement qui permet de traiter des données sans les déchiffrer. Avec des données chiffrées à la fois en transit et pendant le traitement, tout ce que vous faites en ligne pourrait être chiffré de bout en bout, permettant aux entreprises et aux organisations d’offrir leurs services sans jamais voir les données de leurs utilisateurs - et les utilisateurs ne remarqueront aucune différence de fonctionnalité.
La recherche a été réalisée par Research Without Barriers (RWB) entre le 9 janvier 2024 et le 8 février 2024 avec un échantillon comprenant 1,098 développeurs du Royaume-Uni (571) et des États-Unis (527).