Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Laurent Tombois, Bitdefender : Les progrès de l’IA posent de nouveaux défis

mars 2024 par Marc Jacob

Pour sa nouvelle participation au Forum InCyber, Bitdefender présentera sa nouvelle de GravityZone CSPM+
Selon Laurent Tombois, Country Manager de Bitdefender les progrès de l’IA posent de nouveaux défis.

Global Security Mag : Quelle sera votre actualité lors du Forum InCyber 2024 ?

Laurent Tombois : Notre actualité en ce début d’année est très chargée et nous sommes particulièrement impatient de présenter notre toute nouvelle solution GravityZone CSPM+ (Cloud Security Posture Management). Celle-ci permet d’identifier automatiquement les configurations qui ne sont pas conformes aux normes afin de réduire les risques liés à la configuration et d’améliorer la conformité. Par ailleurs, y est associé le CIEM (Cloud Infrastructure Entitlement Management), qui permet de son côté de gérer les droits relatifs aux infrastructures cloud, afin que les organisations ne passent pas à côté d’identités sur-autorisées dans leurs environnements cloud en appliquant les concepts de confiance zéro et de moindre privilège.

Nous renforçons en parallèle notre catalogue de services en lançant les Bitdefender Offensive Security Services. Ce panel de services fournit aux organisations des services de Pen Testing et de Red Teaming afin de garantir l’identification des principales failles de sécurité, améliorant et renforçant ainsi la sécurité de leurs environnements informatiques.

Ensuite, nous présenterons l’offre Bitdefender Threat Intelligence, destinée aux organisations disposant d’un SOC, afin d’intégrer à leurs opérations le renseignement sur les cybermenaces et l’analyse dynamique des malwares. Elle fournit une visibilité accrue sur l’évolution du paysage mondial des menaces afin d’améliorer la détection et la validation des menaces, de trier les alertes, d’améliorer la chasse aux menaces et d’accélérer la réponse aux incidents.

Enfin, nous continuerons bien entendu de promouvoir nos offres EDR (Endpoint Detection and Response) et XDR (eXtended Detection and Response), mais ce sera surtout l’occasion de mettre en avant notre service de SOC managé 24x7. 2023 a été une année phare pour notre offre MDR (Managed Detection and Response) et nous sommes très positivement surpris de l’adoption rapide de ce type de services auprès des clients, et ce quelle que soient leur taille.

Global Security Mag : Quels les points forts des solutions que vous allez présenter à cette occasion ?

Laurent Tombois : Européen et 100% propriétaires
Réduction des efforts
Protection inégalée
Reconnaissance de l’industrie

Global Security Mag : Cette année le Forum InCyber aura pour thème l’IA, quelles sont les principales cybermenaces qui en sont issus ?

Laurent Tombois : Bitdefender a abordé ce sujet dans un article de blog. L’émergence de l’IA alimentée par de grands modèles de langage et sa mise à disposition du public vont certainement poser de nombreux défis cette année. Nous avons identifié plusieurs domaines dans lesquels l’IA aura un impact significatif sur la cybercriminalité :
• La première, et la plus évidente, est de contribuer à la création et à la prolifération des campagnes de spear-phishing. L’une des forces de l’IA réside dans sa capacité à traduire parfaitement les langues. Dans le passé, les courriels d’hameçonnage pouvaient souvent être facilement identifiés par une mauvaise grammaire, car il est courant que les cybercriminels ne parlent pas la langue de la victime visée. Ces campagnes de phishing comportaient ainsi des fautes d’orthographe et de grammaire évidentes. Avec l’aide des chatbots d’IA, les acteurs de la menace peuvent désormais créer des emails de phishing très convaincants avec une grammaire parfaite, ce qui les rend beaucoup plus difficiles à repérer. Ils peuvent également utiliser l’IA pour automatiser ce processus, et nous avons déjà constaté une augmentation significative du volume des attaques de spear-phishing.
• Les groupes de cybercriminels peuvent également utiliser l’IA pour créer des chatbots ressemblant aux humains et qui peuvent interagir avec des victimes sans méfiance et les inciter à divulguer des informations sensibles. Les cybercriminels ont déjà utilisé des tactiques consistant à créer de faux sites bancaires dans lesquels ils attirent les victimes par le biais d’attaques de phishing par email ou texte. Alors que par le passé, il fallait normalement une personne derrière l’écran pour interagir avec la victime sur ces faux sites, ils peuvent désormais confier cette tâche à des robots particulièrement compétents.
• L’IA est également utilisée dans la cybercriminalité par l’émergence des technologies de Deepfake et de clonage vocal. Ces outils alimentés par l’IA ont déjà été utilisés dans des attaques d’hacktivisme et des plans d’extorsion. L’année dernière, une histoire très médiatisée a été révélée, celle d’un employé du secteur financier qui a été contraint de payer 25 millions de dollars à des cybercriminels après avoir été trompé par un deepfake du Directeur financier de l’entreprise lors d’une conférence téléphonique virtuelle. Des histoires ont été rapportées sur l’utilisation de la technologie de clonage de voix pour escroquer des victimes lorsque le pirate s’est fait passer pour un proche de la victime. Ce type d’arnaque est facilité par l’essor de la technologie de l’IA.
• L’autre grand domaine dans lequel l’IA jouera un rôle important est celui du développement des logiciels malveillants. Les acteurs novices de la menace peuvent faire de la rétro-ingénierie de malwares existants beaucoup plus facilement grâce à l’IA, et ils peuvent ensuite y apporter de petites modifications et utiliser les logiciels malveillants modifiés pour lancer de nouvelles campagnes d’attaque. Les organisations cybercriminelles développent leurs propres chatbots alimentés par l’IA, appelés WormGPT et FraudGPT, qui suppriment de nombreux obstacles à l’utilisation des outils à des fins malveillantes que l’on trouve dans les chatbots plus publics tels que ChatGPT et Gemini. L’efficacité de ces outils dans leur état actuel n’est pas claire, mais ces organisations cybercriminelles ont des milliards de dollars à investir pour améliorer ces outils au fil du temps.
• Il y a un autre domaine qui n’est pas souvent abordé lorsqu’on évalue la menace que représente l’IA pour la cybercriminalité. Alors que l’IA devient de plus en plus populaire pour des tâches telles que le développement de code, de nombreux développeurs voient leur emploi de plus en plus remplacé par l’IA. C’est ainsi que des développeurs désespérés cherchent des opportunités d’emploi auprès de groupes de cybercriminels sur le dark web. Ces organisations criminelles paient des salaires très élevés pour les développeurs qualifiés, et l’impact social de l’IA pourrait donner à ces groupes criminels de nombreuses occasions d’acquérir des talents.

Global Security Mag : Avez-vous ou allez-vous intégrer des technologies d’IA dans vos solutions ?

Laurent Tombois : L’IA a toujours fait partie intégrante de nombreuses activités de Bitdefender. Nous sommes des pionniers dans ce domaine puisque nous avons été parmi les premiers à introduire le Machine Learning (apprentissage automatique) dans la détection des menaces, et ce dès 2008. Un exemple de notre innovation dans ce domaine est GravityZone EDR/XDR Incident Advisor, qui utilise l’IA pour corréler les événements à travers des sources de données disparates et fournir un contexte riche aux attaques dans un format compréhensible par l’humain. Le type de détails que GravityZone EDR/XDR apporte à un incident de sécurité aide les équipes de sécurité à identifier rapidement les zones clés d’une attaque. Cela a un impact significatif sur la réduction du temps de présence des menaces et du temps de résolution. Un autre exemple de l’utilisation de notre IA est notre détection d’anomalies qui s’appuie sur l’apprentissage automatique pour étudier les modèles comportementaux et identifier les anomalies qui pourraient indiquer les signes d’une violation de la sécurité, tout en réduisant les faux positifs. Depuis des dizaines d’années, nous développons également une IA « contradictoire » pour prédire les attaques émergentes, ce qui s’est avéré être une arme puissante contre la cybercriminalité.

Notre objectif est de continuer à développer et à améliorer notre technologie et nos services à l’aide de l’IA et de modèles à grande échelle. Nous recherchons constamment des informations sur la manière dont les cybercriminels utilisent l’IA pour renforcer leurs attaques et nous nous attendons à ce qu’ils l’utilisent également pour innover dans leurs tactiques malveillantes. Nous avons déjà vu comment les cybercriminels utilisent l’IA pour créer des campagnes de spear-phishing plus réalistes, perpétrer des escroqueries en utilisant la manipulation vocale et la technologie Deepfake, et abaisser les barrières d’apprentissage pour les codeurs de logiciels malveillants novices. Sans dévoiler de secrets d’entreprise, je peux dire que nous continuerons à garder une longueur d’avance sur les menaces et que l’IA sera un outil important dans cette démarche.

Global Security Mag : Comment les technologies doivent-elles évoluer pour conter ces menaces ?

Laurent Tombois : Les fournisseurs de cybersécurité comme Bitdefender continueront à explorer le rôle de l’IA contradictoire dans la prédiction des menaces futures et le développement des défenses les plus efficaces pour les contrecarrer. Un bel exemple de cela est lorsque Bitdefender, en utilisant notre Machine Learning et IA développées sur mesure, a détecté le comportement du ransomware WannaCry en 2014, trois ans avant que le malware ne soit vu dans la nature. Lorsque le malware a été rendu public, les clients de Bitdefender étaient déjà protégés. Les entreprises technologiques travaillent déjà sur de nouveaux outils pour détecter l’utilisation d’éléments tels que le Deepfake ou le clonage de voix dans les attaques d’ingénierie sociale. Par exemple, des outils comme Bitdefender Scamio utilisent l’IA pour détecter les messages frauduleux. Les technologies de ce type continueront d’évoluer et de s’améliorer dans notre lutte sans fin contre la cybercriminalité.

Global Security Mag : Quel message souhaitez-vous transmettre aux RSSI ?

Laurent Tombois : À un RSSI préoccupé par l’utilisation et la prolifération de l’IA dans la cybercriminalité, je dirais que si les progrès de l’IA posent de nouveaux défis, ils offrent également des opportunités sans précédent pour renforcer les défenses en matière de cybersécurité. Les entreprises de cybersécurité comme Bitdefender continueront à exploiter les capacités de l’IA pour identifier et atténuer les menaces de manière proactive, automatiser les stratégies de réponse et garder une longueur d’avance sur les cybercriminels qui utilisent l’IA pour renforcer leurs activités malveillantes. Les organisations doivent se tenir informées du paysage des menaces émergentes et des outils et services qui apparaissent pour les contrer. Les RSSI devraient envisager sérieusement d’investir dans des solutions de sécurité qui utilisent l’IA, car elles peuvent aider à protéger les actifs de leur organisation contre les attaques émergentes renforcées par l’IA.


Articles connexes:

Voir les articles précédents

    

Voir les articles suivants