Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Rapport SOTI Akamai : En 2024, les bots représentent 42 % du trafic web mondial, avec une prédominance des acteurs malveillants

juin 2024 par Akamai

Akamai Technologies, Inc. a publié un nouveau rapport « État des lieux d’Internet » qui détaille cette fois le niveau des menaces de sécurité et commerciales auxquelles les entreprises du secteur du e-commerce sont confrontées avec la prolifération des bots effectuant du Web scraping. Le rapport, intitulé « Protégez vos données et vos revenus : impact des extracteurs Web sur le e-commerce » constate que les bots représentent aujourd’hui 42 % du trafic Web global et que 65 % de ceux-ci sont malveillants.

Du fait de sa dépendance aux applications Web, souvent génératrices de revenus, le secteur du e-commerce a été cette année le plus touché par le trafic de bots à haut risque. Bien que certains bots soient bénéfiques pour les entreprises, les bots d’extraction Web sont le plus souvent utilisés à des fins de veille concurrentielle et d’espionnage, de surstocks, ou encore la création de sites factices. Ces différents procédés ont de plus en plus d’impact, négatif, sur les résultats et l’expérience client. De plus, il n’existe pour l’heure pas de lois interdisant l’utilisation de bots d’extraction, et cela à mesure qu’ils deviennent de plus en plus difficiles à détecter en raison de l’essor des botnets créés par l’intelligence artificielle (IA), toutefois il existe des stratégies que les entreprises peuvent mettre en place pour les atténuer.

« Les bots continuent de présenter des défis considérables, ce qui entraîne de multiples difficultés pour les propriétaires d’applications et d’API », selon Patrick Sullivan, CTO, Security Strategy chez Akamai. « Parmi les défis du moment, on peut notamment identifier l’extraction Web, laquelle permet de voler des données Web et aussi de produire des sites d’usurpation d’identité de marque. Le paysage des extracteurs lui-même évolue avec l’émergence de nouvelles technologies, comme celle du navigateur sans interface, obligeant les entreprises à adopter une stratégie de gestion de ce type d’activité de bot plus sophistiquée que d’autres atténuations reposant sur JavaScript. »

Parmi les principaux enseignements du rapport, on distingue notamment les points suivants :
• Les botnets créés par l’IA ont la capacité d’identifier et d’extraire des données et du contenu non structurés présents à des formats ou dans des emplacements plus ou moins cohérents. En outre, ils peuvent utiliser la veille stratégique réelle pour améliorer le processus de prise de décision en collectant, extrayant, puis traitant les données.
• Les robots d’extraction Web (Web Scraping) peuvent être exploités pour générer des campagnes d’hameçonnage plus sophistiquées en capturant des images de produits, des descriptions et des informations sur les prix pour créer de fausses pages commerciales ou des sites d’hameçonnage visant à voler des identifiants ou des informations de carte de crédit.
• Les bots peuvent être utilisés pour faciliter les abus liés à l’ouverture de nouveaux comptes, qui, selon des recherches récentes, constituent jusqu’à 50 % des pertes liées à la fraude.
• Les impacts techniques auxquels les entreprises sont confrontées en raison de l’extraction, qu’elle ait été effectuée avec des intentions malveillantes ou bénéfiques, incluent la dégradation des performances des sites Web, la pollution des métriques du site, les attaques d’informations d’identification compromises provenant de sites d’hameçonnage, l’augmentation des coûts de calcul, etc.

Le rapport d’enquête « Protégez vos données et vos revenus » présente des stratégies d’atténuation contre les bots d’extraction ainsi qu’une étude de cas mettant en exergue le meilleur fonctionnement des sites Web protégés des bots, notamment sur le point de la réduction de la latence. . En outre, l’étude aborde les considérations de conformité qui doivent être prises en compte l’aune de la montée de ce type d’attaques.
Cette année marque le 10e anniversaire des rapports État des lieux d’Internet d’Akamai. La série des rapports SOTI fournit des analyses d’experts sur les écosystèmes de la cybersécurité et des performances Web, sur la base des données recueillies via la plateforme Akamai Connected Cloud.


Voir les articles précédents

    

Voir les articles suivants