Recherche CyberArk - ByteCodeLLM - La vie privée à l’ère du LLM : Du code octet au code source
décembre 2024 par CyberArk
Les chercheurs du Threat Research Lab de CyberArk ont récemment publié une analyse sur l’outil ByteCodeLLM, nouvel outil open-source qui exploite la puissance des grands modèles de langage locaux (LLM) pour décompiler les exécutables Python. Il donne la priorité à la confidentialité des données en utilisant un LLM local exécutable dans n’importe quel environnement, comme les anciens ordinateurs portables et les VM. L’outil est le premier programme de décompilation qui parvient à décompiler localement les dernières versions de Python 3.13, avec un taux de réussite de 99 % lorsqu’il est exécuté sur des versions plus anciennes de Python, et un taux de précision de 70-80 % en fonction du LLM utilisé.
L’évolution rapide de Python - en particulier dans le domaine de l’analyse des logiciels malveillants - exige des solutions innovantes. Les experts de CyberArk pensent que ByteCodeLLM peut s’avérer être un outil crucial pour les chercheurs en sécurité, relevant efficacement le défi de la décompilation des exécutables Python. En exploitant la puissance des LLM locaux, ByteCodeLLM offre une précision accrue et garantit la confidentialité des données. Il apparaît actuellement comme le seul outil hébergé localement capable de décompiler Python 3.13 et d’offrir ainsi un avantage significatif dans l’analyse et la compréhension des dernières menaces des malwares.
De façon générale, afin de protéger au mieux sa vie privée lors de l’utilisation de LLM, les chercheurs de CyberArk font les recommandations suivantes :
• Utiliser des LLM locaux pour traiter les données sensibles et préserver la confidentialité
• Éviter d’introduire des informations très sensibles ou confidentielles (PII) dans les LLM
• Anonymiser les données ou dépersonnaliser les données avant de les partager avec un LLM
• Examiner attentivement les politiques de confidentialité des fournisseurs de LLM pour comprendre comment ses données peuvent être utilisées
• Se tenir au courant des dernières recherches et des meilleures pratiques en matière de sécurité concernant les LLM