Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Les textes générés par l’IA devraient entraîner une augmentation des cyber-risques

janvier 2023 par WithSecure™

 Désormais, des systèmes capables de synthétiser des textes à consonance humaine en quelques secondes sont accessibles au grand public. Selon une nouvelle recherche de WithSecure™ (anciennement connu sous le nom de F-Secure Business), il s’agit d’un véritable tournant dans l’histoire de l’humanité.

Cette recherche, récemment publiée sur le blog de WithSecure Labs, décrit plusieurs expériences menées sur les modèles linguistiques GPT-3. Les chercheurs ont utilisé ces modèles pour créer plusieurs textes jugés nuisibles : contenus malveillants, fake news, phishing, spear-phishing, harcèlement, validation sociale des escroqueries, appropriation d’un style d’écriture donné et création d’opinions délibérément divisées.

En déterminant comment les modèles d’IA linguistique peuvent être détournés par les criminels, les chercheurs de WithSecure ont souhaité aider à la création de modèles mieux sécurisés.

« Tout individu disposant d’une connexion internet peut désormais accéder à de puissants modèles GPT-3. Cette nouvelle réalité a des conséquences très concrètes : dorénavant, n’importe quel texte que vous recevez est susceptible d’avoir été écrit par un robot » explique Andy Patel, Intelligence Researcher chez WithSecure et auteur de ces recherches. « De futurs modèles plus sûrs seront créés à l’avenir mais ceux que nous venons de tester resteront encore longtemps accessibles et ils sont synonymes de risques potentiels. »

En se basant sur l’évolution des modèles de GPT-3 et sur les réponses synthétisées par les modèles linguistiques, les chercheurs ont abouti aux conclusions suivantes :
 

À terme, les PC seront capables d’exécuter de grands modèles linguistiques sans filtre de sécurité.
Les grands modèles linguistiques permettent déjà aux criminels d’optimiser les communications ciblées utilisées dans leurs attaques.
L’ingénierie de synthèse se développera en tant que discipline à part entière, tout comme la création assistée de charges malveillantes.
Les méthodes de détection des contenus synthétiques ne sont pas fiables. Face aux nouveaux modèles linguistiques, ces méthodes pourraient encore perdre en efficacité.
Les nouveaux modèles linguistiques parviendront à maîtriser certains risques mais ils n’empêcheront pas toutes les utilisations malveillantes possibles.
Pour repérer les contenus malveillants, il sera nécessaire de développer des stratégies de détection capables de comprendre le sens et l’objectif des textes.

 
 
« Nous avons commencé cette recherche avant que ChatGPT ne mette la technologie GPT-3 à la disposition de tous », déclare Andy Patel. « La mise en ligne de ChatGPT est un véritable bouleversement qui nous a appelé à redoubler d’efforts dans notre recherche car, dorénavant, nous vivons dans un monde comparable au film Blade Runner. Désormais, pour chaque message reçu, les utilisateurs sont en droit de se demander s’ils ont affaire à une personne ou à une intelligence artificielle. » 


Voir les articles précédents

    

Voir les articles suivants