Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Venafi : Intelligence Artificielle, une réglementation est urgente

septembre 2023 par Kevin Bocek, vice-président, Écosystème et communauté chez Venafi

Les gouvernements du monde entier se demandent comment l’Intelligence Artificielle doit être gouvernée. En 2017, la France en faisait une priorité avec une stratégie en deux temps : le renforcement des capacités de recherche ; la formation et l’attraction de nouveaux talents. Le sommet mondial de la sécurité de l’Intelligence Artificielle qui se tiendra en novembre à Bletchley Park (Royaume-Unis) sera une belle occasion de partager et de poser les bases d’une régulation commune pour en limiter les risques.
Kevin Bocek VP of Ecosystem and Community chez Venafi profite de cette prochaine échéance pour souligner l’urgence de prendre des décisions rapides sur la réglementation de l’IA et les points sur lesquels il sera nécessaire d’être vigilant :

« Selon un rapport récent, il semble que le Comité Scientifique, de l’innovation et de la Technologie (UK’s House of Commons Science, Innovation and Technology Committee (SITC) soit -à juste titre- préoccupé par une réglementation en matière d’IA et par la nécessité de jeter les bases le plus rapidement possible.
Alors que d’autres organes législatifs – comme l’UE – prennent déjà des mesures proactives pour sécuriser l’IA, le Royaume-Uni risque de prendre du retard si le gouvernement n’agit pas. Si le Parlement peut parvenir à un accord mutuel sur la protection des individus et le maintien du contrôle humain sur ces technologies avancées, ce serait une belle avancée. Alors que l’IA continue d’avancer à un rythme rapide, l’établissement de ces garde-corps est crucial. Et avoir une vision commune autour des réglementations qui peuvent aider à contenir les risques de l’IA, tout en encourageant l’exploration, la curiosité et les essais et erreurs, sera essentiel. Pourtant, toute approche commune visant à atténuer les risques de l’IA devrait tenir compte du besoin potentiel d’un « coupe-circuit » de l’IA, afin de protéger le public et les entreprises si un système d’IA constitue une menace sérieuse.
« Pour être clair, lorsque nous parlons d’un « coupe-circuit », nous ne parlons pas d’un seul commutateur. Si les systèmes d’IA deviennent des voyous et commencent à représenter une menace sérieuse pour l’humanité – comme certains chiffres clés de l’industrie le montrent – nous devrons être en mesure d’identifier ces IA : à quoi sont-ils connectés, quelles sont les sorties qu’ils génèrent ou qui ont déjà été générées. Plutôt que d’avoir une super identité, il y aurait potentiellement des milliers d’identités machines associées à chaque modèle, à partir des entrées qui forment le modèle, au modèle lui-même et à ses extrants. Ces identités pourraient être utilisées comme un coupe-circuit de facto – car les enlever équivaut à retirer un passeport, il deviendrait extrêmement difficile pour cette entité de fonctionner. Ce genre de coupe-circuit pourrait empêcher l’IA de fonctionner. Empêcher de communiquer avec un certain service et le protéger en l’arrêtant s’il a été compromis ; c’est semblable à la façon dont un cerveau humain peut s’arrêter lorsqu’il est attaqué. »


Voir les articles précédents

    

Voir les articles suivants