Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Adoption de l’AI Act par les eurodéputés : commentaire Informatica

mars 2024 par Greg Hanson, SVP chez Informatica

Après de nombreux débats et votes, le texte de l’AI Act, convenu suite aux négociations du mois de décembre 2023, a été adopté par une très large majorité de députés européens. Présenté en avril 2021, le texte visait initialement à réglementer l’utilisation de l’intelligence artificielle (IA). Cependant, au fil du temps, il s’est élargi pour englober des réglementations relatives aux modèles d’IA et aux systèmes à haut risque, en réponse aux risques inhérents associés à l’IA. Bien que l’adoption massive de ChatGPT fin 2022 ait fourni le contexte de cette évolution, elle n’a pas été le seul facteur déterminant. Par conséquent, l’Union européenne a révisé son approche pour inclure ces réglementations dans les débats, dans le but d’atténuer les abus potentiels dans toute la mesure du possible.

Cette version du texte permet, entre autres de :
• Mettre en place des garanties relatives à l’intelligence artificielle à usage général ;
• Limiter l’utilisation des systèmes d’identification biométrique par les services répressifs ;
• Interdire d’utiliser la notation sociale et l’intelligence artificielle pour manipuler les utilisateurs ou exploiter leurs vulnérabilités ;
• Accorder le droit aux consommateurs de déposer plainte et de recevoir des explications.

Mais si l’Europe se réjouit de l’adoption du texte, le monde de la tech reste plus sceptique. En cause, des règles estimées encore trop floues qui pourraient finalement être un obstacle en matière de développement et d’innovation.

Alors que le texte, dans sa version finale, doit encore être adopté officiellement par le Conseil Européen, Greg Hanson, GVP et Head of Sales EMEA North chez Informatica, commente :

« Ce vote de l’AI Act va avoir des répercussions bien au-delà des frontières européennes. Nous assisterons probablement à des écarts de réglementation de l’IA entre les pays du monde entier. Cela pourrait ressembler à différentes variantes d’une même politique librement inspirée de l’AI Act. Le défi pour les autorités locales sera donc de trouver un équilibre entre la réglementation et l’innovation.

Il est clair que les grandes multinationales ne pourront pas se permettre de réguler l’IA de manière isolée, projet par projet, pays par pays. C’est trop complexe. Au lieu de cela, les entreprises devront réfléchir à la manière dont la réglementation de l’IA se traduit en politique et mettre en place des bases solides qui pourront être facilement adaptées aux différentes régions.

Par exemple, les régulateurs de tous les pays montrent un intérêt majeur pour la transparence. Pour démontrer que les entreprises utilisent l’IA de manière sûre et responsable, elles doivent être en mesure d’expliquer pourquoi leur modèle d’IA a pris cette décision plutôt qu’une autre. Il incombe donc aux entreprises elles-mêmes de comprendre la nature et la provenance des données introduites, de s’assurer de leur qualité et d’illustrer la manière dont l’intelligence artificielle a permis d’obtenir tel ou tel résultat. »


Voir les articles précédents

    

Voir les articles suivants