Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Q-Star d’OpenAI : Menace pour l’Humanité ou simple upgrade ?

novembre 2023 par Stéphane Roder, CEO d’AI Builders

Le projet Q* (Q-Star) d’OpenAI suscite des inquiétudes en raison de son potentiel à être une avancée majeure dans le domaine de l’intelligence artificielle (IA). Ce projet semble se concentrer sur le développement d’une intelligence artificielle générale (IAG) susceptible de surpasser les capacités actuelles des IA. Des rapports suggèrent que Q* a démontré des capacités remarquables pour résoudre des problèmes mathématiques, ce qui pourrait représenter une menace pour l’humanité selon certains chercheurs. Cette avancée aurait été un facteur clé dans le départ de Sam Altman, précédemment PDG d’OpenAI, et a suscité des préoccupations quant aux risques potentiels pour l’humanité, attirant ainsi l’attention d’Elon Musk.

Stéphane Roder, CEO d’AI Builders, partage son point de vue sur le sujet : "L’histoire pourrait rappeler le cas de l’employée de Google renvoyée pour avoir alerté la presse sur les dangers de Lambda, un modèle d’IA générative de Google dont on n’entend plus parler depuis longtemps, tant il est maintenant obsolète.
Q Star semble être une nouvelle version des modèles d’OpenAI, améliorant sa capacité de raisonnement. Une capacité déjà bien connue et existante dans GPT-4, que les équipes d’OpenAI ont dû faire progresser, notamment pour permettre le fonctionnement des agents autonomes annoncés lors du Dev Day d’OpenAI, désormais intégrés nativement dans son API. Ces agents dirigent les requêtes vers des "plugins", permettant aux modèles de se connecter à des sources externes (Expedia, Google, …). Ces agents autonomes sont pilotés par des modèles d’IA générative comme GPT-4, capables de comprendre la relation entre les plugins disponibles et la requête.
Ces concepts existent depuis les débuts chez OpenAI et toutes les bibliothèques open source telles que Langchain et Transformer sont désormais généralisées par OpenAI et Microsoft.
À l’instar de Google, cette critique semble davantage relever d’une lutte interne chez OpenAI que d’un réel danger, surtout si l’on considère que même les signataires de ce document incriminant Sam Altman reconnaissent qu’il ne s’agit pas d’AGI (intelligence artificielle forte)."


Voir les articles précédents

    

Voir les articles suivants