Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Soutenir les activités de DevOps grâce aux modèles de langage de grande taille

juin 2024 par Markus Eisele, Developer Tools Strategy and Evangelism, Red Hat

Les discours actuels autour de l’intelligence artificielle dépeignent souvent un avenir où chaque citoyen deviendrait surhumain, maîtrisant sans effort n’importe quelle profession grâce à son aide.

Cette croyance dépend toutefois de ce que chacun entend concrètement par « IA ». Les outils tels que ChatGPT, DALL-E ou encore Descript ont souvent été qualifiés, à tort, de systèmes intelligents capables de faire preuve d’autoréflexivité. Il s’agit plutôt de modèles de langage de grande taille (Large Language Models ou « LLM » en anglais), c’est-à-dire de vastes ensembles de données dotés de capacités analytiques et algorithmiques. Sans être des baguettes magiques, les LLM sont des outils puissants capables d’enrichir et d’optimiser les capacités humaines, en particulier dans le domaine du développement de logiciels.

Dans la communauté des développeurs, chacun comprend l’importance de ces outils et perçoit toute la valeur ajoutée que ces derniers peuvent apporter aux entreprises. Ils peuvent réviser des lignes de code en suggérant des modifications, compléter automatiquement des scripts et des playbooks, ou encore tester et déboguer des programmes. Dans le domaine du développement de logiciels, en particulier au sein du DevOps, les LLM vont radicalement changer la donne. En effet, ils offrent une opportunité unique d’optimiser les performances et la productivité, en accélérant le processus de développement et en réduisant la probabilité d’erreurs. Grâce aux LLM, les développeurs peuvent ainsi davantage se concentrer sur les aspects les plus complexes et les plus créatifs de leur travail.

Prenons comme exemple WatsonX, la plateforme de données enterprise-ready, qui comporte des fonctionnalités avancées de LLM. Cette dernière peut analyser de grandes quantités de données pour en tirer des informations pertinentes pour prendre des décisions plus éclairées, mieux évaluer les risques existants et résoudre rapidement les problèmes. Elle peut également tirer des enseignements des incidents passés pour prédire et anticiper les problèmes futurs, permettant ainsi aux opérations DevOps de gagner en efficacité et en fiabilité. De leur côté, les développeurs peuvent également tirer des enseignements des incidents passés, des révisions de code et des journaux système, ce qui leur permet de perfectionner continuellement leurs compétences et d’obtenir de meilleurs résultats.

Par ailleurs, les outils LLM peuvent aider à traduire le jargon technique en langage clair pour les parties prenantes non techniques. Ils peuvent également hiérarchiser les communications – telles que les alertes et les notifications – en fonction de leur compréhension du langage et du contexte, et contribuer à la création, à la maintenance et à la recherche de documentation, pour un partage des connaissances plus efficace. Les LLM vont jouer un rôle clé dans l’amélioration de la collaboration et de la communication qui sont des piliers du DevOps.

Cependant, la prolifération rapide de ces outils peut être déconcertante. Après tout, choisir l’outil qui convient le mieux à ses besoins nécessite d’évaluer minutieusement ses mérites, ainsi que sa compatibilité avec les logiciels existants. Par ailleurs, les questions liées à la provenance des jeux de données d’apprentissage et à leur souveraineté doivent également être abordées. Ainsi, faire le bon choix devient de plus en plus difficile et nécessite l’expérience de développeurs chevronnés qui sont habitués à ce genre de situations.

Au cours des dix dernières années, les développeurs ont vu des changements majeurs s’opérer dans leur milieu, notamment avec l’introduction de concepts tels que les conteneurs, les microservices, le déploiement en continu et l’infrastructure as code (IaC). Aujourd’hui, contrairement à l’image véhiculée par les médias, les développeurs ont conscience que la montée en puissance de l’IA et des LLM ne s’agit pas d’une révolution complète ou d’un changement radical. Il s’agit plutôt d’un nouveau pas en avant, d’une nouvelle avancée technologique, qu’il faut superviser et gérer avec minutie pour bien faire les choses.

L’IA, et plus particulièrement les LLM, sont des outils dont l’utilisation est optimisée entre les mains de personnes expérimentées dans les tâches qu’elles sont chargées d’accomplir. Les avantages potentiels sont énormes. Cela libérerait les équipes DevOps de leurs tâches redondantes afin qu’elles se concentrent sur des initiatives novatrices.
En conclusion, le véritable risque de l’IA n’est pas la crainte exagérée de voir les machines remplacer les humains. Il s’agit plutôt d’une mauvaise compréhension de ce que l’IA et les LLM peuvent et ne peuvent pas faire. En outre, le fait de croire que l’IA (ou un outil se présentant comme tel) pourrait remplacer un professionnel DevOps expérimenté est aussi insensé que de penser qu’un enfant pourrait gagner le prix Pulitzer grâce à ChatGPT. Le DevOps est une entreprise complexe qui nécessite de combiner l’IA avec l’intelligence et la sensibilité émotionnelle. Ainsi, la stratégie la plus efficace n’est pas le remplacement des humains mais la coexistence des humains et de l’IA, en tirant parti des forces amenées par chaque partie prenante pour obtenir des résultats optimaux.


Voir les articles précédents

    

Voir les articles suivants