Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Sept défis que l’IA peut (en partie) résoudre pour les entreprises

juillet 2024 par Hans Roth, SVP & General Manager, EMEA, Red Hat

Les origines de l’intelligence artificielle (IA) remontent aux années 1950 ; si l’IA s’est perfectionnée au fil du temps, cette progression s’est faite selon un rythme relativement lent, comparé à d’autres technologies comme la téléphonie, les ordinateurs domestiques ou encore Internet.

A présent, l’IA semble accessible à tous, et le secteur de la tech entre dans une nouvelle ère ; celle où il faut se demander de quelle manière l’IA peut permettre d’en faire davantage avec moins de moyens. Appliquer l’IA à des tâches quotidiennes, comme l’écriture, la création d’images ou la production de musique, représente un tournant décisif dans la prise de conscience de l’intérêt de cette technologie pour le grand public.

Car au-delà du battage médiatique qu’elle suscite, il faut considérer l’IA comme n’importe quelle autre technologie : tout simplement un outil qui permet de résoudre des problèmes et de saisir de nouvelles opportunités. A l’image du cloud qui a apporté une réponse au défi de l’évolutivité, de la blockchain qui a aidé à résoudre les problèmes de centralisation ou des logiciels de publicité numérique qui ont permis de s’assurer que les budgets marketing étaient alloués de manière plus efficace, l’IA doit être jugée en fonction des résultats qu’elle produit.

Quels sont les défis que l’IA permet de surmonter et quelles sont les opportunités qu’elle permet de saisir ? Ce débat s’articule avant tout autour de sept défis essentiels auxquels les entreprises doivent faire face.

1. Efficacité versus innovation : Dans leur quête d’efficacité opérationnelle, les entreprises se retrouvent souvent forcées d’en faire davantage avec moins de moyens. Maximiser les résultats en s’appuyant sur des équipes réduites nécessite de mieux tirer parti des compétences existantes, tout en comblant les lacunes en matière de connaissances, en développant de nouvelles compétences et en créant les conditions qui permettront d’innover de manière sobre.

2. Gérer la complexité : La marche inexorable de l’innovation logicielle porte en elle un potentiel de progrès illimité, mais peut aussi s’accompagner d’une complexité inextricable. Chaque nouveau système, chaque nouvelle intégration génère des risques propres : menaces à la sécurité, perturbation du service ou pics soudains de la demande. De plus, la popularité du cloud hybride peut contribuer à alourdir cette charge. Même si les systèmes de monitoring d’événements leur offrent un certain degré de contrôle, les équipes informatiques peuvent rapidement être dépassées par l’allure à laquelle se développent leurs écosystèmes, ainsi que les volumes des données qu’elles doivent gérer.

3. Favoriser l’automatisation : Afin de surmonter les deux précédents défis, l’automatisation est devenue une priorité essentielle. Favoriser l’automatisation permet de libérer les équipes des tâches quotidiennes répétitives et de redéployer les ressources pour qu’elles puissent se consacrer à des projets à plus forte valeur ajoutée. Néanmoins, l’automatisation soulève plusieurs questions : qu’est-ce qui doit être automatisé ? À l’aide de quel outil ? Et comment s’assurer qu’elle fonctionne de manière fiable ?

4. Mettre à l’échelle en fonction de la demande : La difficulté qui consiste à travailler avec des ressources limitées n’est que l’un des multiples obstacles auxquels sont confrontées les équipes informatiques. Elles sont également tenues de mettre à l’échelle leurs opérations pour répondre à la croissance exponentielle de la demande en matière d’applications et de services. Or, lorsqu’il s’agit de suivre l’évolution de la demande en matière d’approches DevOps et de véritables environnements de production, il ne suffit pas de rendre possible leur implémentation, il faut également savoir comment les gérer une fois qu’ils sont mis en place.

5. Connecter la périphérie : Et si les points ci-dessus ne représentaient pas un défi suffisamment complexe pour les départements informatiques, l’avènement de l’informatique en périphérie – ou edge computing – vient encore leur compliquer la tâche. Les datacenters ne font plus office de centres névralgiques uniques où le traitement des données s’opère exclusivement. En outre, la périphérie des réseaux ne constitue pas simplement un nouvel emplacement sur lequel ces calculs s’effectuent ; elle implique une approche entièrement différente. Le dilemme qui consiste à déterminer comment mettre en place des normes concernant le traitement, l’accessibilité et la sécurisation des données pour les infrastructures et les machines en périphérie des réseaux – qui sont par définition variées et disparates – est au cœur de cet immense défi.

6. Trouver l’équilibre entre innovation et sécurité : L’innovation débridée représente un risque pour la sécurité. A contrario, les excès de zèle en matière de sécurité peuvent étouffer les velléités novatrices et restreindre les moyens qui pourraient mener à la création de solutions nouvelles. Les entreprises doivent par conséquent se positionner sur ce spectre et ajuster constamment leurs opérations et leur culture pour s’y adapter. L’intégration de capacités et de protocoles de sécurité au sein de la chaîne d’approvisionnement logicielle permet d’éviter d’opposer sécurité et innovation. Cette approche permet de les rendre complémentaires et offre aux développeurs les assurances dont ils ont besoin en leur donnant confiance dans le fait qu’ils travaillent au sein d’un environnement sûr.

7. Planifier pour un développement durable : Les gouvernements, les actionnaires, les clients et les collaborateurs exigent plus que jamais des entreprises qu’elles assument leurs responsabilités en matière de développement durable. Toutefois, cela peut contribuer à envoyer des signaux contradictoires aux équipes informatiques ; d’une part, elles sont tenues d’en faire davantage et d’autre part, elles doivent faire des économies d’énergie. La clé réside dans la capacité à mettre en œuvre un suivi et un reporting concernant les informations relatives à la durabilité et de modifier les habitudes de travail afin de mettre en place des pratiques plus durables.

L’IA est un outil versatile qui permet d’aider les entreprises à répondre à ces multiples défis. Toutefois, ces derniers n’ont pas simplement en commun le fait que l’IA peut leur être appliquée, mais également que celle-ci ne suffit pas à les surmonter seule. Bien au contraire, l’humain représente la véritable arme secrète pour parvenir à cela. Sans êtres humains capables de détecter, prioriser, mettre au point et évaluer les solutions apportées à ces problèmes, l’IA n’aura au mieux aucun impact et, dans le pire des cas, elle s’accompagnera de conséquences profondément négatives.

C’est un élément-clé que les dirigeants doivent prendre en compte : la qualité d’une IA dépend des données qui ont servi à entraîner le modèle. Leur simple volume ne devrait pas être considéré comme un critère. En réalité, il est beaucoup plus important de se concentrer sur la pertinence de ces données dans le contexte spécifique de l’entreprise.

Cette approche est désignée sous le nom « d’IA spécifique à un domaine » et représente un tournant majeur dans le développement de cette technologie. Lorsqu’une application d’IA est entraînée à l’aide de données privées et ciblées et qu’elle est personnalisée pour se conformer aux normes et aux pratiques d’une entreprise ou d’un secteur spécifique, elle est mieux à même de proposer des services véritablement uniques et différenciés.

L’open source est de loin le meilleur moyen pour mettre au point des solutions d’IA spécifiques à un domaine. En effet, tous les logiciels ouverts bénéficient d’échanges d’idées plus étendus et de la collaboration de talents plus nombreux. Or presque tous les outils d’IA à destination des entreprises qui me viennent à l’esprit sont un exemple de technologie open source (incluant ChatGPT !) La raison pour laquelle les dirigeants sont encore sceptiques et inquiets à l’idée d’adopter cette approche repose sur un malentendu concernant la définition de ce qu’est véritablement l’open source. En réalité, cela consiste simplement à ouvrir et à mettre à la disposition de tous le code de base d’un logiciel ou d’une application d’IA, afin que chacun puisse l’étudier et le partager. Les données qui ont servi à l’entraîner et qu’il génère peuvent demeurer aussi confidentielles que le souhaitent ses créateurs.

En définitive, la véritable puissance de l’IA ne réside pas uniquement dans ses algorithmes, mais également dans les synergies entre analyses humaines, collaboration, pertinence des données et traitement informatique. Les dirigeants qui prennent conscience de cette vérité fondamentale seront rapidement en mesure de positionner leur entreprise à l’avant-garde de cette nouvelle mouvance.


Voir les articles précédents

    

Voir les articles suivants