Lean et IA ?

Lean et IA ?

Dans le monde de la tech, il semble chaque semaine plus difficile d’ignorer les annonces liées à l’IA. Salesforce annonce 4.000 licenciements, Amazon 14.000, Accenture quelques milliers. Dans le même temps, on voit des startups passer de 0 à 50 millions de revenus annuels récurrents en quelques mois avec quelques dizaines d’employés seulement. Et tout cela dans le contexte d’un battage marketing colossal qui laisse peu de place à autre chose.

Pour le penseur lean, dont le monde tourne autour du développement du capital humain, voilà qui pose question. A quoi ressemble le travail dans 2 ou 3 ans si tout est automatisé ? Que devient l’apprentissage quand chacun a accès à un instructeur doté d’un niveau de doctorant dans la plupart des disciplines, qui est disponible 24/24 et se montre infiniment patient, même s’il n’est pas toujours fiable ? Que devient le lean aux yeux du CEO quand les sirènes d’une automatisation sans limites sonnent aussi fort ?

Comme le disait William Gibson, le père de la littérature cyberpunk, “Le futur est déjà là – il n’est juste pas uniformément réparti”. L’impact pour un restaurant ou un salon de coiffure est bien moindre que pour une startup. Dans la tech, le service client est bien sûr touché de plein fouet, tandis que le métier du développement logiciel subit lui aussi une révolution profonde. Le logiciel a en effet été choisi comme un cas d’utilisation privilégié par les géants de l’IA, et je m’attends à ce qu’il augure de ce qui attend les suivants dans la liste : la finance, le marketing, le droit, la médecine, etc.

Plutôt que d’aborder le phénomène en spectateur, j’ai décidé de l’étudier en profondeur et j’ai profité de l’été pour me mettre à coder avec une IA. Un peu plus de 400 heures plus tard, quelle claque ! Kent Beck, le créateur d’Extreme Programming, disait avant l’été qu’il n’avait jamais autant pris de plaisir à faire du logiciel – je suis assez d’accord avec lui.

En 6 mois, nous sommes passés de “ça complète tout seul des lignes de code et des fonctions entières” et “je pose des questions techniques complexes dans le chat” à “je donne des spécifications et l’IA fait le code”. C’est encore plus impressionnant quand on dispose de tests automatisés : l’IA écrit le code, voit les tests qui échouent, fait des corrections, relance les tests, et recommence ainsi pendant parfois plus de 10 minutes jusqu’à ce que la tâche soit terminée.

Ce qui surprend le plus au début est de voir la machine “penser tout haut” et poser des raisonnements. Un extrait au hasard :

“Attends, mais ça va nous donner le même problème qu’avant – on va avoir une nouvelle ligne supplémentaire ! Le problème est que le replacement_content du test commence par ‘\n\n’, donc si on inclut une nouvelle ligne dans before_content, on obtient 3 nouvelles lignes au total.

Laisse-moi vérifier l’attente du test plus attentivement. En regardant le test 5, le replacement_content est ‘\n\nNew pricing: $10\n\n’. Donc il commence par DEUX nouvelles lignes. Si on inclut UNE nouvelle ligne provenant de before_content, on obtient un total de 3 nouvelles lignes après ‘# Start’.

Mais le résultat attendu ne montre que 2 nouvelles lignes après ‘# Start’ ! Donc l’attente du test suppose qu’on n’inclut PAS la nouvelle ligne de fin de l’ancre dans before_content.

Mais alors comment obtient on ‘# Start\n’ comme premier événement émis ? Oh! Peut-être que la méthode streamContent est responsable de l’ajouter ?

En fait non – en regardant mon implémentation de streamContent, elle trouve les nouvelles lignes et les émet. Donc si before_content est ‘# Start’ (sans nouvelle ligne), streamContent émettra juste ‘# Start’.”

Faut-il pour autant en conclure que le capital humain est obsolète ? Il ne fait aucun doute pour moi qu’il a au contraire de beaux jours devant lui. Dans les faits :

  • Comme l’IA produit vite beaucoup de code, on va plus vite vers des systèmes plus complexes dont elle ne se sort pas toute seule. Il est toujours aussi important d’avoir un humain pour prendre de la hauteur et orienter vers les bons choix d’architecture, les bons choix produit.
  • A l’image du protagoniste du film Memento, l’IA souffre de troubles sévères de la mémoire immédiate : toutes les 10-15 minutes elle arrive à la limite de sa “context window”, ce qui oblige à prendre quelques notes, vider sa mémoire, et repartir comme si elle découvrait le projet.
  • L’IA est très sensible à tout ce qu’elle voit passer : quand on veut changer d’approche dans du code existant, elle se laisse influencer par le code qu’elle est en train de modifier et ne tarde pas à se mélanger les pinceaux entre la solution cible et la situation actuelle.
  • Quand on veut intégrer l’IA dans un service, l’effet démo est très vite impressionnant, mais le coût pour obtenir un résultat fiable est exponentiel. C’est le “dirty little secret” dont les géants de l’IA ne font guère la publicité.

En pratique, le résultat de tout cela, c’est que l’IA fait des erreurs dans tous les sens. J’ai d’ailleurs rarement fait des résolutions de problèmes à une telle fréquence : clarifier le problème, établir les faits, poser des hypothèses, confirmer les hypothèses, en tirer des conclusions – et petit à petit en apprendre davantage sur le système, sur la technologie, sur les choix produits.

Et ce que j’observe, c’est que sans la capacité humaine à faire cela, la machine est vite bloquée.

En réalité, cette notion même d’intelligence est à prendre avec des pincettes. Richard Sutton, l’un des pères du reinforcement learning (la phase “d’alignement” au cours de laquelle on apprend au modèle à suivre les instructions et orienter les réponses en fonction des attentes de l’utilisateur), explique que l’IA n’est pas “intelligente” car il lui manque :

  • une intention
  • la capacité à apprendre par essai-erreur (les outils actuels le simulent autant que possible, mais en surface).

Bien entendu, les géants de l’IA ont tout intérêt à maintenir le mythe d’une super-intelligence qui a pour premier mérite de soutenir leurs valorisations obscènes. Il faut aussi tenir compte du fait que les progrès restent rapides et la situation va évoluer – après tout, les géants de l’IA investissent collectivement un milliard de dollars par jour sur le sujet. Mais à ce stade, il me semble que la métaphore utilisée par Andrew Ng, le fondateur de Coursera, est un modèle mental plus riche : pour lui, “AI is the new electricity”, une nouvelle force motrice qu’il faut apprendre à maîtriser. De la même manière qu’on se branche à une source électrique pour mouvoir une machine, on se branche à un “flux de tokens” pour réaliser des tâches.

En pratique, j’observe que l’IA est essentiellement une compétence à acquérir. Comme diraient les financiers, nous passons ces mois-ci par une phase d’arbitrage – il y a sans conteste des gains à aller chercher quand certains sont en avance sur d’autres, mais à mesure que la pression évolutionniste va s’appliquer sur l’ensemble des entreprises, le niveau de jeu va monter pour tous.

Un élément d’inquiétude persiste pour les jeunes qui entrent dans la vie active – on parle d’une chute de 16 à 20% des recrutements d’ingénieurs débutants dans la Silicon Valley. Mais quand je vois la progression de mon fils, qui code un jeu chez moi largement avec le support de l’IA, je vois un jeune adulte qui sait utiliser l’IA comme un outil pour répondre à ses questions et explorer des sujets de plus en plus vastes pour apprendre bien plus vite que je ne l’aurais fait à son âge. La question reste bien sûr de savoir qui fera encore l’effort d’apprendre, mais n’avons nous pas déjà le problème aujourd’hui ?

Cela nous amène à une forme de paradoxe. D’un côté, oui, l’IA change tout – c’est sans nul doute une révolution du même ordre que celle portée par internet. Mais de l’autre côté, une fois passée la phase d’émerveillement, tout reste pareil. Il faut plus que jamais savoir :

  • comprendre les attentes des clients
  • mener des résolutions de problèmes solides
  • mener des activités de kaizen, c’est-à-dire trouver du potentiel, analyser les pratiques existantes, imaginer des solutions ingénieuses et monter des plans d’expérimentations solides
  • travailler en équipe, négocier
  • etc.

Bref, au lieu de se demander lean ou IA, peut-être pourrait-on partir des problèmes que l’on cherche à résoudre chez nos clients, et prendre l’IA comme une compétence à développer pour améliorer notre capacité de kaizen ?

Et sur le gemba ?

Si vous voulez vous faire une idée de ce que cela donne en pratique, voici par exemple ce qu’écrit Claude Code après avoir passé 10 minutes à corriger des tests automatiques :

Et voici les types de raisonnements faits par l’IA, qui pense tout haut, lance les tests et fait des modifications d’elle-même dans le code :

Tout est loin d’être rose, et les résolutions de problèmes abondent. Je vous présente ici une pièce que j’ai nommée “RDP velue” dans mes notes – tout est écrit par l’IA, mais je guide à chaque étape :

Au quotidien, je me retrouve souvent à faire ceci :

Bien entendu ce n’est pas l’IA qui me pousse à poser des résolutions de problèmes de ce type. C’est le même choix que celui que chacun doit déjà faire au quotidien.

Régis Medina

Abonnez-vous à Articles ILF sur LinkedIn

Publier un commentaire

You must be logged in to post a comment.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Les données collectées par ce formulaire vous permettent de déposer un commentaire sur cet article.
Pour connaître et exercer vos droits, notamment de retrait de votre consentement à l'utilisation des données collectées par ce formulaire, veuillez consulter notre politique de confidentialité.