Intelligence artificielle : des progrès, jusqu’à où ?
La lecture de nos aventures quotidiennes peut parfois nous emmener loin dans les réflexions, selon ce qu’elles évoquent pour nous en fonction de notre « background » théorique.
Par exemple, mes aventures en transport de la semaine dernière m’ont replongée dans les questionnements actuels sur l’intelligence artificielle, dont on entend tant parler. Quel est le rapport avec les transports me direz-vous ?
Nous savons que l’intelligence artificielle se développe maintenant à très grande vitesse et a fait de grands progrès dernièrement (voir à ce sujet l’article Hello future de Orange, qui donne un bon aperçu de la question). On peut supposer qu’elle va être une nouvelle révolution et changer beaucoup d’aspects de notre quotidien, transformer le travail, de nombreux métiers. On ne sait pas encore exactement comment, mais on sait que transformation il y aura. Mais, sans être ni trop pessimiste ni trop optimiste, juste réaliste, ne prête-t’on pas trop de potentialités d’intelligence à cette IA ?
L’humain dans le système
J’ai fait un article dernièrement récapitulant mon parcours utilisateur dans le cas d’usage : usager moyennement expérimenté qui se retrouve bloqué à Paris par les intempéries et doit se débrouiller sur place. L’article était centré sur la lecture ergonomique de ce parcours, sans manques et pistes d’amélioration possibles.
Mais ce qui m’a frappée aussi ce jour-là, c’est que les blocages que j’ai rencontrés sur mon parcours n’ont pu être contournés que par des humains.
Pour rappel, au lieu de rentrer chez moi, je suis allée dormir dans la famille, à Juvisy, et le lendemain ma mission était simplement de retourner à la gare Montparnasse et prendre un train pour rentrer (ce n’est pas Koh Lanta). Mais, ce jour-là, il a juste été difficile pour commencer de rentrer sur le réseau RER, mon ticket valide ne passait pas et m’a bloquée plusieurs fois sur le parcours. A chaque fois, chaque errance ou blocage dans le parcours, ce sont des humains qui m’ont aidée. Pourtant, je suis à l’aise avec la technologie et plutôt débrouillarde en la matière. Mes anciennes collègues peuvent attester que je tenais lieu de premier niveau d’assistance technique sur notre système informatique … 😉
Donc, dans mon parcours, le respect pur de la prescription (si tout était automatisé par exemple, et qu’aucun humain ne soit dans le coin) m’aurait laissée bloquée devant la gare à Juvisy. Ou alors, j’aurais dû faire le tour du quartier à pieds pour trouver hypothétiquement une autre entrée avec une borne à tickets ? Mais le prochain pont pour contourner les voies n’est pas tout près.
Cela m’a amenée à penser, à ce qui se passerait si chaque guichetier qui m’a aidée était remplacé par un robot, robot intelligent certes, comme nous en montrent les dernières expériences d’IA, mais robot tout de même.
Cela peut paraître complètement anecdotique, mon aventure, limite trivial. C’est vrai. Mais dans mon métier, on a l’habitude de naviguer entre le très stratégique et le très basique, des fois le nez sur la machine, bien dans le cambouis et les choses toutes bêtes, matérielles, parce que le diable se cache dans les détails, et que parfois, cela tient à ce genre de chose si l’opérateur est empoisonné dans son travail ou s’il risque un accident, parfois grave. Et dans le domaine de l’expérience utilisateur, on se met à un niveau d’exigence envers le système suffisant pour réellement assurer un parcours utilisateur optimal, pour qu’il revienne, ou pour qu’il achète sur le site, etc. Tout ce qui est trop compliqué, l’utilisateur va le shunter et passer à autre chose. Donc, oui, on peut s’occuper de petits détails qui paraissent parfois insignifiants hors contexte, ou qui peuvent même être loin du niveau d’exigence de l’utilisateur lui-même à première vue (le même qui pourtant, fuira votre site s’il ne trouve pas assez vite ce qu’il cherche).
Intelligence artificielle et improvisation ?
Si l’interface utilisateur n’était qu’artificielle (signalétique, portiques, bornes, robot pourquoi pas), et qu’on trouve anormal le cas où un utilisateur peut être refusé à l’entrée comme je l’ai été, avec un ticket valide, il faudrait programmer à l’avance tous les cas possibles de petits aléas engendrés par le système lui-même. Comment l’intelligence artificielle gérerait-elle ce cas d’usage ? Est-ce possible pour son concepteur de prévoir qu’elle puisse apprendre et gérer une erreur technique du système lui-même ?
Aurait-elle la souplesse humaine et la capacité de gestion de problèmes nouveaux ?
En d’autres termes, est-elle capable de travailler ? Puisque le propre du travail humain, c’est de pouvoir résoudre des problèmes même jamais rencontrés auparavant. En se basant sur son expérience, l’humain apprend, essaie, sait trouver une idée de solution. Il peut se tromper bien sûr, mais il teste. La machine, d’habitude (pour avoir fait un peu de programmation), si le résultat attendu n’est pas le bon à la lettre près, elle remonte une erreur. Et ça s’arrête là si l’on n’a pas prévu le cas. Dans les anciennes machines, cela plantait carrément. La « bombe » plutôt humoristique des premiers Mac… Maintenant, les erreurs sont mieux anticipées par les programmeurs, au pire, la machine ne répond rien à l’utilisateur, mais en général ça ne plante plus tellement. Mais cela ne veut pas dire que l’utilisateur arrive à faire ce qu’il veut. Il reste souvent pris au dépourvu par la machine, qui ne plante pas, mais ne fait pas forcément ce qu’on attend d’elle.
Alors est-ce que l’IA est vraiment ce changement de paradigme qui serait capable d’aller plus loin que ça ? De pouvoir répondre à l’imprévisible ? A tous les cas de figure qui pourraient se rencontrer ? Si mes 2 guichetiers avaient été des robots intelligents, auraient-ils eu l’idée de déroger au système ?
Ou l’IA suppose-t’elle, du point de vue des concepteurs, que le système soit parfait ? Qu’on ait anticipé tous les aléas possibles et imaginables dans le système ? Que la programmation du ticket et du portique aille jusqu’à cette finesse totale où tous les rouages toujours tourneraient ensemble sans jamais accrocher, partout ? Et si l’on résolvait ce cas, n’y aurait-il aucun autre raté technique ?
L’intelligence artificielle dans un système
Un système sans aucun « raté » technique, avez-vous déjà vu cela quelque part ? Le graal du système parfait, je ne sais pas vous, moi je n’y crois pas. Vu le nombre de systèmes techniques qui, sous l’apparence de la belle machine automatisée qu’on nous vante, sont imparfaits et fonctionnent par le système D mis en place par les opérateurs (et sans que l’entreprise le sache, parfois !)…
Le tour à commande numérique, par exemple. C’est un presse-bouton ? Dans certaines usines, oui, peut-être, j’en ai visité où ces machines ne posaient pas de souci apparent. Mais dans celle où j’ai eu l’occasion de les étudier… les opérateurs contournaient les imperfections du système (pas que technique, organisationnel également) pour sortir des pièces, à leurs risques et périls d’ailleurs.
Les machines de tri automatisé dans le marketing direct ? Même chose; le tri automatique, qui devait économiser un opérateur sur la ligne, en fait… ne fonctionnait qu’à moitié, déjà seulement par une astuce du régleur, et en plus, l’opérateur de tri était quand même là pour vérifier, parce que, au final, ce n’était pas fiable du fait du dysfonctionnement non entièrement résolu. Et quand ce n’est pas le système qui dysfonctionne, c’est la matière première qui varie, ou l’usager, ou l’organisation…
Oui, mais, me direz-vous, l’IA, cela va beaucoup plus loin que ça, elle est capable d’apprentissage. C’est vrai, mais dans certaines limites. Mais selon Raymond Kurzweil, l’IA consciente, ou la capacité à intégrer des notions complètement nouvelles à leurs apprentissages, sont encore un mythe.
Pour l’instant, rien ne dit qu’elle sera capable d’improviser, dans un système donné, pour faire face aux aléas, comme nous.
Voyez-vous où je veux en venir ?
L’IA comme opérateur à intégrer dans un système ?
Je n’ai rien contre la technique et les systèmes techniques. A la base ils étaient là pour aider l’humain. Mais ils sont juste plus complexes qu’il n’y paraît. Si ça ne marche pas, ce n’est pas qu’une question de concepteur et d’ingénieur. Pour que ça marche, vraiment, il faudrait que tous les aléas, tous les petits ratés du système soient remontés et traités. C’est la vision de départ du lean management d’ailleurs, une de ses méthodes. Signaler tout de suite les petits dysfonctionnements (andon). Mais cela me paraît être un chantier colossal… et interminable. Puisque le lean parle d’amélioration continue, certains maîtres lean considèrent d’ailleurs que l’amélioration ultime, c’est un objectif, pas forcément atteignable. Et effectivement, l’idée d’un système parfait, avec uniquement des aléas anticipables, gérés … pour moi c’est une asymptote. Le système peut tendre vers la perfection, mais de là à espérer l’atteindre un jour…
Il faudrait déjà qu’on anticipe, dans les projets, tous les cas d’usage possibles. Que le point de vue utilisateur soit central, et même qu’on l’écoute comme le messie. Que l’on teste tout encore et encore avant de terminer la conception. Ce qui tombe bien, c’est que ce n’est rien de moins que ce que les ergonomes proposent de faire. Par contre, nous n’avons pas la prétention de vouloir faire un système parfait, qui serait entièrement programmable, standardisé. Il y a et il y aura toujours des aléas, imprévisibles, qui nécessitent une vraie intelligence. L’utilisateur, ou l’opérateur, au centre, c’est déjà une chose, mais il faut aussi le reconnaître comme capable d’autonomie, capable de décision. Sans non plus le surcharger de décisions, qui ne seraient pas dans son champ de compétences ou de connaissances, et le jettent dans le doute. Le juste niveau de prescription. Pour qu’il soit supporté par le système plutôt que travailler malgré le système.
Il faudrait alors un mode projet, et même un mode de fonctionnement quotidien dans les entreprises qui permette la remontée du travail réel tout le temps, pour que le système se réajuste parfaitement aux besoins du travail, continuellement. Comme c’est assez proche de ce que nous défendons, franchement, pourquoi pas, mais ce serait une vraie révolution de le faire à grande échelle, suffisamment exhaustivement. C’est un changement de culture complet. Celui qu’on essaie d’instiller petit à petit, dans les vraies démarches Qualité de Vie au Travail par exemple … mais nous en sommes encore loin ! Réussir à parler du travail réel, si c’est l’enjeu porté par l’IA pour qu’elle puisse fonctionner, au moins cela donnera peut-être des choses intéressantes.
Quelle IA pour quel système ?
Alors au bout, à votre avis, l’IA, va-t’elle dans le sens d’un système que l’on souhaiterait parfait, gérable à la lettre par une machine « intelligente », apprenante mais dans certaines limites, ou dans le sens d’un système, dont on sait qu’il va garder des aléas, et construit pour être géré par une vraie intelligence ?
Si l’IA est vraiment intelligente, capable d’apprendre, sera-t’elle capable de bien apprendre ? Quels seront ses mécanismes d’apprentissage ?
Ou sera-t’elle d’une intelligence purement et uniquement logique, comme l’ordinateur capable de battre le meilleur joueur d’échecs ? Celui qui apprend le jeu de Go et devient le meilleur des essais précédents, apprend certes seul, mais ne se programme pas encore tout seul… ce sont des humains qui l’ont doté des améliorations nécessaires. https://www.lexpress.fr/actualite/sciences/intelligence-artificielle-alphago-zero-le-nouveau-champion-qui-apprend-seul_1953793.html
Il semble pour le moment qu’il y ait toujours une limite de périmètre dans lequel la machine apprend. Puisqu’elle n’est pas vivante, et ne se transforme pas elle-même.
Même le directeur de la recherche d’Orange précise que pour l’instant, l’IA est encore loin de ce que peut faire un humain.
L’IA en collaboration avec l’humain
Ce qui se dessine en tout cas, c’est qu’on en sait pas bien jusqu’où elle ira, mais il faudra bien travailler avec.