Blog

L’IA de 3° génération: la révolution de l’IA

Posted by Jean-Luc Bernard on 20/09/22 15:06

Nul ne peut ignorer désormais la quasi omniprésence de l'intelligence artificielle. Elle est partout, de nos applications quotidiennes de pratique sportive ou d’alimentation jusqu’aux systèmes d’aide à la décision des plus grandes entreprises, en passant par les plateformes de reconnaissance visuelle ou sémantique. 

L’IA, les IA, représentent aujourd’hui une industrie de plusieurs milliards d’euros, en croissance extrêmement dynamique.

Elle change radicalement la façon dont nous vivons et travaillons.

Elle impacte l’organisation des entreprises, leur fonctionnement, les compétences qu’elles recherchent. Et ce mouvement de transformation n’en est qu’à ses débuts. 

Et pourtant, on ne peut pas négliger le fait que beaucoup soulignent que l’IA aujourd’hui n’existe pas vraiment et notamment Luc Julia, le co-créateur de SIRI. 

Et effectivement, l’immense majorité des systèmes d’IA à l’oeuvre à date: 

- ressortent plus de systèmes d’automation, d’arbres de décisions, liées à un très lourd travail nativement biaisé et incomplet, 

- ou dépendent d’un calcul statistique qui en limite un usage pertinent aux phénomènes fortement majoritaires -ceux qui assurent une probabilité d’une fiabilité satisfaisante - et est dans l’incapacité de rendre compte de ce qui est en fait largement majoritaire: une myriade de micro phénomènes. 

- imposent un énorme travail de définition et d'étiquetage de catégories, réalisé par... des armées humaines. Rappelez-vous les critiques de l’opinion il y a quelques mois, se plaignant du fait que les équipes Alexa nous “écoutaient”. Evidemment. Elle en a besoin pour progresser. 

Certes, l’IA est déjà puissante, mais son véritable potentiel reste à déployer. Loin des phantasmes de “bonne conscience” ou des “marronniers" sur l’éthique.  

Dans un très intéressant article paru il y a quatre ans déjà, Scott Jones (co-fondateur de Six Kin Dev. et Maître de conférences au ​​Singapore Institute of Technology)  distinguait 4 vagues d’IA:

  • La 1° vague, qu’il situe des années 70 aux années 90 et qu’il dénomme GOFAI (Good Old Fashion AI) développait des IA basées sur des règles paramétrées par l’humain. Il parle ici des arbres de décisions, des bots. Capables d’appliquer la volonté du concepteur mais incapable d’apprendre ou de généraliser. Elles constituent encore aujourd’hui la très grande majorité des systèmes d’IA en oeuvre et notamment des systèmes d’aide à la décision. Elles sont encore majoritairement utilisées en matière de personnalisation ou de service client. 
  • La 2°, l’actuelle, des années 90 à nos jours, se révèle selon lui, capable d’apprendre mais limitée en raisonnement et en capacité à généraliser. C’est la vague du machine et du deep learning. Basées sur l’apprentissage statistique et utilisant des réseaux de neurones “profonds”, elles sont particulièrement utilisées en traitement avancé du texte, de la parole, du langage et de la vision. Et, à tort, en matière de personnalisation.

Son avis est tranché: “La technologie commerciale actuelle de l'IA entre carrément dans la catégorie des "IA étroites", c'est-à-dire des systèmes hautement spécialisés qui sont très bons pour des tâches spécifiques et bien définies... et rien d'autre. Même les véhicules autonomes, aussi impressionnants soient-ils, utilisent un ensemble de systèmes d'IA étroits. Si vous preniez le logiciel d'une voiture autonome et que vous le mettiez dans une voiturette de golf, il serait inutile sans reprogrammation. En revanche, tout humain qui a appris à conduire une voiture peut monter dans une voiturette de golf pour la première fois et n'avoir aucun problème à naviguer sur les fairways. C'est bien sûr parce que les humains sont très bons en abstraction - nous pouvons facilement généraliser les solutions et les appliquer à des problèmes similaires mais différents. Les systèmes d'IA contemporains ne peuvent pas le faire.”

Ils savent simplement déduire et non induire comme le cerveau humain.

Il décrit ensuite une 3° vague, qui mettra en œuvre des systèmes qui seront capables de perception, de raisonnement et, surtout de généralisation. C'est-à -dire de la capacité à apprendre à partir d’une seule expérience, comme l’être humain, et non à partir de l’émission d’une probabilité par traitement statistique d’un grand nombre d'occurrences. 

Pour lui: “Les systèmes d'IA de la troisième vague présenteront des améliorations spectaculaires, notamment dans leur capacité d'adaptation contextuelle. Ils comprendront le contexte et le sens, et seront capables de s'adapter en conséquence. L'IA de la troisième vague reconnaîtra non seulement un chat, mais sera en mesure d'expliquer pourquoi c'est un chat et comment il est arrivé à cette conclusion - un pas de géant par rapport aux systèmes de "boîte noire" d'aujourd'hui.”

Et il imagine même  une 4° vague, “capable d'accomplir n'importe quelle tâche intellectuelle qu'un être humain peut accomplir”. Il y voit une Intelligence Générale Artificielle menant éventuellement à la Superintelligence artificielle et à la “Singularité technologique”. Peut-être.

L’IA Inductive de Netwave, brevetée dans 43 pays, appartient à cette 3° vague d’IA. 

Contrairement aux systèmes de machine et deep learning, son système de raisonnement inductif lui permet d’apprendre d’une seule expérience et de généraliser à partir de celle-ci. C’est fondamental en matière d’interaction digitale en temps réel. 

Le saut le plus important est sans aucun doute cette capacité à généraliser qui manque totalement au machine learning. Sur le web, qu’il s'agisse de commerce, de contenus, de publicité, vous ne pouvez pas attendre qu’un comportement soit devenu dominant dans votre base d’apprentissage pour le généraliser. 

Vous y perdrez des mois de ventes, de lecture, de clics.

Petit rappel des notions d’induction et de déduction:  

- Quand vous déduisez, vous appliquez des règles pré-prédéfinies à des cas particuliers pré-définis. Dans le cas des systèmes d’IA étroites de la 2° vague, la pré-définition des règles et des cas se fait par traitements statistiques plus ou moins périodiquement actualisés.

- Quand vous induisez, vous généralisez ce que vous avez vécu dans 1 cas particulier. Et vous donnez à cette généralisation une valeur relative: vous acceptez de la remettre en cause quand vous vivez une expérience différente. On pourrait dire que l’IA Inductive est une IA “agile”. Elle travaille en itérant et en se remettant en cause en permanence.

Pour être complets, il nous faudrait rajouter un 3° mécanisme cognitif: l’abduction. Pour faire simple, c’est la même chose que l’induction mais, au lieu de donner une valeur relative à l’expérience vécue, vous lui donnez une valeur absolue: “Tous les garagistes sont des voleurs”... Mille excuses aux garagistes ou aux enfants de garagistes qui me liront mais l’exemple parlera. 

Les avantages de l’IA Inductive, celle qui est capable de généraliser à partir d’une expérience, en matière de personnalisation en environnement web, sont spectaculaires:

  • plutôt que de vous contenter de quelques dizaines de segments pré-définis - dans le passé- pour “décrire” votre visitorat, l’IA Netwave identifie 85000 situations différentes tous les 1 million de visites et arrive à en exploiter 16000. 
    • Vous n’êtes plus dans l’automatisation de règles pré-définis mais dans une réelle individualisation,
    • Vous identifiez en temps réel, les nouvelles situations, là où il vous aurait fallu attendre un nouveau processing pour les détecter,
    • Le temps réel vous permet de ne pas présupposer le besoin de votre visiteur mais de l’identifier réellement et d’être en mesure de prendre en compte l’évolution de votre visiteur entre deux visites et en cours même de visite. 
    • Vous identifiez les besoins de la “longue traîne des comportements” ceux qui, en tant que groupes distincts, concernent chacun peu de visiteurs, mais dont la somme peut représenter jusqu'à 80 % de vos achats. C'est-à-dire l’essentiel de votre CA…
    • La granularité de l’analyse de situation (16000 situations tous les 1 million de visites) vous permet d’augmenter spectaculairement la pertinence de votre personnalisation, 
    • La généralisation à partir des situations identiques les plus récentes vous permet de reproduire les nouvelles tendances, les comportements émergents, immédiatement, sans perdre des semaines ou des mois à attendre qu’ils aient acquis une position majoritaire dans votre base d’apprentissage. Plutôt que d’appliquer au visiteur la règle applicable au segment auquel vous l’avez rattaché, issue d’une probabilité statistiquement pré-calculée, vous généralisez ce que vous avez vécu le plus récemment dans la même situation.
  • Vous n’êtes plus dépendants d'énormes ensembles de données d'entraînement. Savez-vous qu’un algorithme typique d'apprentissage automatique dédié à la reconnaissance des chiens, par exemple, doit être alimenté par des dizaines de milliers d'images de chiens avant d'atteindre un niveau de précision acceptable, ce qu'un enfant de trois ans peut atteindre après avoir vu seulement quelques exemples.
  • Votre base d’apprentissage restera d’une dimension très raisonnable puisqu’elle exploite en priorité les données les plus récentes et vous vous rangerez dans la catégorie des dirigeants responsables en ne dépensant plus des fortunes en énergie, bande passante et stockage pour héberger des données et processer des modèles qui ne vous serviront que faiblement à comprendre votre visiteur quand il se connecte à votre site et à personnaliser son parcours.
  • Vous n’êtes plus soumis à cette “boîte noire” de la modélisation statistique où, quand on applique une règle- de personnalisation-produit par exemple- , le système n’est pas en mesure de vous expliquer pourquoi autrement que par “Parce que le visiteur appartient au segment auquel cette règle doit être appliquée". Là le système peut vous montrer 1/ en quoi la situation était identique 2/ ce qu’ont fait les visiteurs dans cette situation identique.

Pour Scott Jones: “Cela permettra à la prochaine génération d'IA de surmonter la nature fragile des systèmes d'apprentissage automatique d'aujourd'hui, qui fonctionnent bien dans la majorité des cas mais peuvent échouer de manière spectaculaire lorsqu'ils sont confrontés à un cas qui ne correspond pas à leur modèle de formation. Un exemple tragique en est le décès récent d'un piéton à Tempe, en Arizona, qui a été heurté par une voiture autonome Uber après que l'IA embarquée n'ait pas réussi à identifier le piéton à temps pour prendre des mesures préventives.”

JL Bernard / CEO Netwave

Topics: Intelligence Artificielle

Restez informé avec le récap hebdo

Articles récents