Intelligence artificielle: la double voie.

Fondements de la situation présente

De tout temps, l'homme a voulu chercher à expliquer le monde qui l'entourait.

Les efforts d'explication  rationnelles[1] ont suivi essentiellement deux approches de la connaissance du monde:

L'approche logique

L'approche analogique

La première, recherche les relations logiques essentielles qui peuvent exister entre des éléments de connaissance fondamentale. Le progrès consiste, dans cette optique, en la découverte de connaissances de plus en plus élémentaires, combinées par des règles logiques de plus en plus élaborées.

La seconde, recherche une explication du monde dans des analogies fonctionnelles ou structurelles avec des phénomènes considérés, à tort ou à raison, comme connus. Le progrès ici réside dans un raffinement des analogies permettant au modèle de s'approcher de plus en plus de la réalité.

C'est pour reprendre les termes de Pascal, "l'esprit de géométrie" et "l'esprit de finesse".

La connaissance de l'intelligence

Parmi les nombreux objets de notre curiosité, la compréhension de l'intelligence et des comportements qui la signalent occupe une place privilégiée. On retrouvera dans cette quête de la  connaissance les   mêmes deux courants: logiques et analogiques. Certains savants cherchaient à comprendre les  mécanismes  élémentaires du raisonnement essayant d'en poser les équations fondamentales, pendant que d'autres essayaient de l'imiter en inventant des analogies, souvent inspirées des technologies les  plus avancées de leur époque.

Un exemple, assez proche de nous, illustre cette diversité dans l'approche du problème de l'intelligence: partant des lois mathématiques Pascal inventait sa machine à calculer, qui pouvait remplacer le  raisonnement du calculateur humain par une analyse des mécanismes mêmes de l'addition. Dans le  même temps, d'autre savants essayaient de mimer des comportements animaux au travers   d'automates, conscients de leur incapacité à approcher le comportement intelligent humain.

L'efficacité de l'approche logique en permettait un usage dans les domaines du commerce et du calcul scientifique alors que tout les efforts des inventeurs d'automates semblaient n'avoir d'intérêts que dans les salons mondains.

Les débuts des modèles informatique de l'intelligence

Environ deux siècles plus tard, l'approche analogique allait reprendre de l'intérêts.

Les électriciens avaient à ce moment là des théories puissantes sur les phénomènes électriques et en tiraient des modèles fort performants de calcul: le calcul analogique. En effet là où les méthodes  logiques demandaient des calculs savants, le calcul analogique offrait des solutions simples et élégantes.  Par exemple en calcul trigonométrique pour faire la somme de deux fonctions sinusoïdales, il suffisait de représenter ces fonctions par des courants électriques et d'en faire la somme puis de retransformer ce courant en une courbe sinusoïdale.

Les calculateurs analogiques eurent alors leurs heures de gloire. Ils avaient toutefois des défauts: la somme de deux nombres pouvait utiliser l'analogie simple suivante les nombre seraient représentés par  des intensités électriques proportionnelles aux nombres, pour faire la somme il suffisait d'additionner les  courants. Mais la qualité des mesures électriques limitaient la précision des calculs. De plus il fallait  aussi faire des prouesses d'astuce pour trouver des analogies électriques à certaines opérations  complexes.

Les premiers grands calculateurs fonctionnant de manière logique se heurtaient encore à des contraintes technologiques et théorique qui les rendaient peu performants. Les circuits de type logique faisaient appel à des lampes similaires à celles utilisées en radio, ils étaient peu fiables et surtout trop encombrants.

L'apparition du transistor allait résoudre les problèmes technologiques qui limitaient les approches logiques. Ces dernières avaient par ailleurs fait des progrès fondamentaux sur le plan théorique qui allaient guider, et guident encore de nos jours la plupart des systèmes informatique.

Mais, me direz vous, cela est de l'histoire ancienne et nous n'avons pas encore entendu parler d'Intelligence Artificielle (I.A.). La raison de ce prologue est que l'I.A. dont nous allons parler à présent se partage aussi en deux courants de pensée hérités des approches logiques et analogiques.

Définition de l'Intelligence Artificielles

Le terme d'intelligence Artificielle est apparu au début des années soixante dans les milieux de la recherche universitaire. Il était évident que malgré le nom de "cerveau électronique" souvent attribué aux ordinateurs de l'époque, ces derniers n'étaient doués que d'une très faible intelligence. Tout comme  les "idiots savants" ils pouvaient exécuter des multiplications ou des divisions de nombres énormes  mais étaient totalement incapables de savoir si, pour résoudre le problème, il fallait employer la  multiplication ou la division.

Il existe toute une panoplie d'exemples de réponses totalement idiotes données par des programmes informatiques, dans tout les cas il s'agit de l'oubli par le programmeur d'une condition élémentaire.

Un des buts de l'I.A. fut donc de faire que l'ordinateur puisse non seulement effectuer des opérations complexes mais de choisir lesquelles effectuer.

Un autre but de l'I.A. fut aussi de résoudre des problèmes qui ne s'expriment pas facilement par des calculs numériques par exemple le traitement de l'image ou de la voix.

Enfin, une grande partie des recherches en I.A. visent à améliorer notre connaissance des processus de pensée. A ce titre, l'I.A. est une science pluri-disciplinaire. Elle fait appel aux connaissances

informatiques, mathématiques, physiques, neurologiques, psychologiques et linguistiques.

Les Intelligences Artificielles

Ce vaste domaine ainsi succinctement définit, a été et continue d'être abordé selon les deux types d'approches évoquées auparavant: l'approche logique et l'approche analogique.

dans ce domaine de l'Intelligence Artificielle on parlera plutôt d'approche Symbolique, ou encore de  représentation formelle des connaissances. Pour l'approche analogique, on parle de Perceptrons, de  réseaux Neuronaux Artificiels ou encore de machines connectivistes.

La première de ces approches essaie de décomposer les comportements intelligents en éléments aussi fins que possible puis de les recombiner au travers de règles logiques.

La seconde approche essaie d'imiter les comportements intelligents en mimant le fonctionnement du cerveau humain, ou tout au moins ce que l'on en connaît.

L'I.A. Symbolique ou formelle

Les chercheurs s'attachent ici au problème du traitement symbolique des connaissances, par opposition au méthodes classiques de l'informatique qui traitent de manière numérique des données.

Par exemple:

"Le volume de l'eau augmente quand elle gèle"

"L'eau gèle au dessous de 0 degrés"

"L'eau, liquide ou gelée, est incompressible"

"Le verre est cassant"

Sont des connaissances que l'on peut enregistrer dans l'ordinateur.

en revanche

"Une température égale à -1 degrés"

"Une quantité de 1 litre"

Sont des données.

Le but de l'I.A. est d'arriver à utiliser les connaissances enregistrées et d'en tirer les conséquences au travers de règles logiques.

Par exemple:

"Si un corps est incompressible"

"S'il occupe entièrement la place disponible dans le contenant"

"Si son volume augmente"

"Si le contenant est fermé"

"Si le contenant est cassant"

"alors le contenant casse"

Problème que se passera-t-il si nous mettons de l'eau dans une bouteille en verre, que nous la bouchons et que la température descend à -1 degrés?

Il s'agit de retrouver les connaissances élémentaires et de les traiter avec les règles logiques de manière à en tirer la bonne conclusion.

Cet exemple trivial nous montre que même un problème très simple demande une description très poussée des connaissances élémentaires. Si une des connaissances est absente, le résultat sera erroné ou au mieux incomplet. Si la règle est incomplète ou une des clauses est fausse, on aura aussi une erreur.

Toutefois, cet exemple montre une des qualités de ce type d'approche: on pourra rajouter des connaissances facilement car la règle est générale, on pourra l'appliquer à des tuyauteries, pour

d'autres liquides en utilisant les connaissances propres à ces autres liquides. On pourra aussi rajouter des exceptions à la règle.

"Le volume d'un liquide augmente avec la température"

"Seule l'eau voit son volume augmenter en gelant"

Il est clair qu'avec une seule règle, même générale, l'intérêts de ce type de méthode serait assez limité. Dans les applications réelles il n'est pas rare de trouver plusieurs milliers de connaissances élémentaires, reliées entre elles par des centaines de règles, souvent ces dernières dépendant d'un ou plusieurs paramètres...

En fait, la plus grande difficulté de l'I.A. symbolique est qu'il faut décrire formellement toutes les situations possibles, ne pas oublier de règles. On comprendra facilement que même les plus gros ordinateurs ne suffisent pas à explorer toutes les possibilités et combinaisons de possibilités, on parle parfois "d'explosion combinatoire".

Il fallait trouver des solutions plus pratiques. Nous ne raisonnons pas en analysant toutes les possibilités, certaines sont exclues dès le début, nous utilisons des connaissances diffuses pour aller plus directement vers la réponse, ce processus est parfois appelé d'un nom savant: une "heuristique".

D'autre part, il semble logique de consacrer ce genre d'outil avance de l'informatique à des domaines où le niveau d'expertise le nécessite.

C'est cette démarche qui est à l'origine du développement des "Systèmes Experts". Dans ces systèmes, on va devoir procéder par étapes:

  1. Consulter les experts d'un domaine pour leur faire exprimer les connaissances élémentaires dont ils se servent pour résoudre leurs problèmes et des règles qu'ils leur appliquent
  2. On va représenter ces connaissances de manière symbolique et écrire en langage codé les règles qui les lient.

Cette tâche est extrêmement délicate, un nouveau métier a vu le jour pour l'accomplir, celui de Cogniticien, littéralement, spécialiste de la connaissance.

Des résultats remarquables ont été obtenus avec les systèmes experts dans des domaines très divers tels que la recherche pétrolière, le diagnostic d'épidémies végétales ou encore l'aide au diagnostic médical. On trouve aussi de nombreuses applications des systèmes experts au niveau de la mise en place des équipements complexes et par la suite pour la détection de pannes dans ces installations.

L'utilisation la plus rentable semble être obtenue dans des domaines où les produits sont complexes mais peu cher grâce à leur grande diffusion et où les experts sont rares. La formation de nouveaux experts ne pourrait pas y être rentable. Je pense ici au domaine de la maintenance des appareils ménagers ou automobiles hautement équipés en dispositifs électroniques.

Limites de l'I.A. symbolique

Les systèmes experts se heurtent cependant aussi à des contraintes de taille d'ordinateur. En effet, malgré l'utilisation de méthodes heuristiques, limitant les cas analysés, le nombre de connaissances

et de règles a une croissance exponentielle. On doit donc avoir des systèmes couvrant des domaines assez étroits pour que le nombre de connaissances et de règles restent dans les capacités des ordinateurs actuels.

La saisie des connaissances auprès des experts est trŠs lourde à effectuer. Les experts sont en général très demandés et il est difficile de les extraire de leur travail régulier. Il est par ailleurs souvent peu  évident de faire expliquer à un expert ses modes de raisonnement élémentaires.

Bien que plus flexibles que les méthodes de programmation classique, les systèmes experts nécessitent tout de même une mise à jour régulière qui demande des connaissances informatiques sérieuses.

L'approche symbolique est la continuation logique des méthodes de l'informatique. Certains chercheurs français préfèrent dire que les lettres I.A. ne veulent pas dire Intelligence Artificielle

mais Informatique Avancée.

 

Les Ordinateurs Neuronaux

Nous retrouvons ici l'approche analogique. Face aux limites des systèmes experts dès que le nombre des faits et règles s'accroît, certains chercheurs ont choisi d'approcher l'I.A. d'une autre manière: par l'analogie avec le fonctionnement du cerveau.

L'idée n'est pas complètement nouvelle, dans les années soixante, certaines machines furent développées dans cette perspective, on les appelait "Perceptrons", mais comme la technologie de l'époque n'en permettait pas une réalisation pratique, et que par ailleurs les méthodes de l'I.A. symbolique apportaient des résultats encourageants, il n'y eu que peu de personnes pour continuer des recherches dans ce domaine.

Pourquoi donc cet engouement renouvelé pour les simulations du cerveau? Le fait que la technologie électronique ait fait des progrès considérables n'est pas une condition suffisante.

Il faut se rendre compte des progrès réalisés dans le domaine dit des Neurosciences, c'est à dire du fonctionnement du cerveau et du système nerveux. Nous avons maintenant des modèles qui, bien qu'encore très rudimentaires par rapport à la complexité réelle, n'en sont pas moins nettement plus avancés que ceux d'il y a trente ans.

Une des remarques fondamentales des chercheurs dans ce domaine reste toujours valable: "Comment se fait-il qu'avec des vitesses de transfert d'information plusieurs ordres de grandeur plus faibles que ceux des ordinateurs, le cerveau humain soit capable de traiter l'information plusieurs ordres de grandeur plus vite?"

Cette remarque est particulièrement vraie dans le domaine de la reconnaissance des formes.

C'est sur ces directions de recherche qu'ont étés conçus les premiers prototypes de ces nouveaux ordinateurs. Il s'agit d'un domaine en pleine ébullition. Des équipes pluridisciplinaires se sont formées au confluent des sciences neurologiques, psychologiques, mathématiques et physiques.

Les premiers modèles bien sûr ne fonctionnent qu'avec des nombres limités de processeurs, quelques centaines au plus, simulant de manière rudimentaire le fonctionnement de neurones. Mais malgré ces limitations, des résultats assez impressionnants ont étés obtenus en reconnaissance de formes ou en reconnaissance de la parole.

Ce qui est remarquable par rapport aux méthodes symboliques c'est que l'on n'a pas besoin de décrire de manière formelle les images ou les sons que l'on veut faire reconnaître par la suite. On les présente au réseau neuronaux au travers de capteurs parallèles, un peu à la manière de la rétine de l'œil, l'image est passée au réseau dont chacun des processeurs, avec son programme élémentaire, traite une partie puis passe l'information aux autres processeurs en cascade jusqu'aux processeurs chargés de traduire en clair le résultat de l'analyse de l'image.

On ne parlera plus de programmation mais d'apprentissage. On présente au réseau les images dont on veut qu'il se rappelle.

Une caractéristique encore plus étonnante de ces réseaux neuronaux est la faculté de ne pas être perturbés par une dégradation, même importante de l'image. Cela permet entre autre de reconnaître

relativement facilement des caractères alphabétiques tracés à la main.

Cela aussi étend la portée de l'apprentissage, dans la mesure où il n'est pas nécessaire d'apprendre au réseau toutes les situations possibles mais seulement les plus caractéristiques.

Toutefois, la plupart des prototypes n'existent que sous forme de simulation sur des ordinateurs traditionnels. En l'état actuel de la technologie, et même pour les quelques dix prochaines années, les réseaux neuronaux artificiels ne devraient pas permettre d'applications générales et facilement adaptables aux situations particulières. Si certaines applications très pointues semblent être envisageables dans un futur proche, il est plus probable que l'on va assister dans un premier temps à une coopération entre les approches classiques de l'A.I. symbolique et les approches nouvelles des réseaux neuronaux artificiels.

Les réseaux neuronaux pour la reconnaissance des formes, identifiant les objets qui leurs son présentés de manière analogique.

Les Systèmes experts exploitant des connaissances formelle sur les objets ainsi reconnus pour en tirer des conclusions logiques.

Comme toujours dans la quête de la connaissance, quand on croit être arrivé à un sommet, c'est pour s'apercevoir qu'il s'agissait en fait d'un contrefort qui cachait un sommet encore plus haut. Ce doit être l'espoir que celui ci en cache un autre encore plus haut à son tour qui nous pousse à toujours aller plus loin.

                                           Paul Tréhin

                                           Le 24 octobre 1988


[1] Les explications d'ordre métaphysique ou divin, bien que pouvant apporter des réponses très satisfaisantes pour certains, ne se prêtent pas facilement à la discussion.