mardi 8 janvier 2008

Les songes de l'IA

Pour Eurêka (Bayard Presse), en automne 2006
(version non finalisée, dernière mouture avant parution)

Le mythe de l'intelligence artificielle (le titre est plat, mais le parti pris est clairement affiché)

De « Matrix » à « 2001, Odyssée de l’espace », de « Star Wars » à « I.A. » en passant par le récent « I, Robot », le cinéma, fenêtre grande ouverte à nos cauchemars les plus sanguinolents, nous prophétise depuis des lustres le débarquement d’armées de mécaniques psychotiques aux diodes en surchauffe. Ces hordes de créatures aussi artificielles que sanguinaires, d’ordinateurs tueurs et de bien d’autres chimères de synthèse seraient soudain en prise avec les contradictions mathématiques les plus affolantes de leurs egos (il)logiques. Et nous, stupides créateurs de ces fauves, serions les victimes expiatoires du cyclone métaphysique que nous aurions, par inconscience et humaine inconséquence, déclenché.
Notre erreur, notre immense faute ?

Avoir semé la précieuse graine de l’intelligence dans ces puces de silicium !
Le cinéma, ce faisant, n’a fait que prendre la suite de la littérature. L’affaire du gourdin écrasant la main de l’Humain, du Pinocchio collant une tapette à son Gepeto, du Golem échappant au contrôle de son maître est un récit plus vieux que la lime à ongles.

Mais dans la vie, la vraie vie, faut-il y croire ? Est-il réaliste d’imaginer qu’un jour les machines seront intelligentes et pourraient réduire leurs dieux (nous) en esclavage?

Naïvement, on pourrait penser que les nouvelles, bonnes ou mauvaises, pourraient provenir de la ligne de front des supercalculateurs. Ces ordinateurs géants dopés au silicium, éternellement plus puissants, engagés dans une continuelle course au podium (www.top500.org) de-la-machine-la-plus-puissante-du-monde et leurs géniteurs, IBM, Nec, Silicon Graphics ou autres Bull, semblent ne jamais se rassasier. D’ailleurs dans la catégorie de ces sumos du calcul massif, IBM doit cet automne franchir une étape décisive.

Dans un building du Lawrence Livermore Lab, là-bas, de l’autre côté de la baie de San Francisco, ce sont cent trente mille puces électroniques alignées sur près de cent mètres carrés qui doivent tenter, sous système Linux, de calculer de conserve. Gavé de données, cadencé à l’extrême, le plus rapide et puissant système du monde flirtera alors avec les 360 téraflops (milliers de milliards d’opérations par seconde).

C’est énorme, évidemment : 2 millions de fois plus puissant que le PC de monsieur tout le monde et mille fois davantage que Deep Blue, l’engin d’IBM qui avait ratatiné le maître Kasparov aux échecs en 1997 !
Mais « Blue Gene/L », comme on appelle la nouvelle version de la monstrueuse moulinette à calculs flottants chez IBM, ne sera pas rassasié pour autant. La mission assignée par William R. Pulleyblank, le cerveau humain tapi derrière ce projet, est en effet bien plus vaste. Dès 2006 la horde des puces de Blue Gene se verra augmentée à plus d’un million de membres et ira déchiqueter rien moins que le mur mythique du Pétaflop : un million de milliards d’opérations par seconde…
Bigre.
De quoi assurer les calculs massifs que nécessitent le déploiement simulé des millions d’atomes de fragment de gènes, l’amélioration des calculs de bombinettes nucléaires, la prévision des tempêtes et des cataclysmes sismiques… Bref, le boulot « classique » d’un supercalculateur…
Mais aura-t-on au passage vu Blue Gene, ce réseau de silicium à 100 millions de dollars « penser » ? Se laisser aller à un hobby ? Avoir un coup de mou ? Commettre une déclaration quelconque sur les droits syndicaux des ordinateurs ?
Désolé. La réponse est non. Misérablement non.
Blue Gene, malgré tous ses circuits, malgré sa puissance « quasi comparables » à celle du cerveau humain, est aussi idiot que le PC, la boîte qui ronronne sous votre bureau.
C’est que tout simplement, la puissance brute de ce monstre a autant a voir avec votre cerveau qu’avec une crème brûlée…
Navré. Si la puissance des machines galope, obstinément conforme à la vieille loi de Moore qui prévoit le doublement de leurs capacités tous les deux ans .., personne n’a encore vu à ce jour un effet « puissance de calcul » provoquer l’émergence d’une idée chez une machine.

On entend dire ici ou là qu’un Pc à 400 Euros est désormais, théoriquement, aussi performant qu’un cerveau de mouche, et que si l’on distribuait les principes de la sélection naturelle, de la compétition et de l’évolution parmi des programmes informatiques, la conscience finirait peut-être par émerger d’elle même dans ces cerveaux artificiels…
On entend dire beaucoup de choses…

Et effectivement la cognition, l’intelligence ne représente selon certains biologistes que le produit de la lutte pour la survie, une supérieure capacité d’adaptation. L’école de Santa Fe, au Nouveau-Mexique, spécialisée dans les automates programmables a alors montré dès la fin des années 1980 que des logiciels, de petits automatismes mis en compétition pour réaliser une tâche, et dotés d’une sorte de sexualité, d’une capacité de se reproduire et de muter leur lignes de programme de manière aléatoire, faisaient apparaître des générations de logiciels plus performants que les programmes parents.
Mais aucune illusion ne fut permise beaucoup plus longtemps. Une telle évolution « en boîte » rencontre très vite ses limites. Elle ne peut dépasser un certain stade. Un peu comme un poisson rouge dans un aquarium connaîtrait quelques difficultés à vois ses descendants évoluer en alligator, même si vous lui laissiez des millions d’années pour cela et lui répétiez « s’il te plaît »en permanence.
Interrogé à l’occasion du récent quarantième anniversaire de sa loi, au printemps dernier, Gordon Moore s’est lui-même déclaré assez pessimiste sur les capacités de la seule puissance de calcul à faire apparaître des systèmes informatiques évolutifs.

Pour cet ingénier, créateur d’Intel, le mode de fonctionnement de l'intelligence humaine est tout à fait différent des ordinateurs de type PC… Ce système logique ne générant à ses yeux pas assez de puissance. « Cette route ne mènera certainement pas à quelque chose qui ressemble de près ou de loin à l'intelligence humaine », a-t-il affirmé. « Et toute la puissance cumulée de tous les ordinateurs disponibles de la planète n’y suffirait pas ».
Verdict sévère ?

Non, tout juste à la hauteur de la désillusion que connut l’IA dans les années 90.

Vers 1083 le Miti, le bras armé technologique du gouvernement japonais avait engagé un vaste programme de recherche dit de « 5ème Génération » afin de faire apparaître des calculateurs massifs « intelligents » . A coups de milliards de dollars injecés dans les universités et les laboratoires privés, on allait voir ce que l’on allait voir… Les Japonais comptaient bien prendre le leadership mondial de la cyber-intelligence. Inquiets, Américains et Européens lancèrent des programmes concurrents…

Résultat de la ruée vers le cerveau artificiel ?
Néant.

Les programmes fracassants s’éteignirent au début des années 90 sans avoir rien produit de stupéfiant, et surtout pas ce « saut » conceptuel que tout le monde attendait alors, avec une sorte de foi étrange dans le pouvoir des machines ?
On avait annoncé des cyber-créatures puissantes, évolutives, des systèmes neuronaux singeant les fonctions logiques du cerveau ou des engins expert copiant tous les déductions logiques des meilleurs sismologues et chirurgiens.
Hélas, aucun programme ne fut en mesure de remplir des tâches réellement complexes, et encore moins de faire surgir la flamme de l’intelligence au tréfond de ses circuits.

La défaite était cuisante.
Même le gourou Marvin Minsky, du MIT, partisan féroce du cerveau artificiel avait finalement lui-même admis que ce serait plus compliqué que ce qu’il avait envisagé. Et que tous comptes faits, il faudrait peut-être renoncer à « copier » l’intelligence humaine, faute de la comprendre.
On avait carrément renoncé aux rêves du génial Turing, qui imaginait des ordinateurs intelligents avant la fin du XXème siècle, et à ceux d’Arthur Clarke, l’auteur du livre « 2001, Odyssée de l’espace », dont Hal, l’ordinateur psychotique pilote du vaisseau spatial, était sorti d’une chaîne de fabrication le 12 janvier 1997…
Profil bas…

Au milieu des années 90 Intelligence artificielle devint une expression à éviter…
Derechef, durant la dernière décennie du XXème siècle, les chercheurs se concentrèrent sur des fonctions plus limitées et précises : faire marcher un robot, permettre à une caméra de reconnaître des formes, développer des systèmes tolérants aux pannes, développer de nouvelles architectures et langages… On ne parlait plus d’IA, mais plus modestement de robotique, de sciences cognitives…

Mais où se situait l’obstacle ?
En fait on s’était aperçu que l’ensemble des milliers ou de millions de règles que devrait intégrer un ordinateur pour commettre des fonctions de niveau « intelligent », ou posséder des capacités d’apprentissage était tout simplement hors de portée de la programmation… Non seulement il n’était pas possible d’associer les millions de questions, de réponses et de chemins logiques qui permettent à un homme de dire « peut-être » au lieu de « oui » ou « non », mais aucun outil ne permettait à la machine de donner un « sens » aux choses qui l’entourent. La simple mouche échappant à la main tentant de l’écraser semblait désormais un modèle naturel impossible à copier, dès lors qu’il s’agissait de réellement intégrer toutes les fonctions dont est doté l’animal. Et tenter de faire analyser à une machine une phrase ambiguë comme « je vous ai compris », prononcée par de Gaulle à Alger n’était même plus envisagé…
Mais les crises, les traversées du désert sont parfois plus fertiles que les glorieuses illusions.
C’est dans le creux de ces années difficiles, que deux nouvelles approches de l’IA (voir encadré) résistèrent et se développèrent.

Deux démarches diamétralement opposées, mais toutes deux à la fois pragmatiques et élégantes.
La première consiste en ce que les experts nomment une « approche par le bas », et met en œuvre des robots. Dans le droit fil des programmes dits « évolutifs », car grossièrement inspirés des principes de la sélection darwinienne, il s’agit de créer des engins très simples, quasiment idiots, mais capables de développer individuellement ou par groupes des stratégies face à des obstacles inattendus. On pourrait les comparer à des fourmis mécaniques. Les exemples parfaits en sont les projets de robots explorateurs martiens, devant disposer d’une autonomie de décision en territoire hostile, ou les fantassins robots que souhaite obtenir le Pentagone pour épargner la vie de ses soldats sur les théâtres d’opération.
L’autre approche est exactement inverse, et part du « haut ». L’idée étant de doter les machines d’immenses socles de connaissances et de règles. Comportant des millions d’éléments et de liens logiques permettant de définir les faits les uns par rapport aux autres, ces bases de données devraient servir de support à des applications de plus en plus sophistiquées. Ses initiateurs l’estiment capable de faire émerger une forme rustique, évolutive et souveraine, d’« esprit » informatique.
Ces deux approches, fort révélatrices des obstacles et des espoirs de l’IA aujourd’hui, méritent d’être examinées de près
La première approche repose en grande part sur la robotique car elle considère que l’épreuve du monde réel est essentielle. Comme un être vivant un robot doit en effet sentir le monde extérieur pour s’adapter et agir.

La démarche est mise en œuvre dans de nombreux laboratoires, en France (université Paris VI, CNRS…) et à travers le monde. Le point de référence étant depuis 15 ans, au MIT de Boston, le laboratoire de robotique de Rodney Brooks.
Incluse dans cette démarche, l’idée que l’intelligence se forge par l’expérience, au contact sensoriel du monde, a permis de montrer que des taches complexes pouvaient en fait être décomposées en éléments modulaires bien plus simples.
Ces systèmes, qui permettront de doter les machines électroniques de marges d’adaptation et d’autonomie croissantes, à des ordinateurs de se synchroniser, et à des robots à la surface de la Lune de se coordonner et de dialoguer avec des satellites placés en altitude se heurte à la difficulté « évolutive » déjà mentionnée pour la vie artificielle. Les systèmes logiciels et matériels ont des plasticités trop limitées pour permettre à ces populations de machines de réellement « inventer » de nouveaux modes de fonctionnement. Mais la porte semble ouverte vers des possibilités en ce sens.

L’autre voie, celle du cerveau idiot et aveugle que l’on gave d’informations et de règles est celle suivie par Douglas Lenat avec son projet Cyc. Cet ancien « penseur » du programme américain d’intelligence artificielle (celui mis en place pour contrer le Japon dans les années 80) n’a pas baissé les bras. Durant 20 ans Lenat, désormais installé à Austin au Texas, a continué à développer le système, et vient de rendre disponible à tout le monde, sur Internet (www.opencyc.org), la possibilité de rentrer des éléments et des règles dans Cyc.

Le principe est de parvenir à ce que la machine distingue une incohérence dans « il est mort, il est allé faire les courses », mais soit capable d’envisager le fait que mort est peut-être détourné de son sens premier.
Aujourd’hui Cyc contient plus de 3 millions de liens logiques, ce qui lui permet de bâtir ses propres arborescences de liens, si vous entrez un nouvel élément dans sa base.

Mais bientôt, estime Lenat, Cyc pourra aller chercher lui-même ses informations.
Où ? Dans des caméras, d’autres bases de données, ou sur le Web, grâce à des projets comme ceux de Paul Vitanyi et Rudi Cilibrasi. Ces chercheurs de l’Institut national de mathématiques et d’informatiques d’Amsterdam ont développé un système expérimental qui permet à un ordinateur d’associer les mots entre eux.

Comment ? Grâce à nous tous. Le système s’appuie sur les recherches que nous effectuons, par millions, tous les jours, sur les milliards de pages indexées par Google. La NGD (distance normalisée Google), et les associations de mots auxquelles nous procédons pour les recherches permettent à une machine de peu à peu se construire un banque de données du sens des mots, une arborescence de définition.
Sans même que nous le sachions !








Compléments non édités

Test d’Alan Turing, le génial mathématicien. Créateur, avec John von Neumann, du premier ordinateur, Turing estimait que les machines seraient intelligentes avant l’an 2000. Raté. Malin, le britannique disait surtout que l’objectif serait atteint lorsque l’on serait incapable de savoir si l’on dialoguait avec une machine ou avec un humain caché derrière une machine.

Cap sur Internet, et les meilleurs simulateurs d’IA. Comme le site www.intellibuddy.com qui vous propose de dialoguer avec un artefact.

Un monstre aussi puissant que Blue Gene/L avait-il autant à voir avec un cerveau humain qu’un bulldozer avec le burin de Michel-Ange ?

Intelligence ou conscience ?


Autres démarches encore (vision, cognition de base )
Autre élément : alpha langage

Point de vue philosophique
Mais avec le renfort de Joseph Weizenbaum , chercheur, et créateur d’un système de Turing connu sous le nom d’Eliza, et désormais opposant à l’IA et encore Hubert Dreyfus, de Berkeley, je prétends que jamais la matière modelée par les mains de l’homme ne saura penser.

Argument linguistes
-jamais les machines n’auront accès au sens des mots, au contenu du langage. Vous pouvez faire écrire Banane à un chimpanzé toute sa vie, il saura peut-être, si vous lui montrez le fruit que cela le désigne, mais il ne saura jamais qu’il peut s’agir d’une insulte. Par contre, vous si je vous traites de bananes, vous comprendrez que je ne parle pas du fruit !

Google

Et Cyc
poursuivait au Texas, à Austin, Michael Witbrock, sur une base de données encyclopédique, le Cyc project…

Pensée et maths, tout algorithme ?
Il suffit de se souvenir de l’objection majeure de Dreyfus
Il a démontré qu’il y avait des éléments non rationnels dans le comportement humain, et que toute méthode strictement déductive pour gérer des problèmes complexes peut amener à des impasses, pire à des contresens. La pensée humaine n’est pas réductible à un système algorithmique pur. Cela rejoint le théorème de Godël, le mathématicien ami d’Einstein, qui a montré que tout système formel comprend une fraction indécidable, non déductible des autres…

C’est quoi l’intelligence

C’est quoi la conscience ?

Lambda calcul
Jean-Louis Krivine, le logicien français…
Le cerveau est le produit de notre étonnante adaptation à notre environnement. Et ce cerveau est une machine logique. Les règles très simples mise en place par les neurones pour résoudre les défis de la survie sont un langage logique primitif. Ce ne sont pas les connexions entre les neurones qui comptent, pas d’avantage que les électrons circulant dans les circuits intégrés.
Le langage logique primitif. Nous l’approchons, avec le lambda-calcul, inventé en 1932 par Alonzo Church ? Et Krivine en tire toutes les conséquences : toutes les fonctions supérieures du cerveau, la vision, le langage, les mathématiques, sont sous-tendues par un système logique primitif, le lambda calcul. C’est de là que vient notre « invention » des mathématiques. En fait notre cerveau est une machine naturelle parfaitement adaptée à décrypter le logique du monde… Notre pensée est faite de modules mathématiques…

Consience/psycho/sentiment de soi
- Mais l’envie d’être, le désir d’être soi, la clef de la conscience, d’où viendrait-elle ?
Vous n’avez pas lu les travaux d’Antonio Damasio, le neurologue de l’Université d’Iowa ?
il soutient que le cerveau se représente le monde comme un film, et que le conscience, cette sensation d’être un spectateur privilégié, et moteur, ayant envie d’Etre, provient simplement du plaisir que procure le fait d’assister au film du monde.
-Et cela viendrait d’où ?
De nulle part… Du simple fait qu’être intelligent et conscient de soi et du monde doit être un avantage vital, un moyen de survivre et de se reproduire…
-
Eh ben pour arriver à cela avec un ordinateur il faudrait une machine aussi énorme que l’Univers,

Chutes
Ou alors, se dit-on alors cette légende des Frankenstein électroniques a pour fonction l’immunisation. Une sorte de pardon, par avance… D’accord, l’homme pourrait un jour transgresser les lois de la nature, se rapprocher des interdits et des tabous jusqu’à les toucher. Mais avant de s’y brûler, il doit se rassurer. Expiant par avance, dans une longue répétition de cauchemars mis en scène par Kubrick ou racontés par Asimov, le crime qu’il s’apprête à commettre en singeant ce mystère que représente l’intelligence.



les arguments ne sont pas décisifs
Intelligence et conscience…
Un saut « surprise » est-il possible ? L’histoire des sciences nous incite à la prudence
Mais elle nous dit aussi que tout se passe comme si le savoir absolu étauit hors de portée.
En fait tout se passe comme si les partisants de l’IA étaient les naifs explorateurs, souvent à court d’arguments mais pariant sur le développement imprévisible du savoir, et des techniques (genre l’avion a finit par voler) et que les adversaires critiques de l’IA étaient là pour dire : regardez l’histoire. Chaque fois que la science a voulut imiter ou dépasser les phénomènes naturels dont elle s’inspire, chaque fois qu’elle a voulu croire en son pouvoir au point de vouloir transformer le crapaud en prince en l’embrassant sur la bouche, le résultat a été plutôt pathétique


Chute avec Zwirn
La science est dans une situation apparemment sans issue. D’un côté, forte de ses succès, elle rayonne et triomphe (et fait peur). Par ailleurs, elle doute. Car elle s’aperçoit qu’au fur et à mesure de ses avancées, si les continents connus augmentent, l’horizon recule. (Zwirn) On pourrait dire c’est le cas de sciences cognitives. C’est un peu comme si on allait connaître de mieux en mieux les choses, on sera capable de les simuler des les singer, voire de susciter des èvèvements en éprouvette comme l’appartion de formes d’intelligence, mais il est probable que nous n’aurons pas accès à l’explication ni à la reproduction de ce que nous aplelons l’intelligence humaine.

2 commentaires:

Jean-Philippe de Lespinay a dit…

Bonjour,

l'IA, c'est mon métier depuis 1982. Tout d'abord "Vers 1083 le Miti, le bras armé technologique du gouvernement japonais avait engagé un vaste programme de recherche dit de « 5ème Génération ». Non ! C'est de 1982 à 1994. Ceci dit, vous êtes une des rares personnes qui cite ce monumental échec des japonais, qui croyaient qu'avec leurs milliards de yens et en pompant les dernières technos de l'Ouest ils allaient rattraper l'occident... C'est un épisode qu'il ne faut absolument pas oublier car il démontre que l'intelligence économique, ça ne donne souvent pas grand chose...

"Les programmes fracassants s’éteignirent au début des années 90". Erreur ! Ils avaient donné naissance à une logique parfaitement automatisée : le "zéro +", qui représente le triomphe (inconnu !) de l'IA puique maintenant un ordinateur peut fonctionner par le raisonnement - comme nous - dialoguer avec pertinence, apprendre nos connaissances de façon illimitée sans jamais rien oublier, etc.

Quant au reste de votre exposé - entre autres sur la "conscience" - dont personne aujourd'hui ne sait ce que c'est, ni où serait son siège dans le cerveau, ni qu'elle est facile à simuler - je ne les partage pas, mais je ne vais pas écrire un livre pour faire des mises au point...

Cordialement

JP de Lespinay

(.) a dit…

Merci et mille fois bienvenue

vos précisions... me précisent les choses sur les dates précises

pour ce qui concerne les programmes fracassants ils disparurent en effet à me yeux, meme si "tout" ne stoppa pas. Pendant les années 80 il n'y eut pas un mensuel scientifique à ne pas faire un dossier tonitruant sur l'IA chaque année, des émissions de télé, des films, etc... et le ton était : dans quelques années les systèmes experts nous aurons remplacé partout
Durant les années 90 cette sauce touillée par les grands organismes et les entreprises retomba...

Pour le reste, j'ai des arguments qui dépassent le cadre de cet article et je pense qu'en effet jamais un ordinateur ne sera conscient à notre manière
Mais en effet, il y a des livres et le sujet n'est pas épuisé.

Très cordialement à vous !