Septembre 1992
N'importe quel bébé aimerait, à coup sûr, être blotti dans ces mains-là. De grosses mains, confortables. Qui soulèvent les petits avec cette douceur que permet la puissance d'un colosse. Et peut-être même que si la grosse voix tendre lui demandait de bien vouloir crier un peu, le petit s'exécuterait... Crier ?
Responsable de la néonatalité de l'hopital de Beer-Sheva, dans le sud d'Israel, le Dr Ehud Zemora défile devant les berceaux de plexiglass inondés de soleil.
"Cela fait des années que l'on sait que les vagissements des nouveaux nés sont chargés d'informations. Et depuis que les chercheurs font des spectrographes (étude des fréquences du cri), ils ont identifié quatre catégories : ceux de la naissance, qui favorisent la réorganisation cardiaque et respiratoire, mais aussi les cris de douleur, de faim, et de plaisir".
Dans la ville-champignon du désert, aux avenues ensablées par le vent, Zemora sait que pour avancer, il vaut mieux compter sur ses propres ressources. Vieux réflexe de pionnier. Alors quand son complice, l'informaticien Arnon Cohen (ils se sont connus sous la mitraille de la Guerre des Six Jours), lui a proposé d'utiliser des ordinateurs pour décoder le "langage" des nourissons, il n'a guère hésité.
"Le cri du bébé est un vrai outil de communication. D'abord, il vous mobilise. Sa pulsation est très proche des sirènes de police, parce que la nature l'a sélectionnée. C'est la plus efficace pour mettre les parents en mouvement. Insupportable ", sourit Cohen.
Un hurlement largement codé par le cerveau. Un cri de faim n'a rien à voir avec celui de la douleur. Une mère le sent spontanément. Et pour les sceptiques, il suffit de jetter un oeil aux analyses des différents cris, recueillis et analysés par les ordinateurs à l'université Ben Gourion.
"Au départ, le mécanisme de production est le même, l'instrument thoracique est identique. Ce qui change, c'est le stimulus qui vient du cerveau. Et on retrouve la trace de cette commande cérébrale dans l'analyse du cri...", explique Zemora
Les mères ne sont pas les seules à savoir entendre ces messages de leurs bébés. Au fil des naissances, les oreilles des obstétriciens deviennent des systèmes experts, capable de discerner un cri "anormal" du bon vagissement. Un signal parfois significatif d'une maladie génétique, d'un désordre neurologique. Un bébé qui a souffert d'une carence d'oxygène lors de l'accouchement (hypoxie) ne crie pas de la même manière. Et une affection génétique porte même le nom du son de miaulement qu'évoque alors la petite voix : "le cri du chat".
L'idée, à l'université de Beer Sheva a consité à tenter d'aller plus loin. A mettre au point un système informatique capable, à partir des profils sonores des cris, de retrouver quelle information ils transportent. Plus fin et plus fiable qu'une oreille humaine.
"Cela peut servir à entendre les message de faim ou de douleur du bébé, et à mettre certaine mères mal synchronisées à l'écoute de leurs enfants, mais pour nous, cela serait surtout un outil de diagnostic. Il est tout à fait imaginable de discerner une demi-douzaine de maladies de la sorte, de la jaunisse à la méningite cérébrale", poursuit Zemora.
Le problème technique a été résolu par les spécialistes de reconnaissance vocale du laboratoire d'Arnon Cohen. Mais pour l'heure, le système demeure un prototype. "On peut imaginer des versions simples, qui vous indiqueraient ce que veut dire bébé, et qui pourraient donner l'alerte en cas de troubles. Mais il nous reste à trouver des partenaires industriels", précise l'informaticien. Un cri de recherche de partenariat.
Affichage des articles dont le libellé est science IA. Afficher tous les articles
Affichage des articles dont le libellé est science IA. Afficher tous les articles
samedi 20 septembre 2008
mercredi 21 mai 2008
Simuler le cerveau (Jean-Pierre Changeux)
Simuler le cerveau pour le comprendre
mai 1991
Ils sont environ cent milliards par tête, et on va en parler ce matin entre chercheurs et militaires. Les neurones intéressent l'armée. Dans le cadre des journées "Science et Défense", qui se déroulent mardi et mercredi à Paris, les sciences du cerveau font l'objet d'une série de communications par des chercheurs provenant de laboratoires dont certaines activités sont financées par la Délégation Générale à l'Armement (DGA). Parmi les centres d'intèrêt des militaires en matière de cerveau : l'ergonomie cognitive. Des connaissances intimes sur nos neurones, qui permettront demain de concevoir des machines, des systèmes pouvant être utilisés en tenant compte de la manière de travailler du cerveau humain. Améliorant du coup le confort, la sécurité et l'efficacité du combattant, mais aussi des civils, qui bénéficieront à terme tout autant de ces recherches de base.
Une question clef surgit : pourra-t-on demain faire fonctionner un ordinateur comme un cerveau humain ? Jusqu'ici, le cerveau était souvent considéré comme une "boîte noire", dont on connaissait un peu les entrées et les sorties, mais très mal le fonctionnement.
Depuis quelques années, des laboratoires de plus en plus nombreux se lancent dans cette voie, et tentent de déterminer comment les divers "étages" du cerveau fonctionnent. Ils en appellent à de nouvelles caméras (à positons), pour scruter sans les défaire les entrailles de nos lobes cérébraux, mais aussi à la "modélisation", la reconstitution dans un ordinateur des règles qui gouvernent la vie des neurones. Un travail difficile, puisqu'une fonction comme la parole, ou la reconnaissance des traits met en oeuvre des parties très différentes du cerveau. Et que les mécanismes qui interviennent dans un réflexe pour vous empêcher de recevoir une goutte d'eau dans l'oeil et ceux impliqués dans la prise de décision d'un capitaine d'industrie ne mettent pas en jeu les mêmes "niveaux" cérébraux.
Malgré ces difficultés, Jean-Pierre Changeux, académicien, professeur au Collège de France, directeur d'un laboratoire de recherche (CNRS-Institut Pasteur) est optimiste. Il présente à "Science et Défense" le travail qu'il mène avec Stanislas Dehaene (INSERM-CNRS) sur la modélisation de fonctions cognitives du cortex pré-frontal. "J'estime que comprendre les bases neurales de la cognition est désormais un problème abordable scientifiquement, et nous proposons des modèles, précisément pour établir un lien entre la manière dont les neurones sont organisés et les fonctions cognitives qui sont remplies".
Pas facile pourtant. Pour mettre en relation la structure, la façon dont cette boule de cent milliards de neurones est organisée, avec les fonctions qu'elle remplit, il faudra du temps et de la sueur. Un travail théorique, en pleine effervescence à travers le monde, qui mobilise des chercheurs venant de tous les horizons : physique, mathématique, informatique, intelligence artificielle, sciences de l'ingénieur, psychologie.
Parmi les performances déjà réalisées, il faut mentionner le fait de pouvoir prendre en compte, au sein d'un réseau artificiel de neurones, des interactions avec l'environnement, le monde extérieur. C'est important, car les scientifiques sont aujourd'hui convaincus que le cerveau se façonne tout au long de la vie de l'individu, avec une forte influence de l'environnement, dans un échange permanent avec le milieu culturel, familial et social.
Mais il faut bien avouer que pour l'heure, le fonctionnement de ces machines, réseaux modélisés, reste rudimentaire, et ne présente que des "analogies naïves avec les performances humaines", concède Changeux. Alors, même si les "reproductions neuronales" simulées par des machines savent déjà aujourd'hui apprendre à lire l'anglais (Net Talk, qui tient compte de ses erreurs pour progresser), et si les prochaines générations d'ordinateurs neuronaux, conçues dès le départ pour respecter une architecture comparable à celle des cellules nerveuses, devraient faire des merveilles, il reste à définir le niveau de fonction où ces modèles doivent fonctionner.
Les chercheurs distinguent actuellement plusieurs "niveaux " dans l'organisation du cerveau. Il y a tout d'abord les fonctions très simples, les "circuits élémentaires", généralement des schémas d'action fixe. Du type : "mes sourcils se froncent quand je sens une mauvaise odeur". Ce sont des circuits que l'on retrouve chez la mouche par exemple, dans le réflexe de décollage d'urgence. Quelques neurones montés en "logique câblée" y suffisent. Dans certains laboratoires de robotique, comme au Mobot Lab du Masachussetts Institute of Technology de Boston, les chercheurs mettent sur pattes des "insectes-robots" de ce type, dont les circuits électroniques très simples et très spécialisés s'inspirent des réseaux neuronaux des fourmis ou des abeilles.
A un niveau plus élevé, le "groupe de neurones", constitué en assemblée de plusieurs centaines ou milliers de cellules. Chaque neurone "vote" en faveur d'un élément "codé" de la tâche à accomplir, le résultat global donnant lieu à un ordre ou une représentation. Les règles du codage sont inconnues, mais nous voila à l'étage de la représentation symbolique, de l'entendement (les idées a priori), de la synthèse d'éléments provenant de l'extérieur et de l'intérieur (sensations).
Enfin, à l'étage encore supérieur, voici la raison, la réflexion. Des assemblées de neurones associées dans différents sites du cerveau remplissent les tâches complexes de la connaissance, de la décision, de la stratégie.
Dans leur démarche, Changeux et Dehaene simulent sur ordinateur des fonctions caractéristiques d'une petite et essentielle région du cerveau, le cortex pré-frontal, lié aux architectures de la raison, estiment-ils.
"Le réseau informatique dont il est question doit être capable de sélectionner par l'expérience parmi plusieurs règles qui associent, dans une tâche d'apprentissage, des traits définis d'un objet, par exemple couleur et forme" explique Changeux. Pour tester ce genre de compétence chez l'homme, on dispose de jeux de cartes (de Wisconsin) avec des familles de motifs par forme et couleurs. Le sujet testé doit découvrir la "règle" avec laquelle on lui présente les cartes, s'apercevoir quand elle change, etc....
Les sujets qui ont une lésion pré-frontale, et les personnes âgées réussissent plus difficilement à ce test que les autres. Par contre une machine respectant l'architecture neuronale et capable de passer ce test a été conçue par nos deux chercheurs. En mesure de se souvenir, de raisonner, de tirer bénéfice de l'expérience passée, elle constitue une belle avancée. "Mais nous sommes encore bien loin de la raison humaine !" s'exclame Changeux.
mai 1991
Ils sont environ cent milliards par tête, et on va en parler ce matin entre chercheurs et militaires. Les neurones intéressent l'armée. Dans le cadre des journées "Science et Défense", qui se déroulent mardi et mercredi à Paris, les sciences du cerveau font l'objet d'une série de communications par des chercheurs provenant de laboratoires dont certaines activités sont financées par la Délégation Générale à l'Armement (DGA). Parmi les centres d'intèrêt des militaires en matière de cerveau : l'ergonomie cognitive. Des connaissances intimes sur nos neurones, qui permettront demain de concevoir des machines, des systèmes pouvant être utilisés en tenant compte de la manière de travailler du cerveau humain. Améliorant du coup le confort, la sécurité et l'efficacité du combattant, mais aussi des civils, qui bénéficieront à terme tout autant de ces recherches de base.
Une question clef surgit : pourra-t-on demain faire fonctionner un ordinateur comme un cerveau humain ? Jusqu'ici, le cerveau était souvent considéré comme une "boîte noire", dont on connaissait un peu les entrées et les sorties, mais très mal le fonctionnement.
Depuis quelques années, des laboratoires de plus en plus nombreux se lancent dans cette voie, et tentent de déterminer comment les divers "étages" du cerveau fonctionnent. Ils en appellent à de nouvelles caméras (à positons), pour scruter sans les défaire les entrailles de nos lobes cérébraux, mais aussi à la "modélisation", la reconstitution dans un ordinateur des règles qui gouvernent la vie des neurones. Un travail difficile, puisqu'une fonction comme la parole, ou la reconnaissance des traits met en oeuvre des parties très différentes du cerveau. Et que les mécanismes qui interviennent dans un réflexe pour vous empêcher de recevoir une goutte d'eau dans l'oeil et ceux impliqués dans la prise de décision d'un capitaine d'industrie ne mettent pas en jeu les mêmes "niveaux" cérébraux.
Malgré ces difficultés, Jean-Pierre Changeux, académicien, professeur au Collège de France, directeur d'un laboratoire de recherche (CNRS-Institut Pasteur) est optimiste. Il présente à "Science et Défense" le travail qu'il mène avec Stanislas Dehaene (INSERM-CNRS) sur la modélisation de fonctions cognitives du cortex pré-frontal. "J'estime que comprendre les bases neurales de la cognition est désormais un problème abordable scientifiquement, et nous proposons des modèles, précisément pour établir un lien entre la manière dont les neurones sont organisés et les fonctions cognitives qui sont remplies".
Pas facile pourtant. Pour mettre en relation la structure, la façon dont cette boule de cent milliards de neurones est organisée, avec les fonctions qu'elle remplit, il faudra du temps et de la sueur. Un travail théorique, en pleine effervescence à travers le monde, qui mobilise des chercheurs venant de tous les horizons : physique, mathématique, informatique, intelligence artificielle, sciences de l'ingénieur, psychologie.
Parmi les performances déjà réalisées, il faut mentionner le fait de pouvoir prendre en compte, au sein d'un réseau artificiel de neurones, des interactions avec l'environnement, le monde extérieur. C'est important, car les scientifiques sont aujourd'hui convaincus que le cerveau se façonne tout au long de la vie de l'individu, avec une forte influence de l'environnement, dans un échange permanent avec le milieu culturel, familial et social.
Mais il faut bien avouer que pour l'heure, le fonctionnement de ces machines, réseaux modélisés, reste rudimentaire, et ne présente que des "analogies naïves avec les performances humaines", concède Changeux. Alors, même si les "reproductions neuronales" simulées par des machines savent déjà aujourd'hui apprendre à lire l'anglais (Net Talk, qui tient compte de ses erreurs pour progresser), et si les prochaines générations d'ordinateurs neuronaux, conçues dès le départ pour respecter une architecture comparable à celle des cellules nerveuses, devraient faire des merveilles, il reste à définir le niveau de fonction où ces modèles doivent fonctionner.
Les chercheurs distinguent actuellement plusieurs "niveaux " dans l'organisation du cerveau. Il y a tout d'abord les fonctions très simples, les "circuits élémentaires", généralement des schémas d'action fixe. Du type : "mes sourcils se froncent quand je sens une mauvaise odeur". Ce sont des circuits que l'on retrouve chez la mouche par exemple, dans le réflexe de décollage d'urgence. Quelques neurones montés en "logique câblée" y suffisent. Dans certains laboratoires de robotique, comme au Mobot Lab du Masachussetts Institute of Technology de Boston, les chercheurs mettent sur pattes des "insectes-robots" de ce type, dont les circuits électroniques très simples et très spécialisés s'inspirent des réseaux neuronaux des fourmis ou des abeilles.
A un niveau plus élevé, le "groupe de neurones", constitué en assemblée de plusieurs centaines ou milliers de cellules. Chaque neurone "vote" en faveur d'un élément "codé" de la tâche à accomplir, le résultat global donnant lieu à un ordre ou une représentation. Les règles du codage sont inconnues, mais nous voila à l'étage de la représentation symbolique, de l'entendement (les idées a priori), de la synthèse d'éléments provenant de l'extérieur et de l'intérieur (sensations).
Enfin, à l'étage encore supérieur, voici la raison, la réflexion. Des assemblées de neurones associées dans différents sites du cerveau remplissent les tâches complexes de la connaissance, de la décision, de la stratégie.
Dans leur démarche, Changeux et Dehaene simulent sur ordinateur des fonctions caractéristiques d'une petite et essentielle région du cerveau, le cortex pré-frontal, lié aux architectures de la raison, estiment-ils.
"Le réseau informatique dont il est question doit être capable de sélectionner par l'expérience parmi plusieurs règles qui associent, dans une tâche d'apprentissage, des traits définis d'un objet, par exemple couleur et forme" explique Changeux. Pour tester ce genre de compétence chez l'homme, on dispose de jeux de cartes (de Wisconsin) avec des familles de motifs par forme et couleurs. Le sujet testé doit découvrir la "règle" avec laquelle on lui présente les cartes, s'apercevoir quand elle change, etc....
Les sujets qui ont une lésion pré-frontale, et les personnes âgées réussissent plus difficilement à ce test que les autres. Par contre une machine respectant l'architecture neuronale et capable de passer ce test a été conçue par nos deux chercheurs. En mesure de se souvenir, de raisonner, de tirer bénéfice de l'expérience passée, elle constitue une belle avancée. "Mais nous sommes encore bien loin de la raison humaine !" s'exclame Changeux.
Libellés :
biologie,
philosophie,
prospective,
science,
science IA
Quand les machines vous reconnaissent
Au doigt, à l'oeil et à la voix...
Juillet 1991 (Les Echos)
C'est inévitable, dans tout film d'anticipation qui se respecte il faut montrer patte blanche. Et quand on dit patte, ce n'est ni d'une banale carte d'identité ni d'un badge quelconque dont il s'agit. Non, de "2001 l'Odyssée de l'espace" à bien d'autres polars orbitaux, en passant par les derniers exploits nucléaires de James Bond, le héros aboutit toujours devant une porte, ou un terminal informatique pour lequel toute formule d'accueil se résume à l'essentiel : "Identification".
Selon le degré d'imagination de l'auteur ou la fortune des producteurs, il ne reste alors au héros qu'à laisser son oeil se faire fouiller par un rayon infra-rouge (relevé des vaisseaux rétiniens), poser sa main contre une plaque de verre (analyse des contours de la main et des doigts), ou à prendre son meilleur timbre pour s'écrier "Astronaute Cooper. Nasa. Mot de passe Nashville-Tennesse". Et généralement la porte interdite s'ouvre, ou l'écran du terminal de communication s'orne du minois d'une charmante hôtesse de synthèse qui prend la direction des opérations.
Sans le savoir, vous avez donc déjà vu des terminaux de reconnaissance biométrique au travail. Dans la vie quotidienne il faudra attendre encore un peu avant de se faire identifier par une machine à tous les coins de rue. Pour l'instant, les prix des systèmes (plus de 100.000 francs pour ceux qui sont estimés vraiment sûrs) empêchent leur arrivée en masse. Mais plusieurs milliers de ces installations ont déjà été réalisées à travers le monde, chez les consommateurs de haute sécurité : militaires, services de renseignement, laboratoires à zones d'accès limité. Les technologies les plus répandues étant celles de la mémorisation de la géométrie de l'arbre rétinien, le vaisseau sanguin qui irrigue le fond de l'oeil. L'image est obtenue par un scanner optique à infra-rouge, qui lit en quelques fractions de seconde l'image de votre rétine, pendant que vous contemplez paisiblement une cible optique. Un ordinateur (type PC) la compare ensuite à celle stockée en mémoire. Près d'un millier de ces dispositifs ont déjà été installés aux Etats-Unis, notamment par la société Eyedentify. La fiabilité est presque totale, mais l'opération est lourde, trop pour se voir appliquée à des centaines de personnes au passage d'une enceinte. Autre méthode, aux allures plus classiques, les empreintes digitales. Lues par un terminal électronique et comparées à celles enregistrées dans une carte que le candidat à la reconnaissance doit introduire dans la machine. C'est ce que propose la firme américaine Identitix. C'est plus souple, plus rapide, moins cher mais moins fiable : le système est "ouvert" (on est porteur d'une information mémorisée dans une carte), ce qui prête le flanc à la fraude.
La technique présente l'avantage de pouvoir gérer des flux importants de personnes. On peut donc installer de tels dispositifs à l'entrée de grandes administrations, d'immeubles, comme ceux de centres militaires, de recherches, de banques.
Variante au genre digital, la reconnaissance des formes de la main, éprouvée par Mitsubishi, qui diminue les coûts, augmente encore le débit des personnes, et baisse un peu la garde de la sécurité.
"Tout dépend du niveau de sécurité que l'on recherche, et du nombre de personnes à vérifier", explique Michel Tantet, responsable recherche sur la sécurité électronique chez Fichet-Bauche.
Finalement l'idéal ne serait-il pas d'être reconnu par une machine se passant de contact physique, à la simple écoute de sa voix, éventuellement assortie d'un mot de passe ? L'empreinte d'identité vocale suscite aujourd'hui bien des recherches. L'enjeu est énorme. Il s'agit à terme, de pouvoir authentifier à coup sûr l'auteur d'une phrase, d'un mot. Comme on sait aujourd'hui reconnaître une empreinte digitale ou génétique. Mais le système présenterait l'avantage de la souplesse totale. Pour accéder à distance à des banques de données informatiques, s'identifier au téléphone pour des services de télé-achat, accéder à des services divers sans avoir à transporter en permanence avec soi une douzaine de cartes et de badges accréditifs. Mais c'est particulièrement ardu, car la voix est une information fluctuante et éphémère. "C'est plus difficile qu'avec le fond de l'oeil ou une empreinte, car presque tout est variable", explique Jean-Sylvain Lienard, chercheur au Laboratoire d'Informatique pour la Mécanique et les Sciences de l'Ingénieur d'Orsay (LIMSI). Certes, personne ne parle comme vous. Mais quelle mode d'analyse utiliser pour le savoir ? La simple comparaison des profils des fréquences vocales, pratiquée dès la fin des années 70, est largement insuffisante. Un mot est rarement prononcé deux fois de suite de la même manière, ce qui empêche de trop "serrer" les critères d'identification. Par contre, si l'on est trop tolérant, un bon imitateur (ou une bande magnétique) parviendra à induire la machine en erreur. Bien entendu, un dispositif de reconnaissance simple sera suffisant si l'on veut mettre une sécurité de bas niveau sur une entrée à faible protection, ou ordonner à une porte de s'ouvrir lorsque l'on arrive les bras encombrés d'objets. L'inventive Martine Kempf s'est rendue célèbre en 1985 pour ses prouesses en la matière, avec son Katalvox, qui permettait de commander des fonctions à la voix. de nombreuses applications ont été depuis réalisées, que ce soit dans l'automobile, l'aide logistique aux handicapés, ou les chambres d'hôpital dont les portes, fenêtres et volets s'ouvrent ou se déroulent à la voix . Mais quelqu'un qui souhaite pénétrer dans le local saura vite contourner un tel appareil, a priori incapable d'effectuer un contrôle d'identité vocale.
Pourtant les chercheurs ne désespèrent pas de mettre au point des algorithmes, des méthodes de sélection d'échantillons vocaux pour offrir à leur électronique la possibilité de savoir qui parle. Un domaine qui intéresse bien naturellement les autorités de police, qui aimeraient déjà disposer d'une machine à mettre des noms sur des enregistrements magnétiques. Un appel d'offre a déjà été lancé en ce sens.
Dans l'état actuel des techniques, il est exclu de reconnaître formellement la voix de quelqu'un, enregistrée sur bande magnétique. Souvent l'enregistrement a été réalisé au moment de l'action, de façon à peine préméditée, "sur le vif", au moyen d'un magnétophone de mauvaise qualité, parfois au téléphone (répondeur-enregistreur), avec des bruits de fond, et dans des conditions de stress du locuteur. Sans parler du truc bien connu du "mouchoir devant la bouche" que pratiquent volontiers maîtres chanteurs. "Quand on demande à des suspects de lire pour comparaison vocale un texte, on peut rarement compter sur leur bonne volonté à utiliser le même ton qu'au moment de l'action. Et de toute manière, la situation ne présentant pas le même niveau de stress, le résultat sera souvent très différent", souligne Bernard Prouts, responsable de l'activité traitement de la parole chez Vecsys. Ce qui n'empêche pas les autorités de police de consulter régulièrement les experts sur le sujet. Les scientifiques sont très partagés sur l'intérêt de la démarche, certains, dans le cadre d'une sorte de moratoire, ont pour le moment carrément refusé de travailler dans cette voie.
Aux Etats-Unis, la société Sensimetrics de Cambridge (Massachusetts) vient pour sa part d'annoncer une curieuse prouesse, qui pourrait constituer une percée. Les chercheurs assurent avoir identifié parmi les discours de guerre de Winston Churchill des textes qui avaient été enregistré en studio par un acteur-imitateur, Norman Shelley. Une innocente mascarade destinée à enregistrer a posteriori des discours qui avaient été prononcés en l'absence de micros. Churchill avait autre chose à faire. Une astuce dont personne ne s'était aperçu, et que l'acteur avait confessé juste avant de décéder. Pour parvenir à ce résultat, les ingénieurs ont mis au point une technique qui reconnait la manière dont le Premier ministre britannique associait les formants, les résonances de fréquences de sa voix, pour obtenir des sons. Il suffit de disposer d'un bon enregistrement de la voix de quelqu'un pour façonner cette empreinte vocale. Son intérêt est à première vue de rester constante chez un individu, ce qui permet de reconnaître quelqu'un même si le texte prononcé ou l'intonation changent.
Juillet 1991 (Les Echos)
C'est inévitable, dans tout film d'anticipation qui se respecte il faut montrer patte blanche. Et quand on dit patte, ce n'est ni d'une banale carte d'identité ni d'un badge quelconque dont il s'agit. Non, de "2001 l'Odyssée de l'espace" à bien d'autres polars orbitaux, en passant par les derniers exploits nucléaires de James Bond, le héros aboutit toujours devant une porte, ou un terminal informatique pour lequel toute formule d'accueil se résume à l'essentiel : "Identification".
Selon le degré d'imagination de l'auteur ou la fortune des producteurs, il ne reste alors au héros qu'à laisser son oeil se faire fouiller par un rayon infra-rouge (relevé des vaisseaux rétiniens), poser sa main contre une plaque de verre (analyse des contours de la main et des doigts), ou à prendre son meilleur timbre pour s'écrier "Astronaute Cooper. Nasa. Mot de passe Nashville-Tennesse". Et généralement la porte interdite s'ouvre, ou l'écran du terminal de communication s'orne du minois d'une charmante hôtesse de synthèse qui prend la direction des opérations.
Sans le savoir, vous avez donc déjà vu des terminaux de reconnaissance biométrique au travail. Dans la vie quotidienne il faudra attendre encore un peu avant de se faire identifier par une machine à tous les coins de rue. Pour l'instant, les prix des systèmes (plus de 100.000 francs pour ceux qui sont estimés vraiment sûrs) empêchent leur arrivée en masse. Mais plusieurs milliers de ces installations ont déjà été réalisées à travers le monde, chez les consommateurs de haute sécurité : militaires, services de renseignement, laboratoires à zones d'accès limité. Les technologies les plus répandues étant celles de la mémorisation de la géométrie de l'arbre rétinien, le vaisseau sanguin qui irrigue le fond de l'oeil. L'image est obtenue par un scanner optique à infra-rouge, qui lit en quelques fractions de seconde l'image de votre rétine, pendant que vous contemplez paisiblement une cible optique. Un ordinateur (type PC) la compare ensuite à celle stockée en mémoire. Près d'un millier de ces dispositifs ont déjà été installés aux Etats-Unis, notamment par la société Eyedentify. La fiabilité est presque totale, mais l'opération est lourde, trop pour se voir appliquée à des centaines de personnes au passage d'une enceinte. Autre méthode, aux allures plus classiques, les empreintes digitales. Lues par un terminal électronique et comparées à celles enregistrées dans une carte que le candidat à la reconnaissance doit introduire dans la machine. C'est ce que propose la firme américaine Identitix. C'est plus souple, plus rapide, moins cher mais moins fiable : le système est "ouvert" (on est porteur d'une information mémorisée dans une carte), ce qui prête le flanc à la fraude.
La technique présente l'avantage de pouvoir gérer des flux importants de personnes. On peut donc installer de tels dispositifs à l'entrée de grandes administrations, d'immeubles, comme ceux de centres militaires, de recherches, de banques.
Variante au genre digital, la reconnaissance des formes de la main, éprouvée par Mitsubishi, qui diminue les coûts, augmente encore le débit des personnes, et baisse un peu la garde de la sécurité.
"Tout dépend du niveau de sécurité que l'on recherche, et du nombre de personnes à vérifier", explique Michel Tantet, responsable recherche sur la sécurité électronique chez Fichet-Bauche.
Finalement l'idéal ne serait-il pas d'être reconnu par une machine se passant de contact physique, à la simple écoute de sa voix, éventuellement assortie d'un mot de passe ? L'empreinte d'identité vocale suscite aujourd'hui bien des recherches. L'enjeu est énorme. Il s'agit à terme, de pouvoir authentifier à coup sûr l'auteur d'une phrase, d'un mot. Comme on sait aujourd'hui reconnaître une empreinte digitale ou génétique. Mais le système présenterait l'avantage de la souplesse totale. Pour accéder à distance à des banques de données informatiques, s'identifier au téléphone pour des services de télé-achat, accéder à des services divers sans avoir à transporter en permanence avec soi une douzaine de cartes et de badges accréditifs. Mais c'est particulièrement ardu, car la voix est une information fluctuante et éphémère. "C'est plus difficile qu'avec le fond de l'oeil ou une empreinte, car presque tout est variable", explique Jean-Sylvain Lienard, chercheur au Laboratoire d'Informatique pour la Mécanique et les Sciences de l'Ingénieur d'Orsay (LIMSI). Certes, personne ne parle comme vous. Mais quelle mode d'analyse utiliser pour le savoir ? La simple comparaison des profils des fréquences vocales, pratiquée dès la fin des années 70, est largement insuffisante. Un mot est rarement prononcé deux fois de suite de la même manière, ce qui empêche de trop "serrer" les critères d'identification. Par contre, si l'on est trop tolérant, un bon imitateur (ou une bande magnétique) parviendra à induire la machine en erreur. Bien entendu, un dispositif de reconnaissance simple sera suffisant si l'on veut mettre une sécurité de bas niveau sur une entrée à faible protection, ou ordonner à une porte de s'ouvrir lorsque l'on arrive les bras encombrés d'objets. L'inventive Martine Kempf s'est rendue célèbre en 1985 pour ses prouesses en la matière, avec son Katalvox, qui permettait de commander des fonctions à la voix. de nombreuses applications ont été depuis réalisées, que ce soit dans l'automobile, l'aide logistique aux handicapés, ou les chambres d'hôpital dont les portes, fenêtres et volets s'ouvrent ou se déroulent à la voix . Mais quelqu'un qui souhaite pénétrer dans le local saura vite contourner un tel appareil, a priori incapable d'effectuer un contrôle d'identité vocale.
Pourtant les chercheurs ne désespèrent pas de mettre au point des algorithmes, des méthodes de sélection d'échantillons vocaux pour offrir à leur électronique la possibilité de savoir qui parle. Un domaine qui intéresse bien naturellement les autorités de police, qui aimeraient déjà disposer d'une machine à mettre des noms sur des enregistrements magnétiques. Un appel d'offre a déjà été lancé en ce sens.
Dans l'état actuel des techniques, il est exclu de reconnaître formellement la voix de quelqu'un, enregistrée sur bande magnétique. Souvent l'enregistrement a été réalisé au moment de l'action, de façon à peine préméditée, "sur le vif", au moyen d'un magnétophone de mauvaise qualité, parfois au téléphone (répondeur-enregistreur), avec des bruits de fond, et dans des conditions de stress du locuteur. Sans parler du truc bien connu du "mouchoir devant la bouche" que pratiquent volontiers maîtres chanteurs. "Quand on demande à des suspects de lire pour comparaison vocale un texte, on peut rarement compter sur leur bonne volonté à utiliser le même ton qu'au moment de l'action. Et de toute manière, la situation ne présentant pas le même niveau de stress, le résultat sera souvent très différent", souligne Bernard Prouts, responsable de l'activité traitement de la parole chez Vecsys. Ce qui n'empêche pas les autorités de police de consulter régulièrement les experts sur le sujet. Les scientifiques sont très partagés sur l'intérêt de la démarche, certains, dans le cadre d'une sorte de moratoire, ont pour le moment carrément refusé de travailler dans cette voie.
Aux Etats-Unis, la société Sensimetrics de Cambridge (Massachusetts) vient pour sa part d'annoncer une curieuse prouesse, qui pourrait constituer une percée. Les chercheurs assurent avoir identifié parmi les discours de guerre de Winston Churchill des textes qui avaient été enregistré en studio par un acteur-imitateur, Norman Shelley. Une innocente mascarade destinée à enregistrer a posteriori des discours qui avaient été prononcés en l'absence de micros. Churchill avait autre chose à faire. Une astuce dont personne ne s'était aperçu, et que l'acteur avait confessé juste avant de décéder. Pour parvenir à ce résultat, les ingénieurs ont mis au point une technique qui reconnait la manière dont le Premier ministre britannique associait les formants, les résonances de fréquences de sa voix, pour obtenir des sons. Il suffit de disposer d'un bon enregistrement de la voix de quelqu'un pour façonner cette empreinte vocale. Son intérêt est à première vue de rester constante chez un individu, ce qui permet de reconnaître quelqu'un même si le texte prononcé ou l'intonation changent.
Libellés :
biologie,
prospective,
science,
science IA,
technologies
jeudi 6 mars 2008
Brancher puces et neurones
1991
Dans notre monde grouillant de créatures électroniques, l'idéal, pour mieux dialoguer avec les machines, serait encore de greffer directement quelques puces de silicium sur des neurones de notre cerveau. Plus d'embouteillage de mots, plus de soucis de frappe fastidieuses sur clavier, ou de lectures harassante sur écran : l'ordinateur serait directement "branché" sur le cerveau.
Cette vision "extrème" de l'évolution de l'interface entre l'homme et l'électronique relève pour l'heure de la plus pure "technologie fiction". Mais certains scientifiques y pensent, à long terme. Depuis quelques semaines, l'objectif de développer des bio-senseurs et des circuits neuro-électroniques parait même un peu plus réaliste. Après de premières tentatives spectaculaires mais stériles dans ce domaine, au début des années 80, un premier pas vient en effet d'être franchit : une petite jonction électrique a été formée entre une cellule nerveuse et du silicium, au laboratoire de biophysique de l'université d'Ulm, en Allemagne. Peter Fromherz et Andreas Offenhäusser y sont parvenus à greffer des neurones de sangsues sur du silicium oxydé, obtenant avec cet ensemble pour le moins hybride un comportement du type transistor à effet de champ (1), contrôlé par la tension délivrée par le neurone.
L'objectif de recherches aussi spéculatives est triple. Il s'agit d'explorer dans un premier temps les capacités de cellules humaines vivantes à se coupler à des éléments électroniques, pour interagir directement avec eux. Dans une seconde phase, il sera peut-être possible de produire des élements électroniques bio-compatibles qui serviront à étudier le fonctionnement du cerveau et de réseaux neuronaux, en venant s'intercaler entre des neurones. De telles sondes seraient capables d'espionner les dialogues entres cellules nerveuses, pour déterminer les fonctions de différentes régions cérébrales ou motrices. Ou dépister le fonctionnement de sytsèmes subtils, comme celui de la douleur. Enfin, bien plus tard, on peut penser à mettre en relation une forme plus ou moins complexe d'électronique avec certaines fonctions cérébrales. Et réaliser de véritables "prothèses" bio-électroniques pour compenser des déficiences fonctionnelles, comme chez les non-voyants, ou faciliter certaines acquisitions d'informations, chez des pilotes que l'on doterait d'une vision "améliorée" à l'aide de caméras greffées sur des neurones.
Plus proche de nous, l'ordinateur "biologique", dont les composants ne seraient plus seulement électroniques, mais en partie vivants, utiliserait des cellules nerveuses ou des bactéries pour stocker des informations de manière plus souple et plus économe en énergie que les actuelles mémoires des ordinateurs. Pur phantasme ? Peut-être. Mais même rudimentaires, les premières application de composants bio-électroniques pourraient surtout venir compléter les technologies des bio-capteurs, pour en faire exploser le nombre d'applications.
Un bio-capteur, c'est un espion parfait du monde chimique. Un traître capable de déceler la présence, en infimes quantités, de substances importantes comme le glucose, les ions sodium ou l'oxygène. Une sorte de papille gustative artificielle, capable de goûter des substances que nos sens grossiers ne savent pas déceler. L'intérèt ? Suivre pas à pas l'évolution biochimique d'un milieu, que ce soit à l'intérieur d'un organe du corps humain, ou dans une cuve de fermentation destinée à produire des substances pharmaceutiques par génie génétique.
Précisément, les bio-capteurs aujourd'hui disponibles dans les laboratoires ne sont pas assez rapides, peu sensibles, et relativement peu fiables. Et plus d'une douzaine de firmes son engagés dans une compétition internationale au couteau, dont l'enjeu est la mise au point d'une génération de capteurs vraiment efficaces. Ce serait là une évolution majeure : à base de structures métalliques (oxydes d'aluminium) et de membranes de polymères (plastiques), de tels capteurs pourraient recouvrir les parois des puits pour veiller de façon permanente à la qualité de l'eau, dans les nappes phréatiques. Installées dans le sous-sol et reliées à des ordinateurs, ces sentinelles détecteraient immédiatement toute infiltration de substances toxiques. En recherche, les applications potentielles sont légions, comme la détection des neurotransmetteurs qui agissent entre terminaisons nerveuses. Et parmi les retombées médicales, l'une des plus cruciales serait le contrôle en temps réel du taux de glucose dans le sang. Installés dans les vaisseaux sanguins, ils offriraient à des diabétiques de réguler leur taux de sucre en déclanchant l'injection à la demande d'insuline dans leur organisme, au moyen de micro-pompes. Les industriels ne sont pas les derniers intéressés. Une bonne part de l'efficacité des productions biotechnologiques repose sur la capacité à contrôler les réactions de fermentation dans les grandes cuves industrielles, tâche qui pourrait être confiée avec une grande efficacité à des membranes capables de détecter des substances déterminées avec une précision micrométrique.
Dans l'environnement, il serait encore possible de détecter immédiatement, dans les champs, toute concentration excessive de pesticides ou d'engrais. Bref, partout où il est devenu crucial de pister des quantités infinitésimales de produits actifs, les "bio-capteurs" sont promis à une développement comparable à celui des composants électroniques : foudroyant.
(1) Science, vol 252, page 1290
Dans notre monde grouillant de créatures électroniques, l'idéal, pour mieux dialoguer avec les machines, serait encore de greffer directement quelques puces de silicium sur des neurones de notre cerveau. Plus d'embouteillage de mots, plus de soucis de frappe fastidieuses sur clavier, ou de lectures harassante sur écran : l'ordinateur serait directement "branché" sur le cerveau.
Cette vision "extrème" de l'évolution de l'interface entre l'homme et l'électronique relève pour l'heure de la plus pure "technologie fiction". Mais certains scientifiques y pensent, à long terme. Depuis quelques semaines, l'objectif de développer des bio-senseurs et des circuits neuro-électroniques parait même un peu plus réaliste. Après de premières tentatives spectaculaires mais stériles dans ce domaine, au début des années 80, un premier pas vient en effet d'être franchit : une petite jonction électrique a été formée entre une cellule nerveuse et du silicium, au laboratoire de biophysique de l'université d'Ulm, en Allemagne. Peter Fromherz et Andreas Offenhäusser y sont parvenus à greffer des neurones de sangsues sur du silicium oxydé, obtenant avec cet ensemble pour le moins hybride un comportement du type transistor à effet de champ (1), contrôlé par la tension délivrée par le neurone.
L'objectif de recherches aussi spéculatives est triple. Il s'agit d'explorer dans un premier temps les capacités de cellules humaines vivantes à se coupler à des éléments électroniques, pour interagir directement avec eux. Dans une seconde phase, il sera peut-être possible de produire des élements électroniques bio-compatibles qui serviront à étudier le fonctionnement du cerveau et de réseaux neuronaux, en venant s'intercaler entre des neurones. De telles sondes seraient capables d'espionner les dialogues entres cellules nerveuses, pour déterminer les fonctions de différentes régions cérébrales ou motrices. Ou dépister le fonctionnement de sytsèmes subtils, comme celui de la douleur. Enfin, bien plus tard, on peut penser à mettre en relation une forme plus ou moins complexe d'électronique avec certaines fonctions cérébrales. Et réaliser de véritables "prothèses" bio-électroniques pour compenser des déficiences fonctionnelles, comme chez les non-voyants, ou faciliter certaines acquisitions d'informations, chez des pilotes que l'on doterait d'une vision "améliorée" à l'aide de caméras greffées sur des neurones.
Plus proche de nous, l'ordinateur "biologique", dont les composants ne seraient plus seulement électroniques, mais en partie vivants, utiliserait des cellules nerveuses ou des bactéries pour stocker des informations de manière plus souple et plus économe en énergie que les actuelles mémoires des ordinateurs. Pur phantasme ? Peut-être. Mais même rudimentaires, les premières application de composants bio-électroniques pourraient surtout venir compléter les technologies des bio-capteurs, pour en faire exploser le nombre d'applications.
Un bio-capteur, c'est un espion parfait du monde chimique. Un traître capable de déceler la présence, en infimes quantités, de substances importantes comme le glucose, les ions sodium ou l'oxygène. Une sorte de papille gustative artificielle, capable de goûter des substances que nos sens grossiers ne savent pas déceler. L'intérèt ? Suivre pas à pas l'évolution biochimique d'un milieu, que ce soit à l'intérieur d'un organe du corps humain, ou dans une cuve de fermentation destinée à produire des substances pharmaceutiques par génie génétique.
Précisément, les bio-capteurs aujourd'hui disponibles dans les laboratoires ne sont pas assez rapides, peu sensibles, et relativement peu fiables. Et plus d'une douzaine de firmes son engagés dans une compétition internationale au couteau, dont l'enjeu est la mise au point d'une génération de capteurs vraiment efficaces. Ce serait là une évolution majeure : à base de structures métalliques (oxydes d'aluminium) et de membranes de polymères (plastiques), de tels capteurs pourraient recouvrir les parois des puits pour veiller de façon permanente à la qualité de l'eau, dans les nappes phréatiques. Installées dans le sous-sol et reliées à des ordinateurs, ces sentinelles détecteraient immédiatement toute infiltration de substances toxiques. En recherche, les applications potentielles sont légions, comme la détection des neurotransmetteurs qui agissent entre terminaisons nerveuses. Et parmi les retombées médicales, l'une des plus cruciales serait le contrôle en temps réel du taux de glucose dans le sang. Installés dans les vaisseaux sanguins, ils offriraient à des diabétiques de réguler leur taux de sucre en déclanchant l'injection à la demande d'insuline dans leur organisme, au moyen de micro-pompes. Les industriels ne sont pas les derniers intéressés. Une bonne part de l'efficacité des productions biotechnologiques repose sur la capacité à contrôler les réactions de fermentation dans les grandes cuves industrielles, tâche qui pourrait être confiée avec une grande efficacité à des membranes capables de détecter des substances déterminées avec une précision micrométrique.
Dans l'environnement, il serait encore possible de détecter immédiatement, dans les champs, toute concentration excessive de pesticides ou d'engrais. Bref, partout où il est devenu crucial de pister des quantités infinitésimales de produits actifs, les "bio-capteurs" sont promis à une développement comparable à celui des composants électroniques : foudroyant.
(1) Science, vol 252, page 1290
mardi 5 février 2008
L'intelligence artificielle est-elle possible ?
L'intelligence artificielle tombe-t-elle sous le sens ?
1992
L'intelligence fera-t-elle un jour son nid dans les circuits de silicium des ordinateurs ? Cela fait 35 ans, depuis la naissance du terme "intelligence artificielle" dans le laboratoire américain de Carnergie Tech, que la question est comme affichée sur les frontons des laboratoires de recherche, irritante. Et la réponse est plus que fuyante.
Si certains chercheurs sont convaincus que les machines battront dans un proche avenir les champions d'échecs, et que petit à petit elles grignoteront les domaines de compétence de l'esprit humain, d'autres experts sont plus pessimistes. Ils croient discerner aujourd'hui les indices de la faillite de l'informatique dans sa folle ambition de rivaliser avec notre cerveau. Qui a raison ? Jacques Arsac, professeur à l'université Paris VI, correspondant de l'Académie des Sciences a été le titulaire de la première chaire de programmation créée en France. Pessimiste, il a son intime conviction sur le sujet. Mais il tente de poser le problème sur le fond.
Q. A la lumière des derniers indices disponibles aujourd'hui, peut-on dire si une authentique intelligence artificielle, comparable par ses performances à l'esprit humain, devient imaginable ?
J. A.Le problème de fond, est que la machine n'a pour l'heure pas accès au sens. Elle ne manipule que des termes formels, des images, vides de connatations, d'évocations, de significations. Pour une machine, un arc-en ciel sera définit par d'autres mots, comme polarisation de la lumière, ou image poétique. Moi, à l'audition de ce mot, je ressens fortement cette image poétique, et ma pesrsonne, Jacques Arsac, pense au texte de la Bible, quand les animaux sortent de l'Arche de Noé, et que l'arc-en-ciel est désigné comme le symbole de l'Alliance. C'est ma culture, mes sensatsions. Essayez d'enregistrer toutes les cultures, dans un ordinateur, et plus encore, les sensations !
Q La séparation est définitive ?
J. A. Une telle différence pose une double question : le sens des choses existe-t-il, n'existe-t-il pas ? S'il existe, alors on sait en quoi l'homme et la machine différent, puisque celle-ci n'aura probablement jamais accès au sens. Mais existe-t-il vraiment ?
On le voit, il y a là une première difficulté, et de taille : définir le sens des mots et des choses, afin de pouvoir estimer si un jour les machines le partageront avec nous
Ce n'est pas évident, on est renvoyé à notre vision intime de l'homme. Soit nous sommes des machines biologiques, avec des neurones qui échangent des substances bio-chimiques, comme le perçoit Jean-Pierre Changeux dans "L'homme neuronal". Mais si l'on pense, comme moi, que l'homme est autre chose qu'une simple machine, on peut se dire que jamais une machine ne copiera tout à fait le fonctionnement du cerveau.
Q. Dans la pratique, comment peut-on séparer notre monde, celui du sens de celui, formel, accessible aux ordinateurs ?
J.A. C'est un fait reconnu aujourd'hui, même par les optimistes partisans de l'intelligence artificielle, que l'informatique repose sur les systèmes formels, où ne plane aucun doute sur le sens des choses. On échafaude des théories, on tente de faire entrer du sens dans cet univers formel, par exemple par les "réseaux sémantiques", des dictionnaires de milliers de mots, dans lesquels on établit des liaisons entre les mots. Comme quand on dit que "tigre" et "carnivore" vont ensemble. L'un fait référence à l'autre.
Le linguiste Umberto Eco a étudié ces tentatives dans son ouvrage "Sémiotique et philosophie du langage". Il pense clairement que ce jeu de renvois de mot à mot ne crée aucun sens. Si l'on injecte pas à un moment ou à un autre du sens sur certains mots, on tourne en rond. Admettez que vous ayez un dictionnaire d'un dialecte martien. Vous n'y comprendrez rien si vous n'injectez pas de la signification quelque part, en partagent quelques jours la vie des martiens, ou en sachant que tel mot correspond à tel sens dans votre langue.
Q Pour vous, le sens est une pure création de l'esprit humain. S'il ne peut exister ailleurs, notamment dans les machines ne vaut-il pas mieux arrèter toutes les recherches en intelligence artificielle ?
J A . Non, il faut absolument poursuivre les travaux pour tenter de voir clair dans cette affaire. Actuellement aucune théorie, aucune expérience ne permet de conclure. Dans ces conditions les gens se battent sur leurs croyances, même s'ils ne veulent pas admettre que c'est au niveau de la croyance que cela se passe. Mais c'est là que la quète devient passionnante.
Honnètement, je pense que l'on restera dans l'ambiguité. On aura des exemples, comme des ordinateurs champions d'échecs qui feront dire aux optimistes "vous voyez on va y arriver", mais il restera suffisamment de trous, de zones d'ombre pour que les pessimistes puisse tendre des pièges à l'intelligence des ordinateurs.
Le sens est une espèce de mur dressé sur la route de l'informatique.
C'est peut-être le mur du son, et alors on le passera, c'est peut-être celui de la lumière, pour l'heure ionfranchissable. Peut-être aussi approchera-t-on de ce mur à 99,9 % et il ne restera que quelques poèmes de Rimbaud que l'on ne pourra pas traduire automatiquement en japonais ou alors la plupart des choses complexes resteront inaccessibles aux machines.
Q Dans un domaine précis, comme celui de la traduction, pourra-t-on aller plus loin ?
J A : Il existe de nombreux cas ou l'on peut traduire sans comprendre, c'est une chance. Mais un bon traducteur perçoit le sens d'un texte et dit ce sens dans un autre langue. La bonne traduction est celle qui conserve le sens et les images, pas les structures de la phrase. Alors que faire face à une expression du type "Paul ferme la porte", qui possède déjà trois sens : la fermeture de la porte par Paul, un ordre de fermer la porte, ou d'un Paul qui porterait fermement quelqu'un ?
Quand de Gaulle dit à Alger "Je vous ai compris", on ne sait pas vraiment ce qu'il a voulu dire, et pourtant cela se traduit très facilement pour un ordinateur.
Ou bien l'ordinateur ne pourra jamais faire tout ce que nous faisons, ou bien il y parviendra, et alors le sens est une illusion. C'est imparable. En attendant, les gens choisissent leur camp, en fonctions de leurs croyances.
1992
L'intelligence fera-t-elle un jour son nid dans les circuits de silicium des ordinateurs ? Cela fait 35 ans, depuis la naissance du terme "intelligence artificielle" dans le laboratoire américain de Carnergie Tech, que la question est comme affichée sur les frontons des laboratoires de recherche, irritante. Et la réponse est plus que fuyante.
Si certains chercheurs sont convaincus que les machines battront dans un proche avenir les champions d'échecs, et que petit à petit elles grignoteront les domaines de compétence de l'esprit humain, d'autres experts sont plus pessimistes. Ils croient discerner aujourd'hui les indices de la faillite de l'informatique dans sa folle ambition de rivaliser avec notre cerveau. Qui a raison ? Jacques Arsac, professeur à l'université Paris VI, correspondant de l'Académie des Sciences a été le titulaire de la première chaire de programmation créée en France. Pessimiste, il a son intime conviction sur le sujet. Mais il tente de poser le problème sur le fond.
Q. A la lumière des derniers indices disponibles aujourd'hui, peut-on dire si une authentique intelligence artificielle, comparable par ses performances à l'esprit humain, devient imaginable ?
J. A.Le problème de fond, est que la machine n'a pour l'heure pas accès au sens. Elle ne manipule que des termes formels, des images, vides de connatations, d'évocations, de significations. Pour une machine, un arc-en ciel sera définit par d'autres mots, comme polarisation de la lumière, ou image poétique. Moi, à l'audition de ce mot, je ressens fortement cette image poétique, et ma pesrsonne, Jacques Arsac, pense au texte de la Bible, quand les animaux sortent de l'Arche de Noé, et que l'arc-en-ciel est désigné comme le symbole de l'Alliance. C'est ma culture, mes sensatsions. Essayez d'enregistrer toutes les cultures, dans un ordinateur, et plus encore, les sensations !
Q La séparation est définitive ?
J. A. Une telle différence pose une double question : le sens des choses existe-t-il, n'existe-t-il pas ? S'il existe, alors on sait en quoi l'homme et la machine différent, puisque celle-ci n'aura probablement jamais accès au sens. Mais existe-t-il vraiment ?
On le voit, il y a là une première difficulté, et de taille : définir le sens des mots et des choses, afin de pouvoir estimer si un jour les machines le partageront avec nous
Ce n'est pas évident, on est renvoyé à notre vision intime de l'homme. Soit nous sommes des machines biologiques, avec des neurones qui échangent des substances bio-chimiques, comme le perçoit Jean-Pierre Changeux dans "L'homme neuronal". Mais si l'on pense, comme moi, que l'homme est autre chose qu'une simple machine, on peut se dire que jamais une machine ne copiera tout à fait le fonctionnement du cerveau.
Q. Dans la pratique, comment peut-on séparer notre monde, celui du sens de celui, formel, accessible aux ordinateurs ?
J.A. C'est un fait reconnu aujourd'hui, même par les optimistes partisans de l'intelligence artificielle, que l'informatique repose sur les systèmes formels, où ne plane aucun doute sur le sens des choses. On échafaude des théories, on tente de faire entrer du sens dans cet univers formel, par exemple par les "réseaux sémantiques", des dictionnaires de milliers de mots, dans lesquels on établit des liaisons entre les mots. Comme quand on dit que "tigre" et "carnivore" vont ensemble. L'un fait référence à l'autre.
Le linguiste Umberto Eco a étudié ces tentatives dans son ouvrage "Sémiotique et philosophie du langage". Il pense clairement que ce jeu de renvois de mot à mot ne crée aucun sens. Si l'on injecte pas à un moment ou à un autre du sens sur certains mots, on tourne en rond. Admettez que vous ayez un dictionnaire d'un dialecte martien. Vous n'y comprendrez rien si vous n'injectez pas de la signification quelque part, en partagent quelques jours la vie des martiens, ou en sachant que tel mot correspond à tel sens dans votre langue.
Q Pour vous, le sens est une pure création de l'esprit humain. S'il ne peut exister ailleurs, notamment dans les machines ne vaut-il pas mieux arrèter toutes les recherches en intelligence artificielle ?
J A . Non, il faut absolument poursuivre les travaux pour tenter de voir clair dans cette affaire. Actuellement aucune théorie, aucune expérience ne permet de conclure. Dans ces conditions les gens se battent sur leurs croyances, même s'ils ne veulent pas admettre que c'est au niveau de la croyance que cela se passe. Mais c'est là que la quète devient passionnante.
Honnètement, je pense que l'on restera dans l'ambiguité. On aura des exemples, comme des ordinateurs champions d'échecs qui feront dire aux optimistes "vous voyez on va y arriver", mais il restera suffisamment de trous, de zones d'ombre pour que les pessimistes puisse tendre des pièges à l'intelligence des ordinateurs.
Le sens est une espèce de mur dressé sur la route de l'informatique.
C'est peut-être le mur du son, et alors on le passera, c'est peut-être celui de la lumière, pour l'heure ionfranchissable. Peut-être aussi approchera-t-on de ce mur à 99,9 % et il ne restera que quelques poèmes de Rimbaud que l'on ne pourra pas traduire automatiquement en japonais ou alors la plupart des choses complexes resteront inaccessibles aux machines.
Q Dans un domaine précis, comme celui de la traduction, pourra-t-on aller plus loin ?
J A : Il existe de nombreux cas ou l'on peut traduire sans comprendre, c'est une chance. Mais un bon traducteur perçoit le sens d'un texte et dit ce sens dans un autre langue. La bonne traduction est celle qui conserve le sens et les images, pas les structures de la phrase. Alors que faire face à une expression du type "Paul ferme la porte", qui possède déjà trois sens : la fermeture de la porte par Paul, un ordre de fermer la porte, ou d'un Paul qui porterait fermement quelqu'un ?
Quand de Gaulle dit à Alger "Je vous ai compris", on ne sait pas vraiment ce qu'il a voulu dire, et pourtant cela se traduit très facilement pour un ordinateur.
Ou bien l'ordinateur ne pourra jamais faire tout ce que nous faisons, ou bien il y parviendra, et alors le sens est une illusion. C'est imparable. En attendant, les gens choisissent leur camp, en fonctions de leurs croyances.
Libellés :
philosophie,
prospective,
science IA,
techniques,
technologies
mercredi 30 janvier 2008
Web : les agents intelligents
94
Des avions plein le ciel qui risquent la collision à la moindre défaillance humaine, des compagnies de téléphone ou d'électricité qui ne savent plus comment gèrer des réseaux trop complexes, aux abonnés en explosion démographique. Des systèmes informatiques de plus en plus impénétrables, dans lesquels il faut disposer d'un véritable savoir faire pour trouver l'information recherchée, dans un océan de données, de registres, de messageries...
Le réseau informatique mondial est menacé à chaque instant d'une véritable implosion. Qu'un ordinateur s'enraye à Tokyo, et les cours du café ou de a vanille sont bloqués pour plusieurs heures, avec des conséquences pour les pays producteurs.
Comment trouver une nouvelle voie dans cet univers de complexité ?
En donnant un peu d'intelligence aux ordinateurs. En créant de petits programmes, des esclaves, qui iront se promener pour e compte de chaque utilisateur dans le réseau informatique mondial, afin de rechercher les informations demeandées, amis aussi négocier un tarif, ou répartir le temps d'utilisation d'une installation scientifique. des compagnies d'électricité sont ainsi en trai de truffer leurs réseaux de tels agents électroniques intelligents, qui seront capables de bavarder entre eux pour savoir de quelle puisance aura besoin l'usine de conserves de la banlieue, alors que le centre ville connait à cette heure-là une demande d'énergie croissante.
Ces petits lutins électroniques existent déjà, pour des applications haut de gamme. A la Nasa, ils répartissent le temps d'observation sur les différents télescopes du parc de l'agence américaine. Chacun veille sur un télescope, et en fonction de l'importance du travail scientifique, de son urgence, il met à disposition un créneau horaire après avoir négocié avec les agents des autres télescopes.
L'une des plus anciennes versions d'un tel agent, Rodney, est un clone électronique conçu à l'Université de Washington, à Seattle, qui parcourt les messageries électroniques mondiales du style Internet pour retrouver la trace d'un correspondant dont on sait juste qu'il a publié un certain type d'articles technique, ou qu'il possède une Cadillac jaune, ou bien qu'il enseigne l'ethnopharmacologie à l'université de Yaoundé.
Ceci permet de deviner quelques risques liés à des "doubles informationnels". D'abord, les limites d'accès aux informations confidentielles devront être clairement définies. Que se passerait-il si un observateur extérieur avait accès à toutes les habitudes de consommation et de vie d'une famille ?
Les agents intelligents aux-mêmes risquent de trouver à qui parler. Ils peuvent être l'objet de sollicitations, de pièges commerciaux de la part d'autres agents électroniques, "hyper-attractifs", qui viendront leur vendre des prestations alléchantes, mais légèrement différentes de celles demandées : un club de vacances au lieu d'un petit hôtel tranquille, les deux se trouvant à proximité, sur le même site.
Et puis il y a les maladies, pardon, les virus. Sans vaccination préalable, le risque de contagion sera accru. La récente découverte dans le réseau de messagerie électronique Internet d'un virus qui "espionnait" les codes d'accès à des services protégés qu'envoyaient les utilisateurs a démontré que les pirates sont toujours imaginatifs te largement compétents dans ce domaine. On parle aussi de virus capables de se reproduire, d'évoluer, de modifier leur forme en s'associant à d'autres bouts de programme pour échapper aux défenses trop statiques.
Faudra-t-il aussi mettre en place une police informatique faite d'agents électroniques surveillant l'arrivée de toute information dans un ordinateur ? Cela ne semble pas improbable...
Des avions plein le ciel qui risquent la collision à la moindre défaillance humaine, des compagnies de téléphone ou d'électricité qui ne savent plus comment gèrer des réseaux trop complexes, aux abonnés en explosion démographique. Des systèmes informatiques de plus en plus impénétrables, dans lesquels il faut disposer d'un véritable savoir faire pour trouver l'information recherchée, dans un océan de données, de registres, de messageries...
Le réseau informatique mondial est menacé à chaque instant d'une véritable implosion. Qu'un ordinateur s'enraye à Tokyo, et les cours du café ou de a vanille sont bloqués pour plusieurs heures, avec des conséquences pour les pays producteurs.
Comment trouver une nouvelle voie dans cet univers de complexité ?
En donnant un peu d'intelligence aux ordinateurs. En créant de petits programmes, des esclaves, qui iront se promener pour e compte de chaque utilisateur dans le réseau informatique mondial, afin de rechercher les informations demeandées, amis aussi négocier un tarif, ou répartir le temps d'utilisation d'une installation scientifique. des compagnies d'électricité sont ainsi en trai de truffer leurs réseaux de tels agents électroniques intelligents, qui seront capables de bavarder entre eux pour savoir de quelle puisance aura besoin l'usine de conserves de la banlieue, alors que le centre ville connait à cette heure-là une demande d'énergie croissante.
Ces petits lutins électroniques existent déjà, pour des applications haut de gamme. A la Nasa, ils répartissent le temps d'observation sur les différents télescopes du parc de l'agence américaine. Chacun veille sur un télescope, et en fonction de l'importance du travail scientifique, de son urgence, il met à disposition un créneau horaire après avoir négocié avec les agents des autres télescopes.
L'une des plus anciennes versions d'un tel agent, Rodney, est un clone électronique conçu à l'Université de Washington, à Seattle, qui parcourt les messageries électroniques mondiales du style Internet pour retrouver la trace d'un correspondant dont on sait juste qu'il a publié un certain type d'articles technique, ou qu'il possède une Cadillac jaune, ou bien qu'il enseigne l'ethnopharmacologie à l'université de Yaoundé.
Ceci permet de deviner quelques risques liés à des "doubles informationnels". D'abord, les limites d'accès aux informations confidentielles devront être clairement définies. Que se passerait-il si un observateur extérieur avait accès à toutes les habitudes de consommation et de vie d'une famille ?
Les agents intelligents aux-mêmes risquent de trouver à qui parler. Ils peuvent être l'objet de sollicitations, de pièges commerciaux de la part d'autres agents électroniques, "hyper-attractifs", qui viendront leur vendre des prestations alléchantes, mais légèrement différentes de celles demandées : un club de vacances au lieu d'un petit hôtel tranquille, les deux se trouvant à proximité, sur le même site.
Et puis il y a les maladies, pardon, les virus. Sans vaccination préalable, le risque de contagion sera accru. La récente découverte dans le réseau de messagerie électronique Internet d'un virus qui "espionnait" les codes d'accès à des services protégés qu'envoyaient les utilisateurs a démontré que les pirates sont toujours imaginatifs te largement compétents dans ce domaine. On parle aussi de virus capables de se reproduire, d'évoluer, de modifier leur forme en s'associant à d'autres bouts de programme pour échapper aux défenses trop statiques.
Faudra-t-il aussi mettre en place une police informatique faite d'agents électroniques surveillant l'arrivée de toute information dans un ordinateur ? Cela ne semble pas improbable...
lundi 28 janvier 2008
Neurones et ordinateurs : contact
1994
Fig Mag
Sous la binoculaire, on le voit très bien. Bien à l'abri, le petit neurone de sangsue baigne dans son jus physiologique, apparemment en bon état. Et on aperçoit même quelques dendrites, les ramifications qui multiplient les contacts avec une sorte de plaque.
Ce support, dans quelques secondes va "bavarder" avec le neurone. Car cette surface aux dessins géométriques n'est rien d'autre qu'un circuit intégré, une "puce" de silicium. Le neurone vivant, en contact avec ce circuit, soumis à un petit champ électrique de quelques volts que lui impose le morceau d'ordinateur va "réagir".
Inversement, une petite électrode que l'on descend lentement à l'aide d'un micromanipulateur contrôlé par ordinateur va délicatement venir "piquer" le dos du neurone. Pour lui injecter un ordre électrique. La cellule, qui sert normalement à ordonner la motricité chez la sangsue, va réagir et son signal électrique sera détecté par le composant électronique sur lequel elle gît, enregistré sur ordinateur.
Une première forme de communication entre les deux formes de traitement de l'information existant sur cette planète, le vivant et l'électronique, vient d'avoir lieu...
C'est là que le vertige s'immisce dans les quelques milliards de neurones qui sont votre propre cerveau. Ce minuscule bricolage de 5 millième de millimètre est-il le premier pas vers un ordinateur biologique? Direction un cerveau artificiel, que l'on pourrait construire avec des neurones naturels, capable de se greffer sur des réseaux électroniques ? Au moins la solution aux pertes de vision, d'audition, à certaines dégénérescence du cerveau, puisqu'on pourrait "brancher" des prothèses électroniques sur notre matière grise...
Le laboratoire bien propret du Pr Fromherz, à Munich serait alors la crèche de Sapiens bionique et la nursery des ordinateurs biologiques
Eclat de rire du dit professeur.
"Je ne suis pas le Dr Frankenstein (vérif). On est à des années lumière de cela, de ce genre de délire. Mais c'est vrai que ce serait un rêve formidable. Non. Pour l'instant nous tentons de jeter les fondations d'une nouvelle physique, aux frontières de l'inanimé et du vivant". Peter Fromherz, physicien et créateur du laboratoire de biophysique de l'Institut Max Planck de Martinsried, dans les environs de Munich, n'est pas encore totalement épuisé de cette question, que pourtant chaque visiteur doit lui asséner depuis qu'il a décidé de travailler sur la "communication" entre les cellules vivantes et les circuits électroniques : un ordinateur fabriqué avec des neurones, c'est pour quand ?
"Notre travail est plus général, plus fondamental que cela. Nous essayons de comprendre comment fonctionne un neurone, et surtout sa membrane, comment on peut l'étudier à l'aide d'outils électroniques. Aujourd'hui, nous savons déjà un peu comment se comporte le signal électro-chimique qui parcourt la cellule lorsqu'elle transmet une information. Demain nous espérons observer par exemple comment deux neurones bavardent entre eux, comment ils échangent grâce à leurs synapses".
On peut s'obstiner à rêver. L'équipe de Fromherz a bien trouvé un moyen de communiquer, de donner et de recevoir l'information émise par un morceau de vivant. Et ouvert une brèche quant à la recherche sur les cellules nerveuses et leurs modes de fonctionnement.
L'envie de bavarder avec les cellules nerveuses n'est pas neuve. Déjà, à la fin du 18-ème siècle, Luigi Galvani et Alessandro Volta le faisaient à leur manière, en appliquant des électrodes sur les muscles et les systèmes nerveux d'animaux.
Ils eurent de nombreux successeurs expérimentateurs. Mais toujours, le contact se faisait au moyen d'une électrode métallique, qui en fait injecte un courant et finit par endommager les cellules nerveuses. Surtout, il ne s'agit pas là d'une communication, mais d'un forçage comparable à l'effet d'une bombe électrique.
"Nous veillons bien à ne pas attaquer le neurone avec du courant, ce qui lui est fatal. Pour communiquer nous lui appliquons une tension, à une micro-distance, et cela provoque une polarisation de sa membrane, une sorte d'induction du signal électrique dans le neurone" ajoute Martin Jenkner, l'un des étudiants qui prépare sa thèse au laboratoire de Fromherz.
Actuellement, sur les composants électroniques fabriqués dans la salle blanche du laboratoire, il y a place pour 16 contacts avec un neurone, qui une fois installé sur sa grille électronique, se comporte comme un transistor à effet de champ.
"Nous sommes en train de développer un composant électronique de 2024 transistors avec Siemens, sur lequel nous pourrons faire pousser des réseaux de neurone, et aussi tester le fonctionnement de minces couches de cerveau de rat", précise le jeune chercheur.
Ce sera un pas de géant.
Les neurones de sangsues ou de limaces, choisis pour leur facilité de manipulation et leur robustesse (ils survivent jusqu'à deux semaines dans ces conditions difficiles) sont aussi à la demande, génétiquement "manipulés" pour présenter des caractéristiques qui avantagent les chercheurs. Les chercheurs ont aussi appris à les faire pousser"sur les puces de silicium, en enduisant l'électronique de substances attractives, comme la laminine, qui encourage les neurones à rechercher le contact avec le support, aux endroits adéquats.
"Les questions qui surgissent sont nombreuses. Les plus simples sont de savoir si dans un réseau de quelques neurones, les cellules font la somme algébrique des signaux qu'elles transmettent ou si leur traitement du signal est pus complexe que cela. Les plus ambitieuses seraient d'arriver à faire croître sur des puces de silicium comportants de milliers de transistors quelques dizaines de milliers de neurones. Nous aurions alors, peut-être, une possibilité d'explorer ce qui se passe dans les colonnes, les ensembles de neurones de nos cerveau qui constituent les plus petits groupes associés aux fonctions du cortex", précise Fromherz.
Imaginons le pire. Que l'ordinateur "biologique", dont les composants ne seraient plus seulement électroniques, mais en partie vivants, nous fasse encore attendre un peu.
D'ici là, par contre, les premières applications de composants bio-électroniques pourraient venir compléter les technologies des bio-capteurs, pour en faire exploser le nombre d'applications.
Un tel bio-capteur serait un espion parfait du monde chimique. Un traître capable de déceler la présence, en infimes quantités, de substances importantes comme le glucose, les ions sodium ou l'oxygène. Une sorte de papille gustative artificielle, capable de goûter des substances que nos sens grossiers ne savent pas déceler. L'intérêt ? Suivre pas à pas l'évolution biochimique d'un milieu, que ce soit à l'intérieur d'un organe du corps humain, ou dans une cuve de fermentation destinée à produire des substances pharmaceutiques par génie génétique.
Précisément, les bio-capteurs aujourd'hui disponibles dans les laboratoires ne sont pas assez rapides, peu sensibles, et relativement peu fiables. Et plus d'une douzaine de firmes son engagés dans une compétition internationale au couteau, dont l'enjeu est la mise au point d'une génération de capteurs vraiment efficaces.
Ce serait là une évolution majeure : à base de structures métalliques (oxydes d'aluminium) et de membranes de polymères (plastiques), de tels capteurs pourraient recouvrir les parois des puits pour veiller de façon permanente à la qualité de l'eau, dans les nappes phréatiques. Installées dans le sous-sol et reliées à des ordinateurs, ces sentinelles détecteraient immédiatement toute infiltration de substances toxiques. En recherche, les applications potentielles sont légions, comme la détection des neurotransmetteurs qui agissent entre terminaisons nerveuses.
Et parmi les retombées médicales, l'une des plus cruciales serait le contrôle en temps réel du taux de glucose dans le sang. Installés dans les vaisseaux sanguins, ils offriraient à des diabétiques de réguler leur taux de sucre en déclenchant l'injection à la demande d'insuline dans leur organisme, au moyen de micro-pompes. Les industriels ne sont pas les derniers intéressés. Une bonne part de l'efficacité des productions biotechnologiques repose sur la capacité à contrôler les réactions de fermentation dans les grandes cuves industrielles, tâche qui pourrait être confiée avec une grande efficacité à des membranes capables de détecter des substances déterminées avec une précision micrométrique.
Dans l'environnement, il serait encore possible de détecter immédiatement, dans les champs, toute concentration excessive de pesticides ou d'engrais. Bref, partout où il est devenu crucial de pister des quantités infinitésimales de produits actifs, les "bio-capteurs" sont promis à une développement comparable à celui des composants électroniques.
En attendant, bien entendu, de pouvoir relier un ordinateur à nos cerveaux par un cordon ombilical électrique. Histoire d'y injecter en quelques secondes les vingt volumes de l'encyclopédie universelle !
Fig Mag
Sous la binoculaire, on le voit très bien. Bien à l'abri, le petit neurone de sangsue baigne dans son jus physiologique, apparemment en bon état. Et on aperçoit même quelques dendrites, les ramifications qui multiplient les contacts avec une sorte de plaque.
Ce support, dans quelques secondes va "bavarder" avec le neurone. Car cette surface aux dessins géométriques n'est rien d'autre qu'un circuit intégré, une "puce" de silicium. Le neurone vivant, en contact avec ce circuit, soumis à un petit champ électrique de quelques volts que lui impose le morceau d'ordinateur va "réagir".
Inversement, une petite électrode que l'on descend lentement à l'aide d'un micromanipulateur contrôlé par ordinateur va délicatement venir "piquer" le dos du neurone. Pour lui injecter un ordre électrique. La cellule, qui sert normalement à ordonner la motricité chez la sangsue, va réagir et son signal électrique sera détecté par le composant électronique sur lequel elle gît, enregistré sur ordinateur.
Une première forme de communication entre les deux formes de traitement de l'information existant sur cette planète, le vivant et l'électronique, vient d'avoir lieu...
C'est là que le vertige s'immisce dans les quelques milliards de neurones qui sont votre propre cerveau. Ce minuscule bricolage de 5 millième de millimètre est-il le premier pas vers un ordinateur biologique? Direction un cerveau artificiel, que l'on pourrait construire avec des neurones naturels, capable de se greffer sur des réseaux électroniques ? Au moins la solution aux pertes de vision, d'audition, à certaines dégénérescence du cerveau, puisqu'on pourrait "brancher" des prothèses électroniques sur notre matière grise...
Le laboratoire bien propret du Pr Fromherz, à Munich serait alors la crèche de Sapiens bionique et la nursery des ordinateurs biologiques
Eclat de rire du dit professeur.
"Je ne suis pas le Dr Frankenstein (vérif). On est à des années lumière de cela, de ce genre de délire. Mais c'est vrai que ce serait un rêve formidable. Non. Pour l'instant nous tentons de jeter les fondations d'une nouvelle physique, aux frontières de l'inanimé et du vivant". Peter Fromherz, physicien et créateur du laboratoire de biophysique de l'Institut Max Planck de Martinsried, dans les environs de Munich, n'est pas encore totalement épuisé de cette question, que pourtant chaque visiteur doit lui asséner depuis qu'il a décidé de travailler sur la "communication" entre les cellules vivantes et les circuits électroniques : un ordinateur fabriqué avec des neurones, c'est pour quand ?
"Notre travail est plus général, plus fondamental que cela. Nous essayons de comprendre comment fonctionne un neurone, et surtout sa membrane, comment on peut l'étudier à l'aide d'outils électroniques. Aujourd'hui, nous savons déjà un peu comment se comporte le signal électro-chimique qui parcourt la cellule lorsqu'elle transmet une information. Demain nous espérons observer par exemple comment deux neurones bavardent entre eux, comment ils échangent grâce à leurs synapses".
On peut s'obstiner à rêver. L'équipe de Fromherz a bien trouvé un moyen de communiquer, de donner et de recevoir l'information émise par un morceau de vivant. Et ouvert une brèche quant à la recherche sur les cellules nerveuses et leurs modes de fonctionnement.
L'envie de bavarder avec les cellules nerveuses n'est pas neuve. Déjà, à la fin du 18-ème siècle, Luigi Galvani et Alessandro Volta le faisaient à leur manière, en appliquant des électrodes sur les muscles et les systèmes nerveux d'animaux.
Ils eurent de nombreux successeurs expérimentateurs. Mais toujours, le contact se faisait au moyen d'une électrode métallique, qui en fait injecte un courant et finit par endommager les cellules nerveuses. Surtout, il ne s'agit pas là d'une communication, mais d'un forçage comparable à l'effet d'une bombe électrique.
"Nous veillons bien à ne pas attaquer le neurone avec du courant, ce qui lui est fatal. Pour communiquer nous lui appliquons une tension, à une micro-distance, et cela provoque une polarisation de sa membrane, une sorte d'induction du signal électrique dans le neurone" ajoute Martin Jenkner, l'un des étudiants qui prépare sa thèse au laboratoire de Fromherz.
Actuellement, sur les composants électroniques fabriqués dans la salle blanche du laboratoire, il y a place pour 16 contacts avec un neurone, qui une fois installé sur sa grille électronique, se comporte comme un transistor à effet de champ.
"Nous sommes en train de développer un composant électronique de 2024 transistors avec Siemens, sur lequel nous pourrons faire pousser des réseaux de neurone, et aussi tester le fonctionnement de minces couches de cerveau de rat", précise le jeune chercheur.
Ce sera un pas de géant.
Les neurones de sangsues ou de limaces, choisis pour leur facilité de manipulation et leur robustesse (ils survivent jusqu'à deux semaines dans ces conditions difficiles) sont aussi à la demande, génétiquement "manipulés" pour présenter des caractéristiques qui avantagent les chercheurs. Les chercheurs ont aussi appris à les faire pousser"sur les puces de silicium, en enduisant l'électronique de substances attractives, comme la laminine, qui encourage les neurones à rechercher le contact avec le support, aux endroits adéquats.
"Les questions qui surgissent sont nombreuses. Les plus simples sont de savoir si dans un réseau de quelques neurones, les cellules font la somme algébrique des signaux qu'elles transmettent ou si leur traitement du signal est pus complexe que cela. Les plus ambitieuses seraient d'arriver à faire croître sur des puces de silicium comportants de milliers de transistors quelques dizaines de milliers de neurones. Nous aurions alors, peut-être, une possibilité d'explorer ce qui se passe dans les colonnes, les ensembles de neurones de nos cerveau qui constituent les plus petits groupes associés aux fonctions du cortex", précise Fromherz.
Imaginons le pire. Que l'ordinateur "biologique", dont les composants ne seraient plus seulement électroniques, mais en partie vivants, nous fasse encore attendre un peu.
D'ici là, par contre, les premières applications de composants bio-électroniques pourraient venir compléter les technologies des bio-capteurs, pour en faire exploser le nombre d'applications.
Un tel bio-capteur serait un espion parfait du monde chimique. Un traître capable de déceler la présence, en infimes quantités, de substances importantes comme le glucose, les ions sodium ou l'oxygène. Une sorte de papille gustative artificielle, capable de goûter des substances que nos sens grossiers ne savent pas déceler. L'intérêt ? Suivre pas à pas l'évolution biochimique d'un milieu, que ce soit à l'intérieur d'un organe du corps humain, ou dans une cuve de fermentation destinée à produire des substances pharmaceutiques par génie génétique.
Précisément, les bio-capteurs aujourd'hui disponibles dans les laboratoires ne sont pas assez rapides, peu sensibles, et relativement peu fiables. Et plus d'une douzaine de firmes son engagés dans une compétition internationale au couteau, dont l'enjeu est la mise au point d'une génération de capteurs vraiment efficaces.
Ce serait là une évolution majeure : à base de structures métalliques (oxydes d'aluminium) et de membranes de polymères (plastiques), de tels capteurs pourraient recouvrir les parois des puits pour veiller de façon permanente à la qualité de l'eau, dans les nappes phréatiques. Installées dans le sous-sol et reliées à des ordinateurs, ces sentinelles détecteraient immédiatement toute infiltration de substances toxiques. En recherche, les applications potentielles sont légions, comme la détection des neurotransmetteurs qui agissent entre terminaisons nerveuses.
Et parmi les retombées médicales, l'une des plus cruciales serait le contrôle en temps réel du taux de glucose dans le sang. Installés dans les vaisseaux sanguins, ils offriraient à des diabétiques de réguler leur taux de sucre en déclenchant l'injection à la demande d'insuline dans leur organisme, au moyen de micro-pompes. Les industriels ne sont pas les derniers intéressés. Une bonne part de l'efficacité des productions biotechnologiques repose sur la capacité à contrôler les réactions de fermentation dans les grandes cuves industrielles, tâche qui pourrait être confiée avec une grande efficacité à des membranes capables de détecter des substances déterminées avec une précision micrométrique.
Dans l'environnement, il serait encore possible de détecter immédiatement, dans les champs, toute concentration excessive de pesticides ou d'engrais. Bref, partout où il est devenu crucial de pister des quantités infinitésimales de produits actifs, les "bio-capteurs" sont promis à une développement comparable à celui des composants électroniques.
En attendant, bien entendu, de pouvoir relier un ordinateur à nos cerveaux par un cordon ombilical électrique. Histoire d'y injecter en quelques secondes les vingt volumes de l'encyclopédie universelle !
Libellés :
biologie,
philosophie,
physique,
science IA,
technologies
jeudi 24 janvier 2008
La vie artificielle
Fig Mag, 1992
"La réalité virtuelle, c'est bien, mais c'est déjà dépassé. L'avenir, c'est la vie artificielleW. Howard Rheingold, ingénieur, ancien hacker (pirate informatique), est outre-Atlantique un auteur à succès, ayant commis livres et articles de Wréflexion technologiqueW sur les mondes irréels que concoctent les ordinateurs et que l'on nous projette sur des écrans miniatures, à l'intérieur de lunettes ou de casques. Pour finalement donner le sentiment de pénétrer un paysage, une ville, un appartement, un matériau. Toutes les semaines, pour se tenir au courant des innovations de ce monde mouvant, Howard quitte l'écran de son Macintosh personnel, enfile une chemise à fleurs pour rendre visite aux laboratoires et aux entreprises qui travaillent dans ce domaine, tester leurs dernières trouvailles. Du Ames Research Center de la Nasa à Mountain View, en Californie, au laboratoires Fujitsu, au Japon, il furète, à l'affût des innovations. WVraiment, tout cela va très vite et je ne doute pas que dans quelques années, on sera capable de jouer au tennis dans son bureau, en posant des lunettes sur son nez, quelques capteurs sur ses bras et ses jambes, en tenant un tube bourré d'électronique en lieu et place de toute raquetteW. Le fin du fin, ce sera à terme de pouvoir faire une partie avec un correspondant, lui aussi bardé de capteurs dans son bureau, et connecté à son propre ordinateur. Les deux calculateurs seront simplement en liaison informatique et permettront aux deux joueurs de se WvoirW sur le même court pendant quelques dizaines de minutes, échangeant une balle cent pour cent irréelle, dont l'impact dans les raquettes sera simulé par un quelconque composant pneumatique.
Pour lui et tous les autres fans d'images calculées, l'événement outre Atlantique est en ce moment la sortie de WLawnmover ManW. Un film dans lequel on assiste au premières scène d'amour virtuel, sur le même principe que la partie de tennis. Guère alléchant, les images sont encore trop pauvres, Wmais ce n'est qu'un débutW, promet Rheingold. WMais dans la réalité virtuelle, tout est inscrit, prévisible, et finalement d'une banalité.. Non, ce qui bouge en ce moment, c'est la vie artificielleW.
Au Nouveau Mexique, à quelques kilomètres du temple du nucléaire qu'est le Laboratoire National de Los Alamos, lieu de mise au point des premières bombes nucléaires sur cette planète, quelques écologistes et informaticiens ont en effet trouvé une application nouvelle pour la puissance croissante de leurs machines à calculer. Tenter de faire décrire aux ordinateurs un monde totalement arbitraire, pour lequel on définirait juste les règles de base. Une planète là aussi virtuelle, sur laquelle émergeraient des formes de vie dont il suffirait de programmer les éléments de base pour la voir se diversifier, entrer en compétition, palpiter au gré des climats et des luttes.
Référence de cette nouvelle branche d'informatique appliquée, Chris Langton. Un informaticien de haut vol, pour qui le problème le plus intéressant est de faire traiter des millions de paramètres à des ordinateurs, et faire émerger d'un océan de données un monde globalement cohérent.
Plus marginal, Tom Ray a traité le problème avec des moyens plus modestes, mais une logique éprouvée sur le terrain. Cet écologiste de l'Université du Delaware a passé des années au Costa Rica, le nez plongé dans les milliers d'espèces bien vivantes, en interaction étroite dans une forêt tropicale. Un grouillement de vie dont on oublie même l'existence dans les grandes cités de la côte Est américaine. WC'est une expérience très forte, qui m'a marquéW, rapporte-t-il (1). L'autre déclencheur fut pour ce naturaliste de découvrir l'informatique et le programmation, à travers un programme de WdebuggingW. Un outil informatique qui sert à détecter les erreurs dans un logiciel, et qui permet de voir les instruction de base d'un ordinateur WopérerW en direct, sur l'écran.
Il y a un peu plus de 2 ans, le 3 janvier 1990, Tom Ray lança son programme Tierra sur l'ordinateur de l'université. Il y avait définit des êtres primitifs, dotés d'un Wcode génétiqueW de 80 instructions. Capable de se reproduire comme des bactéries, de se nourrir, de se batte pour l'énergie et l'espace, mais surtout d'évoluer, par erreurs de codage et adaptation.
Pari difficile : comment être certain que les être primitifs n'allaient pas tous dépérir en quelques secondes, ou muter au point d'être incapable de quoi que ce soit ?
les surprises furent au rendez-vous de Tom Ray. A commencer par les évolutions, en quelques milliers de générations, vers des individus plus grands, plus complexes, mais également d'autres plus simples. Apparurent des parasites, dotés de 45 instructions, qui avaient perdu la capacité de se répliquer et dépendaient de celle de leur WhôteW pour survivre. Et comme tout parasite, ils étouffaient leur victime, mais sans aller jusqu'à menacer sa survie...
Certains de ces êtres, par réaction, s'immunisèrent contre ces parasites, en devenant résistants. D'autres encore se simplifièrent, mais au lieu de devenir des parasites, devinrent WcoopératifsW, à la manière des insectes sociaux.
Autre enseignement : des phases successives d'extinction massives apparaissent rapidement, un peu à la manière de celles dont on trouve trace sur Terre (comme les dinosaures, voici 65 millions d'années), et que l'on attribue le plus volontiers à des catastrophes cosmiques. La différence, c'est que sur l'écran de l'ordinateur, les espèces dominantes finissent par dépérir, ou par épuiser les ressources du milieu et entraînent de nombreuses espèces mineures dans leur perte. Que l'on se rassure. Ces coups de balais sont généralement suivis de grandes explosions de vie, comparables à celle du Cambrien, il y a 550 millions d'années.
WCe n'est qu'une simulation, un jeu pour un tout petit dieu. Mais c'est très riche d'enseignementsW, estime Ray. Le chercheur, à tout hasard, a tout de même pris des précautions. Ainsi ses créatures informatiques ne sont pas libres de leurs mouvements. Coiffée d'un environnement informatique étanche, elles se retrouvent sous bulle. Incapables de s'évader pour aller infester d'autres ordinateurs, et par le biais des réseaux, envahir notre monde bien réel à nous !
(1) New Scientist 22 fev 1992
"La réalité virtuelle, c'est bien, mais c'est déjà dépassé. L'avenir, c'est la vie artificielleW. Howard Rheingold, ingénieur, ancien hacker (pirate informatique), est outre-Atlantique un auteur à succès, ayant commis livres et articles de Wréflexion technologiqueW sur les mondes irréels que concoctent les ordinateurs et que l'on nous projette sur des écrans miniatures, à l'intérieur de lunettes ou de casques. Pour finalement donner le sentiment de pénétrer un paysage, une ville, un appartement, un matériau. Toutes les semaines, pour se tenir au courant des innovations de ce monde mouvant, Howard quitte l'écran de son Macintosh personnel, enfile une chemise à fleurs pour rendre visite aux laboratoires et aux entreprises qui travaillent dans ce domaine, tester leurs dernières trouvailles. Du Ames Research Center de la Nasa à Mountain View, en Californie, au laboratoires Fujitsu, au Japon, il furète, à l'affût des innovations. WVraiment, tout cela va très vite et je ne doute pas que dans quelques années, on sera capable de jouer au tennis dans son bureau, en posant des lunettes sur son nez, quelques capteurs sur ses bras et ses jambes, en tenant un tube bourré d'électronique en lieu et place de toute raquetteW. Le fin du fin, ce sera à terme de pouvoir faire une partie avec un correspondant, lui aussi bardé de capteurs dans son bureau, et connecté à son propre ordinateur. Les deux calculateurs seront simplement en liaison informatique et permettront aux deux joueurs de se WvoirW sur le même court pendant quelques dizaines de minutes, échangeant une balle cent pour cent irréelle, dont l'impact dans les raquettes sera simulé par un quelconque composant pneumatique.
Pour lui et tous les autres fans d'images calculées, l'événement outre Atlantique est en ce moment la sortie de WLawnmover ManW. Un film dans lequel on assiste au premières scène d'amour virtuel, sur le même principe que la partie de tennis. Guère alléchant, les images sont encore trop pauvres, Wmais ce n'est qu'un débutW, promet Rheingold. WMais dans la réalité virtuelle, tout est inscrit, prévisible, et finalement d'une banalité.. Non, ce qui bouge en ce moment, c'est la vie artificielleW.
Au Nouveau Mexique, à quelques kilomètres du temple du nucléaire qu'est le Laboratoire National de Los Alamos, lieu de mise au point des premières bombes nucléaires sur cette planète, quelques écologistes et informaticiens ont en effet trouvé une application nouvelle pour la puissance croissante de leurs machines à calculer. Tenter de faire décrire aux ordinateurs un monde totalement arbitraire, pour lequel on définirait juste les règles de base. Une planète là aussi virtuelle, sur laquelle émergeraient des formes de vie dont il suffirait de programmer les éléments de base pour la voir se diversifier, entrer en compétition, palpiter au gré des climats et des luttes.
Référence de cette nouvelle branche d'informatique appliquée, Chris Langton. Un informaticien de haut vol, pour qui le problème le plus intéressant est de faire traiter des millions de paramètres à des ordinateurs, et faire émerger d'un océan de données un monde globalement cohérent.
Plus marginal, Tom Ray a traité le problème avec des moyens plus modestes, mais une logique éprouvée sur le terrain. Cet écologiste de l'Université du Delaware a passé des années au Costa Rica, le nez plongé dans les milliers d'espèces bien vivantes, en interaction étroite dans une forêt tropicale. Un grouillement de vie dont on oublie même l'existence dans les grandes cités de la côte Est américaine. WC'est une expérience très forte, qui m'a marquéW, rapporte-t-il (1). L'autre déclencheur fut pour ce naturaliste de découvrir l'informatique et le programmation, à travers un programme de WdebuggingW. Un outil informatique qui sert à détecter les erreurs dans un logiciel, et qui permet de voir les instruction de base d'un ordinateur WopérerW en direct, sur l'écran.
Il y a un peu plus de 2 ans, le 3 janvier 1990, Tom Ray lança son programme Tierra sur l'ordinateur de l'université. Il y avait définit des êtres primitifs, dotés d'un Wcode génétiqueW de 80 instructions. Capable de se reproduire comme des bactéries, de se nourrir, de se batte pour l'énergie et l'espace, mais surtout d'évoluer, par erreurs de codage et adaptation.
Pari difficile : comment être certain que les être primitifs n'allaient pas tous dépérir en quelques secondes, ou muter au point d'être incapable de quoi que ce soit ?
les surprises furent au rendez-vous de Tom Ray. A commencer par les évolutions, en quelques milliers de générations, vers des individus plus grands, plus complexes, mais également d'autres plus simples. Apparurent des parasites, dotés de 45 instructions, qui avaient perdu la capacité de se répliquer et dépendaient de celle de leur WhôteW pour survivre. Et comme tout parasite, ils étouffaient leur victime, mais sans aller jusqu'à menacer sa survie...
Certains de ces êtres, par réaction, s'immunisèrent contre ces parasites, en devenant résistants. D'autres encore se simplifièrent, mais au lieu de devenir des parasites, devinrent WcoopératifsW, à la manière des insectes sociaux.
Autre enseignement : des phases successives d'extinction massives apparaissent rapidement, un peu à la manière de celles dont on trouve trace sur Terre (comme les dinosaures, voici 65 millions d'années), et que l'on attribue le plus volontiers à des catastrophes cosmiques. La différence, c'est que sur l'écran de l'ordinateur, les espèces dominantes finissent par dépérir, ou par épuiser les ressources du milieu et entraînent de nombreuses espèces mineures dans leur perte. Que l'on se rassure. Ces coups de balais sont généralement suivis de grandes explosions de vie, comparables à celle du Cambrien, il y a 550 millions d'années.
WCe n'est qu'une simulation, un jeu pour un tout petit dieu. Mais c'est très riche d'enseignementsW, estime Ray. Le chercheur, à tout hasard, a tout de même pris des précautions. Ainsi ses créatures informatiques ne sont pas libres de leurs mouvements. Coiffée d'un environnement informatique étanche, elles se retrouvent sous bulle. Incapables de s'évader pour aller infester d'autres ordinateurs, et par le biais des réseaux, envahir notre monde bien réel à nous !
(1) New Scientist 22 fev 1992
Libellés :
biologie,
philosophie,
prospective,
science,
science IA,
techniques
mardi 8 janvier 2008
Les songes de l'IA
Pour Eurêka (Bayard Presse), en automne 2006
(version non finalisée, dernière mouture avant parution)
Le mythe de l'intelligence artificielle (le titre est plat, mais le parti pris est clairement affiché)
De « Matrix » à « 2001, Odyssée de l’espace », de « Star Wars » à « I.A. » en passant par le récent « I, Robot », le cinéma, fenêtre grande ouverte à nos cauchemars les plus sanguinolents, nous prophétise depuis des lustres le débarquement d’armées de mécaniques psychotiques aux diodes en surchauffe. Ces hordes de créatures aussi artificielles que sanguinaires, d’ordinateurs tueurs et de bien d’autres chimères de synthèse seraient soudain en prise avec les contradictions mathématiques les plus affolantes de leurs egos (il)logiques. Et nous, stupides créateurs de ces fauves, serions les victimes expiatoires du cyclone métaphysique que nous aurions, par inconscience et humaine inconséquence, déclenché.
Notre erreur, notre immense faute ?
Avoir semé la précieuse graine de l’intelligence dans ces puces de silicium !
Le cinéma, ce faisant, n’a fait que prendre la suite de la littérature. L’affaire du gourdin écrasant la main de l’Humain, du Pinocchio collant une tapette à son Gepeto, du Golem échappant au contrôle de son maître est un récit plus vieux que la lime à ongles.
Mais dans la vie, la vraie vie, faut-il y croire ? Est-il réaliste d’imaginer qu’un jour les machines seront intelligentes et pourraient réduire leurs dieux (nous) en esclavage?
Naïvement, on pourrait penser que les nouvelles, bonnes ou mauvaises, pourraient provenir de la ligne de front des supercalculateurs. Ces ordinateurs géants dopés au silicium, éternellement plus puissants, engagés dans une continuelle course au podium (www.top500.org) de-la-machine-la-plus-puissante-du-monde et leurs géniteurs, IBM, Nec, Silicon Graphics ou autres Bull, semblent ne jamais se rassasier. D’ailleurs dans la catégorie de ces sumos du calcul massif, IBM doit cet automne franchir une étape décisive.
Dans un building du Lawrence Livermore Lab, là-bas, de l’autre côté de la baie de San Francisco, ce sont cent trente mille puces électroniques alignées sur près de cent mètres carrés qui doivent tenter, sous système Linux, de calculer de conserve. Gavé de données, cadencé à l’extrême, le plus rapide et puissant système du monde flirtera alors avec les 360 téraflops (milliers de milliards d’opérations par seconde).
C’est énorme, évidemment : 2 millions de fois plus puissant que le PC de monsieur tout le monde et mille fois davantage que Deep Blue, l’engin d’IBM qui avait ratatiné le maître Kasparov aux échecs en 1997 !
Mais « Blue Gene/L », comme on appelle la nouvelle version de la monstrueuse moulinette à calculs flottants chez IBM, ne sera pas rassasié pour autant. La mission assignée par William R. Pulleyblank, le cerveau humain tapi derrière ce projet, est en effet bien plus vaste. Dès 2006 la horde des puces de Blue Gene se verra augmentée à plus d’un million de membres et ira déchiqueter rien moins que le mur mythique du Pétaflop : un million de milliards d’opérations par seconde…
Bigre.
De quoi assurer les calculs massifs que nécessitent le déploiement simulé des millions d’atomes de fragment de gènes, l’amélioration des calculs de bombinettes nucléaires, la prévision des tempêtes et des cataclysmes sismiques… Bref, le boulot « classique » d’un supercalculateur…
Mais aura-t-on au passage vu Blue Gene, ce réseau de silicium à 100 millions de dollars « penser » ? Se laisser aller à un hobby ? Avoir un coup de mou ? Commettre une déclaration quelconque sur les droits syndicaux des ordinateurs ?
Désolé. La réponse est non. Misérablement non.
Blue Gene, malgré tous ses circuits, malgré sa puissance « quasi comparables » à celle du cerveau humain, est aussi idiot que le PC, la boîte qui ronronne sous votre bureau.
C’est que tout simplement, la puissance brute de ce monstre a autant a voir avec votre cerveau qu’avec une crème brûlée…
Navré. Si la puissance des machines galope, obstinément conforme à la vieille loi de Moore qui prévoit le doublement de leurs capacités tous les deux ans .., personne n’a encore vu à ce jour un effet « puissance de calcul » provoquer l’émergence d’une idée chez une machine.
On entend dire ici ou là qu’un Pc à 400 Euros est désormais, théoriquement, aussi performant qu’un cerveau de mouche, et que si l’on distribuait les principes de la sélection naturelle, de la compétition et de l’évolution parmi des programmes informatiques, la conscience finirait peut-être par émerger d’elle même dans ces cerveaux artificiels…
On entend dire beaucoup de choses…
Et effectivement la cognition, l’intelligence ne représente selon certains biologistes que le produit de la lutte pour la survie, une supérieure capacité d’adaptation. L’école de Santa Fe, au Nouveau-Mexique, spécialisée dans les automates programmables a alors montré dès la fin des années 1980 que des logiciels, de petits automatismes mis en compétition pour réaliser une tâche, et dotés d’une sorte de sexualité, d’une capacité de se reproduire et de muter leur lignes de programme de manière aléatoire, faisaient apparaître des générations de logiciels plus performants que les programmes parents.
Mais aucune illusion ne fut permise beaucoup plus longtemps. Une telle évolution « en boîte » rencontre très vite ses limites. Elle ne peut dépasser un certain stade. Un peu comme un poisson rouge dans un aquarium connaîtrait quelques difficultés à vois ses descendants évoluer en alligator, même si vous lui laissiez des millions d’années pour cela et lui répétiez « s’il te plaît »en permanence.
Interrogé à l’occasion du récent quarantième anniversaire de sa loi, au printemps dernier, Gordon Moore s’est lui-même déclaré assez pessimiste sur les capacités de la seule puissance de calcul à faire apparaître des systèmes informatiques évolutifs.
Pour cet ingénier, créateur d’Intel, le mode de fonctionnement de l'intelligence humaine est tout à fait différent des ordinateurs de type PC… Ce système logique ne générant à ses yeux pas assez de puissance. « Cette route ne mènera certainement pas à quelque chose qui ressemble de près ou de loin à l'intelligence humaine », a-t-il affirmé. « Et toute la puissance cumulée de tous les ordinateurs disponibles de la planète n’y suffirait pas ».
Verdict sévère ?
Non, tout juste à la hauteur de la désillusion que connut l’IA dans les années 90.
Vers 1083 le Miti, le bras armé technologique du gouvernement japonais avait engagé un vaste programme de recherche dit de « 5ème Génération » afin de faire apparaître des calculateurs massifs « intelligents » . A coups de milliards de dollars injecés dans les universités et les laboratoires privés, on allait voir ce que l’on allait voir… Les Japonais comptaient bien prendre le leadership mondial de la cyber-intelligence. Inquiets, Américains et Européens lancèrent des programmes concurrents…
Résultat de la ruée vers le cerveau artificiel ?
Néant.
Les programmes fracassants s’éteignirent au début des années 90 sans avoir rien produit de stupéfiant, et surtout pas ce « saut » conceptuel que tout le monde attendait alors, avec une sorte de foi étrange dans le pouvoir des machines ?
On avait annoncé des cyber-créatures puissantes, évolutives, des systèmes neuronaux singeant les fonctions logiques du cerveau ou des engins expert copiant tous les déductions logiques des meilleurs sismologues et chirurgiens.
Hélas, aucun programme ne fut en mesure de remplir des tâches réellement complexes, et encore moins de faire surgir la flamme de l’intelligence au tréfond de ses circuits.
La défaite était cuisante.
Même le gourou Marvin Minsky, du MIT, partisan féroce du cerveau artificiel avait finalement lui-même admis que ce serait plus compliqué que ce qu’il avait envisagé. Et que tous comptes faits, il faudrait peut-être renoncer à « copier » l’intelligence humaine, faute de la comprendre.
On avait carrément renoncé aux rêves du génial Turing, qui imaginait des ordinateurs intelligents avant la fin du XXème siècle, et à ceux d’Arthur Clarke, l’auteur du livre « 2001, Odyssée de l’espace », dont Hal, l’ordinateur psychotique pilote du vaisseau spatial, était sorti d’une chaîne de fabrication le 12 janvier 1997…
Profil bas…
Au milieu des années 90 Intelligence artificielle devint une expression à éviter…
Derechef, durant la dernière décennie du XXème siècle, les chercheurs se concentrèrent sur des fonctions plus limitées et précises : faire marcher un robot, permettre à une caméra de reconnaître des formes, développer des systèmes tolérants aux pannes, développer de nouvelles architectures et langages… On ne parlait plus d’IA, mais plus modestement de robotique, de sciences cognitives…
Mais où se situait l’obstacle ?
En fait on s’était aperçu que l’ensemble des milliers ou de millions de règles que devrait intégrer un ordinateur pour commettre des fonctions de niveau « intelligent », ou posséder des capacités d’apprentissage était tout simplement hors de portée de la programmation… Non seulement il n’était pas possible d’associer les millions de questions, de réponses et de chemins logiques qui permettent à un homme de dire « peut-être » au lieu de « oui » ou « non », mais aucun outil ne permettait à la machine de donner un « sens » aux choses qui l’entourent. La simple mouche échappant à la main tentant de l’écraser semblait désormais un modèle naturel impossible à copier, dès lors qu’il s’agissait de réellement intégrer toutes les fonctions dont est doté l’animal. Et tenter de faire analyser à une machine une phrase ambiguë comme « je vous ai compris », prononcée par de Gaulle à Alger n’était même plus envisagé…
Mais les crises, les traversées du désert sont parfois plus fertiles que les glorieuses illusions.
C’est dans le creux de ces années difficiles, que deux nouvelles approches de l’IA (voir encadré) résistèrent et se développèrent.
Deux démarches diamétralement opposées, mais toutes deux à la fois pragmatiques et élégantes.
La première consiste en ce que les experts nomment une « approche par le bas », et met en œuvre des robots. Dans le droit fil des programmes dits « évolutifs », car grossièrement inspirés des principes de la sélection darwinienne, il s’agit de créer des engins très simples, quasiment idiots, mais capables de développer individuellement ou par groupes des stratégies face à des obstacles inattendus. On pourrait les comparer à des fourmis mécaniques. Les exemples parfaits en sont les projets de robots explorateurs martiens, devant disposer d’une autonomie de décision en territoire hostile, ou les fantassins robots que souhaite obtenir le Pentagone pour épargner la vie de ses soldats sur les théâtres d’opération.
L’autre approche est exactement inverse, et part du « haut ». L’idée étant de doter les machines d’immenses socles de connaissances et de règles. Comportant des millions d’éléments et de liens logiques permettant de définir les faits les uns par rapport aux autres, ces bases de données devraient servir de support à des applications de plus en plus sophistiquées. Ses initiateurs l’estiment capable de faire émerger une forme rustique, évolutive et souveraine, d’« esprit » informatique.
Ces deux approches, fort révélatrices des obstacles et des espoirs de l’IA aujourd’hui, méritent d’être examinées de près
La première approche repose en grande part sur la robotique car elle considère que l’épreuve du monde réel est essentielle. Comme un être vivant un robot doit en effet sentir le monde extérieur pour s’adapter et agir.
La démarche est mise en œuvre dans de nombreux laboratoires, en France (université Paris VI, CNRS…) et à travers le monde. Le point de référence étant depuis 15 ans, au MIT de Boston, le laboratoire de robotique de Rodney Brooks.
Incluse dans cette démarche, l’idée que l’intelligence se forge par l’expérience, au contact sensoriel du monde, a permis de montrer que des taches complexes pouvaient en fait être décomposées en éléments modulaires bien plus simples.
Ces systèmes, qui permettront de doter les machines électroniques de marges d’adaptation et d’autonomie croissantes, à des ordinateurs de se synchroniser, et à des robots à la surface de la Lune de se coordonner et de dialoguer avec des satellites placés en altitude se heurte à la difficulté « évolutive » déjà mentionnée pour la vie artificielle. Les systèmes logiciels et matériels ont des plasticités trop limitées pour permettre à ces populations de machines de réellement « inventer » de nouveaux modes de fonctionnement. Mais la porte semble ouverte vers des possibilités en ce sens.
L’autre voie, celle du cerveau idiot et aveugle que l’on gave d’informations et de règles est celle suivie par Douglas Lenat avec son projet Cyc. Cet ancien « penseur » du programme américain d’intelligence artificielle (celui mis en place pour contrer le Japon dans les années 80) n’a pas baissé les bras. Durant 20 ans Lenat, désormais installé à Austin au Texas, a continué à développer le système, et vient de rendre disponible à tout le monde, sur Internet (www.opencyc.org), la possibilité de rentrer des éléments et des règles dans Cyc.
Le principe est de parvenir à ce que la machine distingue une incohérence dans « il est mort, il est allé faire les courses », mais soit capable d’envisager le fait que mort est peut-être détourné de son sens premier.
Aujourd’hui Cyc contient plus de 3 millions de liens logiques, ce qui lui permet de bâtir ses propres arborescences de liens, si vous entrez un nouvel élément dans sa base.
Mais bientôt, estime Lenat, Cyc pourra aller chercher lui-même ses informations.
Où ? Dans des caméras, d’autres bases de données, ou sur le Web, grâce à des projets comme ceux de Paul Vitanyi et Rudi Cilibrasi. Ces chercheurs de l’Institut national de mathématiques et d’informatiques d’Amsterdam ont développé un système expérimental qui permet à un ordinateur d’associer les mots entre eux.
Comment ? Grâce à nous tous. Le système s’appuie sur les recherches que nous effectuons, par millions, tous les jours, sur les milliards de pages indexées par Google. La NGD (distance normalisée Google), et les associations de mots auxquelles nous procédons pour les recherches permettent à une machine de peu à peu se construire un banque de données du sens des mots, une arborescence de définition.
Sans même que nous le sachions !
Compléments non édités
Test d’Alan Turing, le génial mathématicien. Créateur, avec John von Neumann, du premier ordinateur, Turing estimait que les machines seraient intelligentes avant l’an 2000. Raté. Malin, le britannique disait surtout que l’objectif serait atteint lorsque l’on serait incapable de savoir si l’on dialoguait avec une machine ou avec un humain caché derrière une machine.
Cap sur Internet, et les meilleurs simulateurs d’IA. Comme le site www.intellibuddy.com qui vous propose de dialoguer avec un artefact.
Un monstre aussi puissant que Blue Gene/L avait-il autant à voir avec un cerveau humain qu’un bulldozer avec le burin de Michel-Ange ?
Intelligence ou conscience ?
Autres démarches encore (vision, cognition de base )
Autre élément : alpha langage
Point de vue philosophique
Mais avec le renfort de Joseph Weizenbaum , chercheur, et créateur d’un système de Turing connu sous le nom d’Eliza, et désormais opposant à l’IA et encore Hubert Dreyfus, de Berkeley, je prétends que jamais la matière modelée par les mains de l’homme ne saura penser.
Argument linguistes
-jamais les machines n’auront accès au sens des mots, au contenu du langage. Vous pouvez faire écrire Banane à un chimpanzé toute sa vie, il saura peut-être, si vous lui montrez le fruit que cela le désigne, mais il ne saura jamais qu’il peut s’agir d’une insulte. Par contre, vous si je vous traites de bananes, vous comprendrez que je ne parle pas du fruit !
Google
Et Cyc
poursuivait au Texas, à Austin, Michael Witbrock, sur une base de données encyclopédique, le Cyc project…
Pensée et maths, tout algorithme ?
Il suffit de se souvenir de l’objection majeure de Dreyfus
Il a démontré qu’il y avait des éléments non rationnels dans le comportement humain, et que toute méthode strictement déductive pour gérer des problèmes complexes peut amener à des impasses, pire à des contresens. La pensée humaine n’est pas réductible à un système algorithmique pur. Cela rejoint le théorème de Godël, le mathématicien ami d’Einstein, qui a montré que tout système formel comprend une fraction indécidable, non déductible des autres…
C’est quoi l’intelligence
C’est quoi la conscience ?
Lambda calcul
Jean-Louis Krivine, le logicien français…
Le cerveau est le produit de notre étonnante adaptation à notre environnement. Et ce cerveau est une machine logique. Les règles très simples mise en place par les neurones pour résoudre les défis de la survie sont un langage logique primitif. Ce ne sont pas les connexions entre les neurones qui comptent, pas d’avantage que les électrons circulant dans les circuits intégrés.
Le langage logique primitif. Nous l’approchons, avec le lambda-calcul, inventé en 1932 par Alonzo Church ? Et Krivine en tire toutes les conséquences : toutes les fonctions supérieures du cerveau, la vision, le langage, les mathématiques, sont sous-tendues par un système logique primitif, le lambda calcul. C’est de là que vient notre « invention » des mathématiques. En fait notre cerveau est une machine naturelle parfaitement adaptée à décrypter le logique du monde… Notre pensée est faite de modules mathématiques…
Consience/psycho/sentiment de soi
- Mais l’envie d’être, le désir d’être soi, la clef de la conscience, d’où viendrait-elle ?
Vous n’avez pas lu les travaux d’Antonio Damasio, le neurologue de l’Université d’Iowa ?
il soutient que le cerveau se représente le monde comme un film, et que le conscience, cette sensation d’être un spectateur privilégié, et moteur, ayant envie d’Etre, provient simplement du plaisir que procure le fait d’assister au film du monde.
-Et cela viendrait d’où ?
De nulle part… Du simple fait qu’être intelligent et conscient de soi et du monde doit être un avantage vital, un moyen de survivre et de se reproduire…
-
Eh ben pour arriver à cela avec un ordinateur il faudrait une machine aussi énorme que l’Univers,
Chutes
Ou alors, se dit-on alors cette légende des Frankenstein électroniques a pour fonction l’immunisation. Une sorte de pardon, par avance… D’accord, l’homme pourrait un jour transgresser les lois de la nature, se rapprocher des interdits et des tabous jusqu’à les toucher. Mais avant de s’y brûler, il doit se rassurer. Expiant par avance, dans une longue répétition de cauchemars mis en scène par Kubrick ou racontés par Asimov, le crime qu’il s’apprête à commettre en singeant ce mystère que représente l’intelligence.
les arguments ne sont pas décisifs
Intelligence et conscience…
Un saut « surprise » est-il possible ? L’histoire des sciences nous incite à la prudence
Mais elle nous dit aussi que tout se passe comme si le savoir absolu étauit hors de portée.
En fait tout se passe comme si les partisants de l’IA étaient les naifs explorateurs, souvent à court d’arguments mais pariant sur le développement imprévisible du savoir, et des techniques (genre l’avion a finit par voler) et que les adversaires critiques de l’IA étaient là pour dire : regardez l’histoire. Chaque fois que la science a voulut imiter ou dépasser les phénomènes naturels dont elle s’inspire, chaque fois qu’elle a voulu croire en son pouvoir au point de vouloir transformer le crapaud en prince en l’embrassant sur la bouche, le résultat a été plutôt pathétique
Chute avec Zwirn
La science est dans une situation apparemment sans issue. D’un côté, forte de ses succès, elle rayonne et triomphe (et fait peur). Par ailleurs, elle doute. Car elle s’aperçoit qu’au fur et à mesure de ses avancées, si les continents connus augmentent, l’horizon recule. (Zwirn) On pourrait dire c’est le cas de sciences cognitives. C’est un peu comme si on allait connaître de mieux en mieux les choses, on sera capable de les simuler des les singer, voire de susciter des èvèvements en éprouvette comme l’appartion de formes d’intelligence, mais il est probable que nous n’aurons pas accès à l’explication ni à la reproduction de ce que nous aplelons l’intelligence humaine.
(version non finalisée, dernière mouture avant parution)
Le mythe de l'intelligence artificielle (le titre est plat, mais le parti pris est clairement affiché)
De « Matrix » à « 2001, Odyssée de l’espace », de « Star Wars » à « I.A. » en passant par le récent « I, Robot », le cinéma, fenêtre grande ouverte à nos cauchemars les plus sanguinolents, nous prophétise depuis des lustres le débarquement d’armées de mécaniques psychotiques aux diodes en surchauffe. Ces hordes de créatures aussi artificielles que sanguinaires, d’ordinateurs tueurs et de bien d’autres chimères de synthèse seraient soudain en prise avec les contradictions mathématiques les plus affolantes de leurs egos (il)logiques. Et nous, stupides créateurs de ces fauves, serions les victimes expiatoires du cyclone métaphysique que nous aurions, par inconscience et humaine inconséquence, déclenché.
Notre erreur, notre immense faute ?
Avoir semé la précieuse graine de l’intelligence dans ces puces de silicium !
Le cinéma, ce faisant, n’a fait que prendre la suite de la littérature. L’affaire du gourdin écrasant la main de l’Humain, du Pinocchio collant une tapette à son Gepeto, du Golem échappant au contrôle de son maître est un récit plus vieux que la lime à ongles.
Mais dans la vie, la vraie vie, faut-il y croire ? Est-il réaliste d’imaginer qu’un jour les machines seront intelligentes et pourraient réduire leurs dieux (nous) en esclavage?
Naïvement, on pourrait penser que les nouvelles, bonnes ou mauvaises, pourraient provenir de la ligne de front des supercalculateurs. Ces ordinateurs géants dopés au silicium, éternellement plus puissants, engagés dans une continuelle course au podium (www.top500.org) de-la-machine-la-plus-puissante-du-monde et leurs géniteurs, IBM, Nec, Silicon Graphics ou autres Bull, semblent ne jamais se rassasier. D’ailleurs dans la catégorie de ces sumos du calcul massif, IBM doit cet automne franchir une étape décisive.
Dans un building du Lawrence Livermore Lab, là-bas, de l’autre côté de la baie de San Francisco, ce sont cent trente mille puces électroniques alignées sur près de cent mètres carrés qui doivent tenter, sous système Linux, de calculer de conserve. Gavé de données, cadencé à l’extrême, le plus rapide et puissant système du monde flirtera alors avec les 360 téraflops (milliers de milliards d’opérations par seconde).
C’est énorme, évidemment : 2 millions de fois plus puissant que le PC de monsieur tout le monde et mille fois davantage que Deep Blue, l’engin d’IBM qui avait ratatiné le maître Kasparov aux échecs en 1997 !
Mais « Blue Gene/L », comme on appelle la nouvelle version de la monstrueuse moulinette à calculs flottants chez IBM, ne sera pas rassasié pour autant. La mission assignée par William R. Pulleyblank, le cerveau humain tapi derrière ce projet, est en effet bien plus vaste. Dès 2006 la horde des puces de Blue Gene se verra augmentée à plus d’un million de membres et ira déchiqueter rien moins que le mur mythique du Pétaflop : un million de milliards d’opérations par seconde…
Bigre.
De quoi assurer les calculs massifs que nécessitent le déploiement simulé des millions d’atomes de fragment de gènes, l’amélioration des calculs de bombinettes nucléaires, la prévision des tempêtes et des cataclysmes sismiques… Bref, le boulot « classique » d’un supercalculateur…
Mais aura-t-on au passage vu Blue Gene, ce réseau de silicium à 100 millions de dollars « penser » ? Se laisser aller à un hobby ? Avoir un coup de mou ? Commettre une déclaration quelconque sur les droits syndicaux des ordinateurs ?
Désolé. La réponse est non. Misérablement non.
Blue Gene, malgré tous ses circuits, malgré sa puissance « quasi comparables » à celle du cerveau humain, est aussi idiot que le PC, la boîte qui ronronne sous votre bureau.
C’est que tout simplement, la puissance brute de ce monstre a autant a voir avec votre cerveau qu’avec une crème brûlée…
Navré. Si la puissance des machines galope, obstinément conforme à la vieille loi de Moore qui prévoit le doublement de leurs capacités tous les deux ans .., personne n’a encore vu à ce jour un effet « puissance de calcul » provoquer l’émergence d’une idée chez une machine.
On entend dire ici ou là qu’un Pc à 400 Euros est désormais, théoriquement, aussi performant qu’un cerveau de mouche, et que si l’on distribuait les principes de la sélection naturelle, de la compétition et de l’évolution parmi des programmes informatiques, la conscience finirait peut-être par émerger d’elle même dans ces cerveaux artificiels…
On entend dire beaucoup de choses…
Et effectivement la cognition, l’intelligence ne représente selon certains biologistes que le produit de la lutte pour la survie, une supérieure capacité d’adaptation. L’école de Santa Fe, au Nouveau-Mexique, spécialisée dans les automates programmables a alors montré dès la fin des années 1980 que des logiciels, de petits automatismes mis en compétition pour réaliser une tâche, et dotés d’une sorte de sexualité, d’une capacité de se reproduire et de muter leur lignes de programme de manière aléatoire, faisaient apparaître des générations de logiciels plus performants que les programmes parents.
Mais aucune illusion ne fut permise beaucoup plus longtemps. Une telle évolution « en boîte » rencontre très vite ses limites. Elle ne peut dépasser un certain stade. Un peu comme un poisson rouge dans un aquarium connaîtrait quelques difficultés à vois ses descendants évoluer en alligator, même si vous lui laissiez des millions d’années pour cela et lui répétiez « s’il te plaît »en permanence.
Interrogé à l’occasion du récent quarantième anniversaire de sa loi, au printemps dernier, Gordon Moore s’est lui-même déclaré assez pessimiste sur les capacités de la seule puissance de calcul à faire apparaître des systèmes informatiques évolutifs.
Pour cet ingénier, créateur d’Intel, le mode de fonctionnement de l'intelligence humaine est tout à fait différent des ordinateurs de type PC… Ce système logique ne générant à ses yeux pas assez de puissance. « Cette route ne mènera certainement pas à quelque chose qui ressemble de près ou de loin à l'intelligence humaine », a-t-il affirmé. « Et toute la puissance cumulée de tous les ordinateurs disponibles de la planète n’y suffirait pas ».
Verdict sévère ?
Non, tout juste à la hauteur de la désillusion que connut l’IA dans les années 90.
Vers 1083 le Miti, le bras armé technologique du gouvernement japonais avait engagé un vaste programme de recherche dit de « 5ème Génération » afin de faire apparaître des calculateurs massifs « intelligents » . A coups de milliards de dollars injecés dans les universités et les laboratoires privés, on allait voir ce que l’on allait voir… Les Japonais comptaient bien prendre le leadership mondial de la cyber-intelligence. Inquiets, Américains et Européens lancèrent des programmes concurrents…
Résultat de la ruée vers le cerveau artificiel ?
Néant.
Les programmes fracassants s’éteignirent au début des années 90 sans avoir rien produit de stupéfiant, et surtout pas ce « saut » conceptuel que tout le monde attendait alors, avec une sorte de foi étrange dans le pouvoir des machines ?
On avait annoncé des cyber-créatures puissantes, évolutives, des systèmes neuronaux singeant les fonctions logiques du cerveau ou des engins expert copiant tous les déductions logiques des meilleurs sismologues et chirurgiens.
Hélas, aucun programme ne fut en mesure de remplir des tâches réellement complexes, et encore moins de faire surgir la flamme de l’intelligence au tréfond de ses circuits.
La défaite était cuisante.
Même le gourou Marvin Minsky, du MIT, partisan féroce du cerveau artificiel avait finalement lui-même admis que ce serait plus compliqué que ce qu’il avait envisagé. Et que tous comptes faits, il faudrait peut-être renoncer à « copier » l’intelligence humaine, faute de la comprendre.
On avait carrément renoncé aux rêves du génial Turing, qui imaginait des ordinateurs intelligents avant la fin du XXème siècle, et à ceux d’Arthur Clarke, l’auteur du livre « 2001, Odyssée de l’espace », dont Hal, l’ordinateur psychotique pilote du vaisseau spatial, était sorti d’une chaîne de fabrication le 12 janvier 1997…
Profil bas…
Au milieu des années 90 Intelligence artificielle devint une expression à éviter…
Derechef, durant la dernière décennie du XXème siècle, les chercheurs se concentrèrent sur des fonctions plus limitées et précises : faire marcher un robot, permettre à une caméra de reconnaître des formes, développer des systèmes tolérants aux pannes, développer de nouvelles architectures et langages… On ne parlait plus d’IA, mais plus modestement de robotique, de sciences cognitives…
Mais où se situait l’obstacle ?
En fait on s’était aperçu que l’ensemble des milliers ou de millions de règles que devrait intégrer un ordinateur pour commettre des fonctions de niveau « intelligent », ou posséder des capacités d’apprentissage était tout simplement hors de portée de la programmation… Non seulement il n’était pas possible d’associer les millions de questions, de réponses et de chemins logiques qui permettent à un homme de dire « peut-être » au lieu de « oui » ou « non », mais aucun outil ne permettait à la machine de donner un « sens » aux choses qui l’entourent. La simple mouche échappant à la main tentant de l’écraser semblait désormais un modèle naturel impossible à copier, dès lors qu’il s’agissait de réellement intégrer toutes les fonctions dont est doté l’animal. Et tenter de faire analyser à une machine une phrase ambiguë comme « je vous ai compris », prononcée par de Gaulle à Alger n’était même plus envisagé…
Mais les crises, les traversées du désert sont parfois plus fertiles que les glorieuses illusions.
C’est dans le creux de ces années difficiles, que deux nouvelles approches de l’IA (voir encadré) résistèrent et se développèrent.
Deux démarches diamétralement opposées, mais toutes deux à la fois pragmatiques et élégantes.
La première consiste en ce que les experts nomment une « approche par le bas », et met en œuvre des robots. Dans le droit fil des programmes dits « évolutifs », car grossièrement inspirés des principes de la sélection darwinienne, il s’agit de créer des engins très simples, quasiment idiots, mais capables de développer individuellement ou par groupes des stratégies face à des obstacles inattendus. On pourrait les comparer à des fourmis mécaniques. Les exemples parfaits en sont les projets de robots explorateurs martiens, devant disposer d’une autonomie de décision en territoire hostile, ou les fantassins robots que souhaite obtenir le Pentagone pour épargner la vie de ses soldats sur les théâtres d’opération.
L’autre approche est exactement inverse, et part du « haut ». L’idée étant de doter les machines d’immenses socles de connaissances et de règles. Comportant des millions d’éléments et de liens logiques permettant de définir les faits les uns par rapport aux autres, ces bases de données devraient servir de support à des applications de plus en plus sophistiquées. Ses initiateurs l’estiment capable de faire émerger une forme rustique, évolutive et souveraine, d’« esprit » informatique.
Ces deux approches, fort révélatrices des obstacles et des espoirs de l’IA aujourd’hui, méritent d’être examinées de près
La première approche repose en grande part sur la robotique car elle considère que l’épreuve du monde réel est essentielle. Comme un être vivant un robot doit en effet sentir le monde extérieur pour s’adapter et agir.
La démarche est mise en œuvre dans de nombreux laboratoires, en France (université Paris VI, CNRS…) et à travers le monde. Le point de référence étant depuis 15 ans, au MIT de Boston, le laboratoire de robotique de Rodney Brooks.
Incluse dans cette démarche, l’idée que l’intelligence se forge par l’expérience, au contact sensoriel du monde, a permis de montrer que des taches complexes pouvaient en fait être décomposées en éléments modulaires bien plus simples.
Ces systèmes, qui permettront de doter les machines électroniques de marges d’adaptation et d’autonomie croissantes, à des ordinateurs de se synchroniser, et à des robots à la surface de la Lune de se coordonner et de dialoguer avec des satellites placés en altitude se heurte à la difficulté « évolutive » déjà mentionnée pour la vie artificielle. Les systèmes logiciels et matériels ont des plasticités trop limitées pour permettre à ces populations de machines de réellement « inventer » de nouveaux modes de fonctionnement. Mais la porte semble ouverte vers des possibilités en ce sens.
L’autre voie, celle du cerveau idiot et aveugle que l’on gave d’informations et de règles est celle suivie par Douglas Lenat avec son projet Cyc. Cet ancien « penseur » du programme américain d’intelligence artificielle (celui mis en place pour contrer le Japon dans les années 80) n’a pas baissé les bras. Durant 20 ans Lenat, désormais installé à Austin au Texas, a continué à développer le système, et vient de rendre disponible à tout le monde, sur Internet (www.opencyc.org), la possibilité de rentrer des éléments et des règles dans Cyc.
Le principe est de parvenir à ce que la machine distingue une incohérence dans « il est mort, il est allé faire les courses », mais soit capable d’envisager le fait que mort est peut-être détourné de son sens premier.
Aujourd’hui Cyc contient plus de 3 millions de liens logiques, ce qui lui permet de bâtir ses propres arborescences de liens, si vous entrez un nouvel élément dans sa base.
Mais bientôt, estime Lenat, Cyc pourra aller chercher lui-même ses informations.
Où ? Dans des caméras, d’autres bases de données, ou sur le Web, grâce à des projets comme ceux de Paul Vitanyi et Rudi Cilibrasi. Ces chercheurs de l’Institut national de mathématiques et d’informatiques d’Amsterdam ont développé un système expérimental qui permet à un ordinateur d’associer les mots entre eux.
Comment ? Grâce à nous tous. Le système s’appuie sur les recherches que nous effectuons, par millions, tous les jours, sur les milliards de pages indexées par Google. La NGD (distance normalisée Google), et les associations de mots auxquelles nous procédons pour les recherches permettent à une machine de peu à peu se construire un banque de données du sens des mots, une arborescence de définition.
Sans même que nous le sachions !
Compléments non édités
Test d’Alan Turing, le génial mathématicien. Créateur, avec John von Neumann, du premier ordinateur, Turing estimait que les machines seraient intelligentes avant l’an 2000. Raté. Malin, le britannique disait surtout que l’objectif serait atteint lorsque l’on serait incapable de savoir si l’on dialoguait avec une machine ou avec un humain caché derrière une machine.
Cap sur Internet, et les meilleurs simulateurs d’IA. Comme le site www.intellibuddy.com qui vous propose de dialoguer avec un artefact.
Un monstre aussi puissant que Blue Gene/L avait-il autant à voir avec un cerveau humain qu’un bulldozer avec le burin de Michel-Ange ?
Intelligence ou conscience ?
Autres démarches encore (vision, cognition de base )
Autre élément : alpha langage
Point de vue philosophique
Mais avec le renfort de Joseph Weizenbaum , chercheur, et créateur d’un système de Turing connu sous le nom d’Eliza, et désormais opposant à l’IA et encore Hubert Dreyfus, de Berkeley, je prétends que jamais la matière modelée par les mains de l’homme ne saura penser.
Argument linguistes
-jamais les machines n’auront accès au sens des mots, au contenu du langage. Vous pouvez faire écrire Banane à un chimpanzé toute sa vie, il saura peut-être, si vous lui montrez le fruit que cela le désigne, mais il ne saura jamais qu’il peut s’agir d’une insulte. Par contre, vous si je vous traites de bananes, vous comprendrez que je ne parle pas du fruit !
Et Cyc
poursuivait au Texas, à Austin, Michael Witbrock, sur une base de données encyclopédique, le Cyc project…
Pensée et maths, tout algorithme ?
Il suffit de se souvenir de l’objection majeure de Dreyfus
Il a démontré qu’il y avait des éléments non rationnels dans le comportement humain, et que toute méthode strictement déductive pour gérer des problèmes complexes peut amener à des impasses, pire à des contresens. La pensée humaine n’est pas réductible à un système algorithmique pur. Cela rejoint le théorème de Godël, le mathématicien ami d’Einstein, qui a montré que tout système formel comprend une fraction indécidable, non déductible des autres…
C’est quoi l’intelligence
C’est quoi la conscience ?
Lambda calcul
Jean-Louis Krivine, le logicien français…
Le cerveau est le produit de notre étonnante adaptation à notre environnement. Et ce cerveau est une machine logique. Les règles très simples mise en place par les neurones pour résoudre les défis de la survie sont un langage logique primitif. Ce ne sont pas les connexions entre les neurones qui comptent, pas d’avantage que les électrons circulant dans les circuits intégrés.
Le langage logique primitif. Nous l’approchons, avec le lambda-calcul, inventé en 1932 par Alonzo Church ? Et Krivine en tire toutes les conséquences : toutes les fonctions supérieures du cerveau, la vision, le langage, les mathématiques, sont sous-tendues par un système logique primitif, le lambda calcul. C’est de là que vient notre « invention » des mathématiques. En fait notre cerveau est une machine naturelle parfaitement adaptée à décrypter le logique du monde… Notre pensée est faite de modules mathématiques…
Consience/psycho/sentiment de soi
- Mais l’envie d’être, le désir d’être soi, la clef de la conscience, d’où viendrait-elle ?
Vous n’avez pas lu les travaux d’Antonio Damasio, le neurologue de l’Université d’Iowa ?
il soutient que le cerveau se représente le monde comme un film, et que le conscience, cette sensation d’être un spectateur privilégié, et moteur, ayant envie d’Etre, provient simplement du plaisir que procure le fait d’assister au film du monde.
-Et cela viendrait d’où ?
De nulle part… Du simple fait qu’être intelligent et conscient de soi et du monde doit être un avantage vital, un moyen de survivre et de se reproduire…
-
Eh ben pour arriver à cela avec un ordinateur il faudrait une machine aussi énorme que l’Univers,
Chutes
Ou alors, se dit-on alors cette légende des Frankenstein électroniques a pour fonction l’immunisation. Une sorte de pardon, par avance… D’accord, l’homme pourrait un jour transgresser les lois de la nature, se rapprocher des interdits et des tabous jusqu’à les toucher. Mais avant de s’y brûler, il doit se rassurer. Expiant par avance, dans une longue répétition de cauchemars mis en scène par Kubrick ou racontés par Asimov, le crime qu’il s’apprête à commettre en singeant ce mystère que représente l’intelligence.
les arguments ne sont pas décisifs
Intelligence et conscience…
Un saut « surprise » est-il possible ? L’histoire des sciences nous incite à la prudence
Mais elle nous dit aussi que tout se passe comme si le savoir absolu étauit hors de portée.
En fait tout se passe comme si les partisants de l’IA étaient les naifs explorateurs, souvent à court d’arguments mais pariant sur le développement imprévisible du savoir, et des techniques (genre l’avion a finit par voler) et que les adversaires critiques de l’IA étaient là pour dire : regardez l’histoire. Chaque fois que la science a voulut imiter ou dépasser les phénomènes naturels dont elle s’inspire, chaque fois qu’elle a voulu croire en son pouvoir au point de vouloir transformer le crapaud en prince en l’embrassant sur la bouche, le résultat a été plutôt pathétique
Chute avec Zwirn
La science est dans une situation apparemment sans issue. D’un côté, forte de ses succès, elle rayonne et triomphe (et fait peur). Par ailleurs, elle doute. Car elle s’aperçoit qu’au fur et à mesure de ses avancées, si les continents connus augmentent, l’horizon recule. (Zwirn) On pourrait dire c’est le cas de sciences cognitives. C’est un peu comme si on allait connaître de mieux en mieux les choses, on sera capable de les simuler des les singer, voire de susciter des èvèvements en éprouvette comme l’appartion de formes d’intelligence, mais il est probable que nous n’aurons pas accès à l’explication ni à la reproduction de ce que nous aplelons l’intelligence humaine.
Libellés :
philosophie,
prospective,
science,
science IA,
technologies
Inscription à :
Articles (Atom)