Du mythe d’Icare au projet de la biomimétique

Biomimétisme
Biomimétisme

Concevoir des dispositifs capables d’augmenter la pensée

Du mythe d’Icare au projet de la biomimétique lancé par J.M. Benyus, l’homme s’applique à copier la nature pour concevoir ou améliorer ses systèmes techniques. Dans le domaine de l’IA, de la robotique et du data mining, on citera pour exemple les algorithmes évolutionnaires, les algorithmes d’optimisation par essaim de particules, ou encore les modèles d’optimisation inspirés du comportement des insectes sociaux. Dans tous les cas, il s’agit de s’inspirer plus ou moins fortement de modélisations de structures existant dans la nature (structures sociales, biologiques, etc.) et d’appliquer les lois qui régissent ces structures aux données dans un problème d’optimisation.

L’Ingénierie des Connaissances (IC) peut-elle adopter une telle démarche ? L’étude des mécanismes « naturels » de la cognition humaine peut-elle offrir d’améliorer les performances des dispositifs de manipulation des connaissances ? Les concepteurs d’ontologies ont-ils par exemple intérêt à s’appuyer sur les travaux réalisés sur la mémoire sémantique et la catégorisation ? Plus généralement, l’IC a-t-elle un quelconque avantage à s’inspirer des modèles du vivant pour concevoir ses dispositifs ?

Les premiers raisonneurs en Intelligence Artificielle (IA) s’inspirent de modèles psychologiques du raisonnement ou de la formation des concepts chez l’homme. La théorie de la rationalité limitée d’Herbert Simon, visant à modéliser les stratégies sur lesquels s’appuie l’individu pour prendre des décisions, servit de base au développement des méthodes heuristiques en IA : le raisonnement à base de règles, et par exemple d’arbres de décisions [1]. Et le modèle de représentation utilisé dans les ontologies contemporaines est une reprise des réseaux sémantiques, développés par les psychologues dans les années 1960 pour rendre compte de la manière dont les concepts sont organisés dans la mémoire humaine [2]. De même, le Traitement Automatique des Langues (TAL), qui représente une partie substantielle des travaux actuels en IC, n’aurait manifestement jamais pu prendre son essor sans la théorie de la Grammaire Générative de Noam Chomsky [3] – modèle cognitif par excellence, puisque visant à rendre compte du fonctionnement du système qui permet à l’homme de comprendre et d’utiliser le langage.

Le problème est cependant moins évident qu’il n’y parait.

Tout d’abord, on ne saurait ignorer que l’IA et l’IC, ou plus généralement ce que les anglo-saxons appellent les computer sciences, ont fourni aux sciences cognitives au moins autant de modèles, métaphores, paradigmes qu’ils lui en ont empruntés [4]. A tel point qu’en vérité, on ne sait plus très bien qui emprunte à qui quand on semble importer, pour programmer le comportement des machines, des modèles de la cognition issus des sciences cognitives, par exemple de la psychologie de la mémoire, du raisonnement, ou du langage. Il n’y a qu’à penser au connexionnisme pour s’en convaincre : paradigme des sciences cognitives empruntant aux réseaux de neurones formels de l’IA une bonne partie de son formalisme, réseaux eux-mêmes fondés à l’origine sur un emprunt aux sciences du cerveau [5].

Ensuite et surtout, le projet de l’IC, en tant que secteur de l’ingénierie, n’est pas de créer des machines qui pensent, encore moins des machines qui pensent comme l’homme – mais il est de concevoir des machines capables d’aider l’homme à penser. A la différence de l’IA, en tout cas telle qu’elle fut pensée par J. McCarthy et M. Minsky, l’IC n’a pas pour ambition de reproduire ou simuler la cognition naturelle. Elle est d’instrumenter le travail de la connaissance [6]. Or a-t-on besoin d’une théorie des mécanismes de la cognition pour assister celle-ci ? Une supplémentation efficace de la cognition humaine exige sans doute une certaine compréhension de son fonctionnement. Mais l’histoire nous fournit nombre d’exemples d’artéfacts cognitifs, tels le boulier, manifestement inventés indépendamment de toute théorie du fonctionnement cognitif.

On le voit, le problème est donc moins évident qu’il n’y parait. Des nuances sont nécessaires. En premier lieu quant au type d’usage que l’IC va pouvoir faire des modèles de la cognition élaborés par les sciences cognitives. Si les dispositifs qu’élabore l’IC visent à augmenter la cognition humaine, une compréhension de la manière dont fonctionne l’organe cognitif humain peut être requise non pour simuler ou s’inspirer de ce fonctionnement dans la conception du dispositif, mais pour ajuster ce dernier à l’organe qu’il a pour charge d’augmenter.

Ainsi, dans le domaine des Systèmes d’Aide à la Décision (SAD), il pourra être pertinent d’ajuster la liberté de décision de l’utilisateur ou le type d’aide fournie par l’interface à son état émotionnel. Différents travaux de psychologie cognitive ont en effet montré que la fiabilité des décisions dépendait fortement de l’état émotionnel de l’individu [7]. En situations d’urgence, le SAD réduira par exemple la liberté de l’utilisateur pour la reporter sur des outils de prise de décision automatique.

Un autre exemple nous est fourni par les Systèmes de Recherche d’Informations (SRI) utilisant des ontologies. De nombreux travaux proposent d’utiliser des ontologies de domaine pour étendre des requêtes au sein de SRI sémantiques (e.g. Guelfi 2007, Messai 2006). Le problème est toutefois que de tels systèmes ne peuvent donner satisfaction que si les ontologies dont ils font usage sont capables de représenter les catégories de l’utilisateur, et que ces catégories varient largement d’un utilisateur à l’autre (Barsalou & Medin, 1986). Le rattachement du concept de Chien à la catégorie des Animaux comestibles est-il pertinent pour tous les individus ? Pour résoudre ce problème, Aimé et al. (2010) proposent de considérer les ontologies de domaine comme propres à un écosystème (i.e. un endogroupe et un contexte) et de tenir compte des différences d’écosystèmes en incorporant dans les ontologies un critère de typicalité, sous forme de relation entre concepts et sous-concepts, mais également entre les différents termes dénotant un concept, et les instances rattachées au concept. Les rapports de typicalité entre termes, instances et concepts, peuvent ainsi être calibrés de manière à représenter les spécificités d’un écosystème d’utilisateurs.

On voit sur ces deux exemples l’intérêt qu’il peut y avoir pour l’IC à tenir compte du fonctionnement cognitif humain, et à emprunter aux sciences cognitives ses modélisations des mécanismes de la cognition. L’augmentation cognitive est plus performante. L’outil est mieux adapté à l’utilisateur.

Un point supplémentaire mérite toutefois d’être mentionné. Les modèles de la cognition, du raisonnement, du calcul, de la mémoire, de la perception sont aujourd’hui légion en sciences cognitives – d’autant plus encore que ces sciences se déploient suivant différents paradigmes. Si l’IC désire emprunter aux sciences cognitives ses modèles, encore faudrait-il savoir lesquels, car le marché est véritablement saturé.

Or, on peut d’emblée noter que si l’IC est dans une démarche de supplémentation ou d’augmentation, et qu’elle veut adapter ses dispositifs au fonctionnement et ressources de son utilisateur, elle n’a pas tant besoin d’une théorie de la cognition « nue » (la cognition non prothétisée, celle qui travaille sans artéfact) que d’une théorie de la cognition augmentée justement. L’utilisateur auquel l’IC veut adapter ses dispositifs est déjà un utilisateur prothétisé : il fait justement usage de ce dispositif, ses mécanismes cognitifs intègrent déjà le dispositif dans la boucle. Et la cognition prothétisée obéit à un fonctionnement différent de la cognition nue : la disponibilité d’artéfacts cognitifs, de supports de mémoire, la possibilité d’inscrire de l’information dans l’environnement, et de manipuler cette information par d’autres voies que par la « pensée » transforme les processus cognitifs de manière substantielle – à tel point que des auteurs ont pu parler de raison graphique (Jack Goody) ou de raison computationnelle (Bruno Bachimont).

Différents courants des sciences cognitives se proposent aujourd’hui d’étudier la cognition prothétisée ou augmentée comme telle. En particulier : les théories de la cognition située et distribuée (Edwin Hutchins, David Kirsh), et les théories qui s’intéressent aux propriétés cognitives des supports de pensée, de la feuille de papier aux technologies numériques (Jack Goody, Donald A. Norman, Bruno Bachimont, Charles Lenay). Certains courants vont même jusqu’à défendre la thèse radicale d’un caractère originairement prothétique de la cognition, voire de l’humain (pensé comme « natural born cyborg », pour reprendre les termes de l’ouvrage d’Andy Clark), atténuant voire dissipant ainsi la frontière entre le naturel et l’artificiel, le biologique et le technologique. Les théories externalistes de la cognition en sciences cognitives et philosophie de l’esprit, dont Andy Clark, précédemment cité, est l’un des principaux défenseurs, avec sa thèse de l’extended mind [8], mais qu’on peut faire remonter à la philosophie pragmatiste (en particulier John Dewey et Ludwig Wittgenstein [9]) ou à la seconde cybernétique (Gregory Bateson [10]), se définissent ainsi contre la position internaliste et cérébrocentrée de la cognition, aujourd’hui dominante, pour avancer l’idée que la cognition n’est pas un processus intracrânien, mais qu’elle intègre l’environnement extracorporel : on pense en appui sur un environnement, des artéfacts, des symboles externes, on pense dehors, avec ses mains, par la parole et l’expression. Peut-être est-ce prioritairement avec ces courants des sciences cognitives que l’IC aurait avantage à dialoguer.

Références

  • Aimé, X., Furst, F., Kuntz, P. & Trichet, F. (2010). Prototypicality Gradient and Similarity Measure: a Semiotic-based Approach dedicated to Ontology Personalization Journal of Intelligent Information Management. Scientific Research, 2, 65-79
  • Alter, S. L. (1980). Decision support systems: Current practice and continuing challenges. Reading, Massachusetts: Addison-Wesley Publishing Co.
  • Barsalou, L.W., Medin, D.L. (1986). Concepts: Static definitions or context-dependent representations? Cahiers de Psychologie Cognitive, 6, 187-202.
  • Bateson, G. (1979). Mind and Nature: A Necessary Unity (Advances in Systems Theory, Complexity, and the Human Sciences, trad. fr. La nature et la pensée, Seuil, Paris, 1984.
  • Benyus, J. M. (1998). Biomimicry: Innovation Inspired by Nature Perennial (HarperCollins).
  • Cadier, F., Coppin G., Lenca P. (2008). Cognitive approach to distributed decision support systems. Foundations of computing and decision sciences, december 2008, vol. 33, n° 4, pp. 317-349
  • Clark, A. & Chalmers, D.J. (1998). The extended mind, Analysis, 58, 10-23.
  • Collins, A.M. & Quillian, M.R. (1969). « Retrieval time from semantic memory ». Journal of verbal learning and verbal behavior 8 (2): 240–248.
  • Cori, M. & Marandin, J.M. (2001), La linguistique au contact de l’informatique: De la construction des grammaires aux grammaires de construction : Le traitement automatique des langues, Histoire épistémologie langage, vol. 23, no1, pp. 49-79 (2 p.1/4).
  • Damasio,  A.R. (1995). L’Erreur de Descartes. La Raison des émotions, Odile Jacob,
  • Ertschied O., Gallezot G. (2003). Chercher faux et trouver juste, Sérendipité et recherché d’information. CIFSIC – Bucarest 2003 – Atelier « Communication et complexité ».
  • Gillet, A. (2005). Étude de l’influence des humeurs positives et négatives sur l’organisation des connaissances en mémoire sémantique. Université de Nantes, UFR de Psychologie, laboratoire de Psychologie « Education, Cognition, Développement ».
  • Guelfi, N., Pruski, C. & Reynaud, C. (2007). Les ontologies pour la recherche ciblée d’information sur le Web : une utilisation et extension d’OWL pour l’expansion de requêtes, 18èmes journées francophones d’Ingénierie des Connaissances, IC’2007, Plate Forme de l’AFIA, Grenoble.
  • Hoffman, R. R., Hayes, P. J., & Ford, K. M. (2001). Human centered computing: thinking in and out of the box. IEEE Intelligent Systems, 16(5), 76-78.
  • McCulloch, W. & Pitts, W. (1943). A Logical Calculus of Ideas Immanent in Nervous Activity, Bulletin of Mathematical Biophysics 5:115-133.
  • Messai, N., Devignes, M., Napoli, A. & Smail-Tabbone, M. (2006). Treillis de concepts et ontologies pour interroger l’annuaire de sources de données biologiques BioRegistry Ingénierie des Systèmes d’Information : Systèmes d’information spécialisés, 11, 39-60
  • Quillian M.R. (1968). “Semantic Memory”, in M Minsky (Ed), Semantic Information Processing, pp.216-270. Cambridge, Massachusetts: MIT Press, USA.
  • Steiner, P. (2007). De l’externalisme de la signification à l’externalisation de la pensée. Thèse de doctorat, Université Aix-Marseille.

[1] Voir Crevier (1993), p.61.
[2] En particulier par Quillian dans ses travaux sur la mémoire sémantique. Voir Quillian (1968) et Collins & Quillian (1969).
[3] Voir Crevier (1993), pp.102-103.
[4] Voir Cori & Marandin (2001) pour le développement de cette idée à propos de la linguistique et notamment de la théorie générative.
[5] Cf. McCulloch & Pitts (1943).
[6] Cf. Bachimont (2004).
[7] Voir Damasio (1995) ; Gilet (2005).
[8] Clark & Chalmers (1998).
[9] Cf. Steiner (2007).
[10] Cf. Bateson (1979).

Texte rédigé conjointement avec Gunnar Declerck pour l’atelier ICSC (IC’2012)
1ere journée Sciences Cognitives & Intelligence Artificielle (AFIA & ARCo)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

* * Cette case à cocher est obligatoire

*

J'accepte

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.