Ecole 
Normale
Supérieure

 

 

 

 

GÉOMÉTRIE ET COGNITION (GEO-CO)

 

Groupe de travail et de cycle de Conférences

proposé par


 

Giuseppe LONGO*, Jean PETITOT°, Bernard TEISSIER*

* CNRS et DMI, Ecole Normale Supérieure: longo@di.ens.fr, teissier@di.ens.fr
° EHESS et Ecole Polytechnique (CREA): petitot@poly.polytechnique.fr


 
 

"Atelier de Recherche" 1999 - 2002, financé par le Ministère de l'ENRT
(responsable: G. LONGO)
        Partecipants and english summary


 

NOTE (Octobre 2002): Cet atélier a désormais évolué dans la nouvelle équipe
"Complexité et information morphologiques" (CIM),
        Laboratoire d'Informatique de l'ENS (LIENS)


 


 




 







 



2 - New Programs and open problems in the Foundations of Mathematics, G. Longo and P. Scott (Editors), Special issue of The Bulletin of Symbolic Logic, ASL, Vol. 9, Number 2, June 2003.



3 - Géométrie et Cognition, G. Longo (Editeur), Numéro spécial de la Revue de Synthèse, Editions de la rue d'Ulm, tome 124, 2003.



Octobre 2002 : Les activités de cet atelier ont contribué à la mise en place de (et se sont transformé dans) un projet de recherche plus spécifique, voir la nouvelle équipe :
 

"Complexité et information morphologiques" (CIM)
LIENS, CNRS - ENS

 

GÉOMÉTRIE ET COGNITION :
Présentation générale (Mars 1999)
     English Summary    

( For some papers in english related to part 1 of the project, click here



Le texte suivant expose le projet du groupe de travail GeoCo ainsi qu'un certain nombre de thèmes scientifiques, actuellement en plein développement, qui constitueront le contexte général initial de ses travaux.

Motivations 

 Introduction

- Deux approches duales

- Articulation des activités

 

Part 1. De la Cognition à la géométrie

 1.1. Le sens en Mathématique

 1.5. La constitution des invariants mathématiques : leur intérêt cognitif

 1.2. L'origine d'un débat

 1.6. Infini et Géométrie : du continu au systèmes dynamiques

 1.3. La Géométrie : d'une Science de l'espace à une Science du mouvement dans l'espace

 1.7. L'Informatique

 1.4. Épistémologie et genèse

 1.8. Conclusions

 

Part 2. Méthodes géométriques dans les sciences cognitives

 2.1. De l'analyse du signal à la structuration morphologique

 2.5. Les modèles variationnels de segmentation (Mumford)

 2.9. Catégorisation, typicalité et perception catégorielle

 2.2. Mesure du signal optique et détection multi-échelle de traits géométriques

 2.6.Théorie des singularités multi-échelle

 2.10. Des scènes visuelles au langage

 2.3. Lien avec les algorithmes de type ondelettes

 2.7. Contours apparents et graphes d'aspects multi-échelle

 2.11. Conclusion

 2.4. Scale-space analysis (Koenderink, Morel, etc.)

 2.8. Fibrations corticales, colonnes d'orientation et intégration des contours visuels

 Références

 

Motivations:

Depuis une dizaine d'années, on assiste à deux évolutions frappantes:

d'une part la manifestation croissante d'un besoin de ''retour au sens'' en Mathématiques à mesure que l'on domine mieux les retombées et les limitations des approches formalistes des fondements des Mathématiques (et de la connaissance);

d'autre part une sorte de ''révolution '' cognitiviste , due en grande partie aux remarquables progrès des neurosciences intégratives, qui permet en particulier d'approcher les structures neurologiques liées à la perception de l'espace et du mouvement, et incite à reprendre sur des bases plus expérimentales et scientifiques la problématique des fondements des Mathématique, tout en considérant l'intersubjectivité humaine et la constitution des symbolismes, au cours de l'histoire.

Ces évolutions conduisent à remettre au centre des débats le lien entre géométrie et cognition; c'est ce que propose de faire ce projet, dans un double mouvement:

1) De la Cognition à la Géométrie: ou les fondements cognitifs des Mathématiques (où dans "cognitif" on veut inclure aussi l'évolution de la construction conceptuelle et de son l'histoire);

2) De la Géométrie à la Cognition: ou l'analyse mathématique de la cognition humaine (vision, en particulier).

Les conséquences espérées sont à la fois techniques et épistémologiques.

1) Le développement de certains aspects de la Géométrie Différentielle et d'un nouveau rôle de la Géométrie en Informatique.

2) Une meilleure compréhension du rôle de ces progrès des sciences naturelles et de la cognition dans l'analyse de certains problèmes traditionnellement considérés comme philosophiques.

Les intérêts manifestés par les élèves ces dernières années nous font espérer de réunir aussi autour de ce projet des élèves littéraires et scientifiques.
 

Introduction

Deux approches duales

1. L'histoire récente des fondements des Mathématiques est dominée par une approche logique et formelle. Tout en admirant les progrès remarquables permis par ces approches, propres à la Logique Mathématique (en particulier, leur application majeure: l'Informatique), nous considérons que le moment est venu de tenter une nouvelle exploration, que nous voudrions nommer "l'approche cognitive des fondements des Mathématiques".

Les mathématiciens, et plus largement les scientifiques et les étudiants souhaitent, semble-t-il, un ''retour au sens'' en Mathématiques; les mathématiciens parce qu'ils sentent bien que c'est du côté de la signification autant que de celui de la rigueur que se trouvent les moteurs de la découverte, et les autres parce que l'apprentissage des mathématiques dont ils ont besoin est extrêmement difficile sans le support de l'intuition, support que l'on a trop longtemps repoussé à cause de ses errements possibles. Se lancer avec rigueur dans une telle entreprise, après un siècle d'approche logique et de son développement magnifique dû en partie à la méthode axiomatique, n'est pas sans danger, mais nous semble indispensable. Il est vrai que le sens d'un objet ou d'une opération mathématique paraît être un concept flou que l'on ne peut étudier que par un discours renvoyant à d'autres concepts flous. Cependant, les outils permettant un travail en profondeur commencent à émerger du côté des Sciences Cognitives, plus précisément de l'étude de la perception. Non seulement une compréhension bien meilleure des modes de perception (visuelle, spatiale, auditive) s'est fait jour, mais on commence à savoir analyser, dans l'énorme complexité du système nerveux et cérébral, les connexions et fonctions pertinentes. A tout cela il faudra ajouter l'analyse du rôle constitutif de l'intersubjectivité et de l'historicité dans le développement des concepts mathématiques.

Il nous semble qu'un travail de recherche des correspondances entre les objets et opérations mathématiques et les processus cognitifs ou les opérations de base de notre système perceptif (comparer, constituer des invariants, diriger le mouvement dans l'espace, compter, etc....) serait d'une grande utilité pour éclairer les fondements des mathématiques. En fait, nous croyons que le problème des fondements des mathématique n'est pas seulement un problème logique, mais aussi un problème épistémologique et qu'il n'y a pas d'épistémologie sans analyse d'une genèse: une analyse de la genèse, tant cognitive qu'historique, de cette construction conceptuelle très particulière que sont les Mathématiques. De plus, le rôle paradigmatique qu'ont les Mathématiques parmi les conceptualisations humaines, joint à leur intrinsèque "simplicité" et clarté conceptuelle, peut aider à l'entreprise générale des Sciences Cognitives, comme il est souvent arrivé dans maintes philosophies de la connaissance.

Nous pensons aussi que l'influence trè fructueuse que l'approche formelle et logique, en fait "linguistique", a eu dans la naissance de l'Informatique a besoin, aujourd'hui, d'être enrichie par une l'analyse directe des fondements de la Géométrie. En fait, les nouveaux défis posés par l'Informatique sont dus aux systèmes distribués, concurrent, asynchrones ... . Or, la distribution, la concurrence et l'asynchronie sont des problèmes avant tout géométriques, car ils se posent tout d'abord dans l'espace et dans le temps. Leur analyse devrait donc se baser sur une refonte de l'approche fondationnelle des Mathématiques qui met également au centre l'analyse les rapports entre Géométrie et espace physique.
 

2. Par ailleurs, les étonnants développements des neurosciences de la perception permettent de commencer à modéliser mathématiquement les mécanismes neuronaux de la perception et, en particulier, de la vision. Cela ouvre de nouvelles perspectives sur la genèse visuelle de la géométrie. On commence à comprendre comment celle-ci peut "émerger" d'algorithmes de traitement du signal optique et "formater" des informations sensorielles. Ces travaux remettent à l'honneur tout un ensemble de réflexions (Kant, Herbart, Lotze, Poincaré, Weyl, Enriques) qui avaient insisté sur le rôle constitutif irréductible de l'espace et du temps dans notre représentation des phénomènes.

Un aspect essentiel de cette problématique concerne les liens mathématiques entre l'analyse du signal sensoriel et la structuration géométrique des représentations perceptives. D'un côté on a les méthodes de représentation compacte optimale des signaux par des "atomes" temps-fréquence ou espace-fréquence. Elles vont de l'analyse de Fourier classique aux méthodes multi-échelle de type ondelettes, en passant entre autres par les transformées de Gabor. D'un autre côté on a le problème de la segmentation des signaux sonores (musique, parole) et optiques (images) au moyen de discontinuités qualitatives. C'est la partie géométrique (morphologique) du traitement.

Des travaux de pointe dans les modèles de perception consistent à unifier les deux points de vue en subordonnant l'analyse du signal à des segmentations optimales. On évoquera en particulier les travaux de J. Koenderink, D. Mumford, J-M.Morel, Y. Meyer, S. Mallat.

Par ailleurs on commence à connaître assez bien l'implémentation des algorithmes permettant au cortex de faire de la géométrie. On évoquera le champ d'association dans les hypercolonnes d'orientation de l'aire V1 du cortex visuel primaire, champ qui implémente la structure de contact du fibré des directions en chaque point de la rétine.

L'ensemble de ces travaux convergents conduit à reprendre sur de nouvelles bases "naturalistes" (physico-mathématiques et neuro-cognitives) tout un ensemble de descriptions héritées de la Gestalt théorie et de la phénoménologie (Husserl et Merleau-Ponty).
 
 

Articulation des activités

Nous proposons la constitution d'un petit groupe de scientifiques qui unissent leurs efforts pour explorer cette approche cognitiviste des fondements. Ils organiseront un groupe de travail régulier et diffuseront les thèmes de leurs réflexions au moyen de cycles de conférences destinés prioritairement aux élèves. Ils tenteront aussi de répondre à la demande de communication avec les mathématiciens que peuvent avoir des chercheurs en sciences cognitives, plus particulièrement ceux qui travaillent sur la perception visuelle dans ses rapports avec la Géométrie.

Les activités de ce groupe devraient se joindre à celles du laboratoire "Pensée des Sciences" pour former un lieu de réflexion rigoureuse qui manifeste de manière créative le rapprochement entre la Philosophie des Sciences des scientifiques et celle des philosophes, et tente de surmonter le fossé qui a séparé trop longtemps ces deux mondes. Le dialogue avec les physiciens, biologistes, physiologistes et, en général, les cognitivistes de formations diverses en serait l'outil principal.
 
 

1. DE LA COGNITION À LA GÉOMÉTRIE
 

1.1 Le sens en Mathématique
 

L'expérience quotidienne du mathématicien est que la compréhension de l'énoncé d'un théorème, et surtout celle de sa démonstration, semblent être d'une nature tout-à-fait différente de celle qui est décrite par la construction logique. La logique semble n'être qu'une sorte de garde-fou permettant de se convaincre de la véracité d'un théorème que l'on n'a pas ''compris''.

Il faut donc essayer de déterminer comment les théorèmes et démonstrations font sens, et il nous semble qu'une approche naturelle est de postuler que les objets mathématiques simples incarnent des faits cognitifs, et qu'une bonne partie des problèmes et constructions expriment des règles de pensée tout d'abord involontaires qui sont aussi de nature cognitive: comparer, classifier, faire des analogies. La construction de modèles mathématiques des phénomènes physiques suit aussi ce schéma, en s'appuyant en outre sur un certain nombre de postulats sur la correspondance d'objets du monde physique avec des objets mathématiques.

La ramification du sens dans la construction des mathématiques est extrêmement compliquée, et la mise en oeuvre des règles de pensée mentionnées plus haut souvent cachée, mais il nous semble intéressant de les faire apparaître dans un certain nombre d'épisodes de l'histoire des mathématiques. Par exemple dans l'histoire de l'intégration, dans celles de la théorie des idéaux, des places et des valuations en Géométrie algébrique ou dans celle de l'analyse fonctionnelle. Une place particulière doit bien sûr revenir à l'histoire des fondements.
 
 

1.2. L'origine d'un débat.

Un grand débat est à l'origine de l'analyse des fondements des mathématiques, au tournant du siècle. Un moment central en fut l'opposition radicale entre les visions de Riemann et Poincaré, d'un coté, et celles de Frege et Hilbert de l'autre. Riemann et Poincaré insistent sur le rôle de l'espace et sur la "constitution des concepts mathématiques" par l'homme, en tant qu'être vivant dans le monde.Frege propose des règles logiques universelles et indépendantes de l'homme, dont l'objectivité absolue constitue le fondement ultime des mathématiques, des règles à exprimer dans une "langue formulaire de la pensée".

Au cours de ce siècle, F. Enriques et H. Weyl enrichiront les réflexions de Riemann et Poincaré en y ajoutant l'appréciation de l'histoire, par cette analyse des "conceptualisations progressives" en mathématiques, que l'on trouve dans leurs nombreux écrits philosophiques. Hilbert, au contraire, développera la Logique Mathématique de Frege et ira bien plus loin que Frege: en cherchant la "certitude" dans la manipulation finitaires de langages formels, il posera les bases de la Théorie de la Démonstration, en tant qu'analyse formelle et linguistique des mathématiques, telle qu'elle se développera surtout après les années trente.

En fait, le "tournant linguistique" marque le siècle bien au-delà des projets de Frege : le raisonnement logique de Boole et de Frege est réifié dans une mathématique des suites finies de symboles et leur transformations effectives, la métamathématique de Hilbert, à l'intérieur de laquelle on pourra poser des problèmes mathématiques, des conjectures (la complétude, la décidabilité, la cohérence ... d'un système d'axiomes et règles), démontrer des résultats précis. La force conceptuelle, la rigueur et la précision mathématique du programme de Hilbert, feront oublier les remarques informelles, quoique profondes, de Riemann, Poincaré et quelques autres (dont aussi Helmholtz et Mach): la logique mathématique se posera comme nouvelle discipline mathématique de grand relief et, en permettant de développer la notion de représentation ou codage finitaire (Gödel) et de calcul effectif (Herbrand, Gödel, Turing, Church ...), elle sera à l'origine de l'Informatique. C'est ainsi que l'objectivité absolue des calculs logiques s'est en définitive trouvée réifiée dans des machines "formellement et parfaitement logiques". Ces machines ne cessent, depuis 50 ans, de changer notre vie, par leur extraordinaire efficacité dans tout ce qui est codable par des suites finies de symboles et leur transformations effectives.

Ce sont justement les succès et les limites des analyses et des applications basées sur "le traitement finitaire de suites finies de symboles" qui nous poussent à aller au delà de ces outils, vers une méthode épistémologique et scientifique qui intègre aussi les autres formes de la connaissance et du rapport de l'homme au monde. Il est temps de reprendre les idées esquissées par Riemann, Poincaré, Weyl et Enriques, pour redémarrer une réflexion scientifique, en fait mathématique, sur l'épistémologie des mathématiques et leur origine cognitive.
 

1.3 La Géométrie : d'une Science de l'espace à une Science du mouvement dans l'espace.

La Géométrie des Grecs était une "science des figures"; avec Riemann, et après Descartes, elle est devenue une "science de l'espace". Poincaré est allé plus loin, en soulignant le rôle du mouvement dans l'espace : « un être immobile n'aurait jamais pu acquérir la notion d'espace puisque, ne pouvant corriger par ses mouvements les effets des changements des objets extérieurs, il n'aurait eu aucune raison de les distinguer des changements d'état» [Poincaré,1902,p. 78] ...« localiser un objet en un point quelconque signifie se représenter le mouvement (c'est-à-dire les sensations musculaires qui les accompagnent et qui n'ont aucun caractère géométrique) qu'il faut faire pour l'atteindre» [Poincaré,1905,p. 67].

Pour Poincaré, comme pour Riemann, il n'y a pas une théorie géométrique "a priori" du monde, donnée par une axiomatique formelle. C'est plutôt « la présence des corps, les solides naturels» et notre propre corps, notre mouvement et les changements d'état qui constituent l'espace et qui nous le font appréhender; « les axiomes ne sont que des définitions déguisées», dont on choisit « les plus commodes » [Poincaré,1902,p.75-76]. Toutefois, pour Poincaré, la géométrie du monde sensible n'est pas la géométrie mathématique, car ...« les sensations musculaires ... n'ont aucun caractère géométrique...». C'est ce clivage, qui le conduit à un certain conventionnalisme, qu'il faut aujourd'hui dépasser : il faut reconstruire la géométrie mathématique à partir de celle du monde sensible, expliquer pourquoi nos choix explicites sont "plus commodes", en utilisant les outils que les mathématiques, la géométrie tout d'abord, mais aussi la logique mathématiques, nous ont donné au cours des dernières décennies, en combinaison avec l'apport des neurosciences et des sciences cognitives.

Prenons un exemple, à partir du livre d'un physiologiste [Berthoz, 1997]: la capture d'une balle qui approche. Selon Berthoz, au cours de l'action, il n'y a pas de reconstruction centralisée de l'espace extérieur, mais une intégration multisensorielle de différents référentiels [p.90], chacun desquels permet de "simuler" l'espace de la perception. C'est à dire, l'espace n'a pas besoin d'être représenté de façon explicite, dans un système de coordonné cartésienne ou par un codage pixel par pixel des points de l'espace : le seuil musculaire relatif à un certain angle du bras, par exemple, est lui-même le référentiel ou le codage d'une distance. C'est ainsi que, quand on fait un mouvement pour saisir un objet, le référentiel est constitué par l'espace articulaire et quantifié par les seuils musculaires, y compris ceux des muscles oculaires. Il nous parait donc que le référentiel spatial est, en premier lieu, analogiquement reconstruit sur la rétine : l'élargissement de l'image bidimensionnelle est une "simulation analogique" du mouvement de la balle; ensuite, cette "simulation" est transférée, par mille passages intermédiares, sur le système reférentiel donné par les articulation du bras et quantifié par la proprioception des seuils musculaires. Le passage d'une représentation analogique à l'autre, l'intégration, par comparaison et constitution d'invariants (l'aperception de la stabilité de certains phénomènes), est le premier élément constitutif de cette intelligence qui nous permet l'action et qui, en fait, a sa genèse dans notre action dans le monde, dans la pluralité de nos représentations du monde et de notre action. En bref, cette toute première forme d'intelligence, le bras qui se lève et saisit la balle qui s'approche, réside tout d'abord dans le transfert de la représentation analogique de la balle, de sa vitesse et de son accélération sur la rétine sur une autre représentation analogique, celles des seuils musculaires, qui simulent la direction, la vitesse, l'accélération de la balle dans leur propre système de référence, celui des articulations du bras. Cette intelligence "géométrique" est loin d'être indépendante des codages, tout au contraire elle se construit comme réseaux de codages ou de représentations analogiques; elle est acquise par une pratique de l'action dans le monde, sur un corps et une protocarte cérébrale qui rendent ce réseau possible. La pratique de l'invariance des objets du monde par rapport à la pluralité de nos référentiels et de nos codages nous permet de construire ou de concevoir, après coup, cette "invariance" ou stabilité qui sera propre de nos représentations conscientes, celles du langage et de l'espace par exemple, jusqu'aux constructions conceptuelles les plus stables, les plus invariantes, celles des mathématiques.

L'analyse de la constitution dans la praxis de nos invariants conceptuels demande un effort mathématique remarquable, qui parte du dialogue avec les biologistes et les physiologistes et utilise l'analyse des jeux des référentiels géométriques. En particulier, l'espace dont nous parlent les physiologistes est toujours structuré par le geste, le mouvement : il n'est jamais absolu, mais relatif à la structure qui intéresse. En fait, l'analogie reconstruit l'essentiel (la structure spatiale intéressante) du phénomène simulé, dans le but de l'action. Le référentiel modulaire des seuils, des saccades, du système vestibulaire, du toucher, est choisi et modifié selon la structure de l'espace; il est fonctionnel à l'action du moment: la saccade qui simule la course de la proie ou précède la poursuite, le mouvement du bras qui simule le déplacement de l'objet à saisir, préservent exactement la structure de l'espace utile à l'action. Or, l'analyse des "espaces mathématiques structurées" est un enjeu central en géométrie et dans une de ses généralisation des plus importantes : la Théorie des Catégories, en tant que théorie des transformations qui préservent la structure (qui intéresse). En conclusion, la question que nous posons, par cette analyse, est celle du rapport entre construction géométrique (conceptuelle, proposée par l'homme dans l'histoire) et perception/simulation mentale des espaces physiques et de notre mouvement dans ces espaces, en tant qu'être vivant dans le monde. Elle est la question des rapports entre géométrie mathématique et géométrie du monde sensible.
 

1.4 Épistémologie et genèse.

Dans un article de 1927, Weyl explique que l'analyse formelle des théories mathématiques, en fait de leur cohérence logique, n'est qu'un élément nécessaire pour l'analyse fondationnelle; que ce n'est nullement une condition suffisante, ni d'un point de vue épistémologique, ni pour une recherche fondationnelle analytique. Ce sont plutôt les significations, bâties à partir de "nos actes d'expérience" (pour reprendre Weyl), i.e. les structures sous-jacentes des relations avec le monde sensible - que nous introduisons plus ou moins implicitement - qui permettent au mathématicien de "comprendre" la preuve ou de formuler des conjectures, et qui suggèrent au logicien les conditions suffisantes pour la constitution d'un système formel, point d'aboutissement, et non pas de départ, d'une pratique conceptuelle. En somme, dans notre opinion, c'est l'analyse du processus génétique de constitution d'un système qui met en évidence la "nécessité" de ce système. Husserl précisera:
 

« L'évidence originaire ne peut pas être interchangée avec l'évidence des "axiomes"; car les axiomes sont principiellement déjà les résultats d'une formation de sens originaire et ont cette formation elle-même toujours déjà derrière eux» [Husserl,1933: p. 192-3].

Les "conventions" axiomatiques, donc, viennent après la « formation de sens originaire». Au contraire, comme on mentionnait plus haut, les pères fondateurs de la logique mathématique, au début du siècle, ont pris pour fondement des axiomes et règles, en tant qu'"atomes logique" d'une langue de la pensée, et ont pu proposer cette discipline remarquable grâce au

...« dogme tout-puissant de la cassure principielle entre l'élucidation épistémologique et l'explicitation historique aussi bien que l'explicitation psychologique dans l'ordre des sciences de l'esprit, de la cassure entre l'origine épistémologique et l'origine génétique; ce dogme, dans la mesure où on ne limite pas de façon inadmissible, comme c'est l'habitude, les concepts d'"histoire", d'"explicitation historique" et de "genèse", ce dogme est renversé de fond en comble»[Husserl,1933: p.201].

C'est à ce renversement que nous voulons oeuvrer, car c'est possible aujourd'hui. C'est possible, grâce aussi aux percées de la logique mathématique : les nombreux résultats d'incomplétude des dernières décennies nous confirment le rôle essentiel de la géométrie (au moins l'ordre et les arbres) ainsi que de l'infini mathématique en général, même dans la preuve de théorèmes finitaires, en théorie des nombres par exemple.
 

1.5 La constitution des invariants mathématiques : leur intérêt cognitif.

En reprenant la "distinction" de Weyl, quand on considère la question de l'identification des conditions suffisantes pour l'émergence d'une théorie, celles qui exigent cette théorie et la rendent possible, l'enjeu, cette fois, n'est pas interne aux mathématiques. Il exige un examen de l'insertion des mathématiques dans leur contexte opératoire, dans le monde, un examen de l'interface entre notre esprit et le monde, où s'amorcent les conceptualisations mathématiques.

En fait, l'objectivité des conceptualisations mathématiques a ses sources dans les processus constitutifs de celles-ci.

Les nombres réels, par exemple, n'ont pas une objectivité de par eux-mêmes, ils acquièrent à la fois existence et objectivité par la construction de Cantor-Dedekind qui constitue les réels standard à partir des entiers induits par nos perceptions courantes. (En outre, il y a aussi d'autres constructions, non-standard, qui suivent d'autres parcours et conduisent à d'autres résultats). En ce sens les réels ne sont pas des entités platoniques, des déjà-là-depuis-toujours-et-"en eux-mêmes"-tels-qu'ils-sont.

Les processus constitutifs des conceptualisations mathématiques sont donc de nature cognitive et ils sont ensuite soumis à l'historicité. Une analyse satisfaisante de ces processus conduit à réexaminer la théorie des démonstrations selon laquelle les bases des conceptualisations mathématiques se trouvent dans les formalismes linguistiques et dans les principes généraux de preuve syntactique. Notamment, le rôle des topologies et de la géométrie en logique - et, pour nous, avec ses origines cognitives - doit être réaffirmé, autant sur le plan technique que sur un plan philosophique ainsi que sa construction à partir de notre rapport avec le monde et du vivre dans le monde (à partir de Riemann, Helmoltz, Poincaré, Weyl, comme nous disions). Ce rôle est d'autre part déjà présent dans les structures topologiques et les Topos pour la Logique Intuitionniste, avec leurs applications à l'Informatique initialement proposées par D.S. Scott, et, surtout, grâce aux idées très originales de J.-Y. Girard en Théorie de la Démonstration (la Logique Linéaire, en particulier, où la géométrie ne concerne pas seulement les structures sous-jacentes, mais elle entre aussi "par la fenêtre", dans la structure elle-même des preuves, par les "réseaux des preuves" ).

D'autre part les mathématiques, tout en étant, dans leur genèse, intimement liées aux autres formes générales de la connaissance, présentent une très forte spécificité lorsqu'elles sont déjà accomplies. Aucune autre forme de représentation du monde n'est si essentiellement et explicitement fondée sur l'exigence d'indépendance des structures face aux représentations, face aux notations employées. Cette exigence est le coeur même de la conceptualisation mathématique, de son type particulier de généralité. En outre les mathématiques, à tout niveau, sont à la chasse d'une "simplicité" maximale, même - surtout - quand elles sont profondes. "L'élégance", la recherche de ce qui est "essentiel", "minimal", "stable", en bref la recherche de sortes de "géodésiques" abstraites - comme méthode liée à un principe que l'on est tenté de qualifier comme "esthétique" - en font partie de façon constituante. Or, le rôle de l'invariance au sens des mathématiques peut éclairer fortement les efforts d'analyse des processus quelconques de la cognition humaine. Il peut également guider pour l'identifications des contraintes qui ont présidé implicitement à la structuration de formes de représentation de connaissances plus complexes que les systèmes mathématiques abstraits, et dont les principes sont donc plus difficiles à isoler directement, plus cachés qu'en mathématiques pures.

Pour toutes ces raisons les mathématiques ont déjà été très souvent au centre des réflexions philosophiques en épistémologie, et il faut les y maintenir. En particulier, il nous semble que le rôle de la géométrie est le plus central, car "geometry is more compelling", comme aime le dire D.S. Scott (mais J.Y. Girard serait également d'accord). C'est un fait que, en mathématiques, la géométrie est le lieu préféré de la "signification" : pour analyser ce fait, il faut développer notre thèse qui lie la géométrie mathématique à l'espace sensible.
 

1.6 Infini et Géométrie : du continu au systèmes dynamiques.

Nous en avons assez dit au sujet de notre intérêt concernant les aspects des fondements non linguistiques, non formels, des mathématiques et le rôle de la géométrie. Quant au concept d'infini mathématique, il s'agit là d'un des exemples des plus intéressants de "conceptualisation progressive", au cours de l'histoire. Un concept "métaphysique" qui est devenu une "pratique mathématique", qui s'est concrétisé dans des contextes opérationnels, de l'analyse infinitésimale à la théorie des ordinaux de Cantor. Mais l'infini a acquis une signification bien solide également grâce à son sens géométrique, et tout d'abord en géométrie projective : les points à l'infini de la peinture de Piero della Francesca, un des inventeurs de cette géométrie, est une des "conceptualisations" humaines les plus fortes et rigoureuse du concept d'infini.

On envisage de développer une analyse du rôle de l'infini dans les fondements des mathématiques sous deux aspects essentiels. D'un coté, maints résultats de ces vingt dernières années montrent que l'infini (en acte, bien évidemment) entre massivement dans la preuve de théorèmes dont les énoncés sont finitaires (arithmétiques) comme le théorème de Paris-Harrington ou le théorème de Friedman prouvant la version finitiste du théorème de Kruskal. Il nous paraît toutefois qu'il manque une analyse "fine", épistémologique et mathématique, de ce phénomène. D'un autre côté, des résultats encore plus récents établissent des liens profonds entre la sémantique de certains systèmes logiques et la géométrie des systèmes dynamiques.

Quelle notion de calcul pouvons nous transférer sur ces derniers systèmes "continus"? Comment l'analyse mathématique, par des outils du continu, de certains systèmes discrets (langages formels et pour le calcul) peut-elle nous informer sur leur sens et sur leur expressivité? Quels liens existent entre le continu des structures utilisées pour la sémantique des langages et systèmes formels et, en passant par leur nouveau rôle dans les systèmes dynamiques, le continu des analyses morphodynamiques, en particulier thomiennes, du langage?
 

1.7 L'Informatique

Le projet de réification de la rationalité dans les "règles formelles", qui s'est développé au cours du siècle, est à la base de l'invention des ordinateurs, dans les années '30 et '40: les suites finies de symboles en tant que codage d'axiomes et de règles de déduction, permettent de manipuler d'énormes quantités de données. L'intelligence s'est transformée en la manipulation finitaire des suites finies de 0 et 1.

Malheureusement ce projet, bien que si efficace, s'est heurté à des limites bien précises. En fait, derrière les résultats d'incomplétude, que le logicisme et le formalisme eux-mêmes ont su nous donner, il y a la praxis humaine de la démonstration, qui utilise largement des références directes à l'espace (mental et physique): ce qui "manque" à la déduction formelle ou mécanique est le bon-ordre géométrique dans le quel nous rangeons les nombres dans nos espaces mentaux, ce sont les jugements explicites sur le continu spatial, sa connexion, les symétries, les analogies entre formes et mouvement. On a souvent "caché" ces pratiques conceptuelles sous une référence vague à "l'intuition". Il est temps de développer une analyse scientifique, en termes "cognitivistes", de ces aspects implicites du raisonnement, en particulier spatial, aussi rationnels que ceux gouvernés par les "règles logico-linguistiques finitaires". C'est l'Informatique même qui l'exige et cela pour au moins deux raisons différentes:

- l'essor remarquable des systèmes de calcul dans lesquels l'espace et le temps jouent un rôle central (distribution et asynchronie des systèmes concurrents, que nous avons déjà mentionnés), et qui sont mal représentés par certaines variantes des langages et méthodes essentiellement séquentiels,

- les difficultés immenses auxquelles s'est trouvée confrontée l'Intelligence Artificielle, en particulier la Robotique, dans la simulation des taches humaines ou animales les plus simples, en particulier quand le rapport à l'espace et au mouvement y sont centrales.

Nous nous proposons, par notre projet, de contribuer au dialogue entre les spécialistes de ces deux secteurs et les experts en Géométrie de l'espace et de ses méthodes mathématiques; nos expériences complémentaires en Logique et Informatique, Géométrie et Algèbre, Philosophie et Méthodes Différentielles devraient le permettre.
 

1.8 Conclusions

Voici une liste de quelques thèmes plus précis que nous souhaitons étudier:

1 - Analyse des opérations constitutives de la pensée mathématique, avec une attention particulière aux représentations de l'espace, sur la base de l'hypothèse que les approches formalistes de la preuve mathématique sont nécessaires mais non suffisantes. On pourrait en particulier se proposer d'analyser en grand détail quelques exemples précis de preuves difficiles pour voir comment, en plus des chaînes démonstratives locales, il y a constamment changement de représentation pour expliciter de nouveaux aspects de l'information et faire avancer la preuve globale. A notre connaissance un tel travail n'a jamais été fait. Il serait du plus haut intérêt.

2 - Passage d'une approche formaliste (métamathématique, au sens de Hilbert) des fondements à une approche cognitive concernant:

les opérations mentales;

les constructions conceptuelles (en partie au sens de Lautman mais sans sa métaphysique néoplatonicienne): il serait bon d'en faire un recensement;

les codages et les représentations: c'est un point crucial.

l'ouverture de la logique à la géométrie (théorie des faisceaux et des topoï, etc.) et aux systèmes dynamiques.

3 - Rôle des représentations géométriques de l'espace dans l'analyse des systèmes informatiques distribués.

 

2. Méthodes géométriques dans les sciences cognitives
 

2.1 De l'analyse du signal à la structuration morphologique

Certains des progrès les plus intéressants dans la compréhension des algorithmes perceptifs concernent la façon dont un traitement du signal peut conduire à une structuration morphologique, c'est-à-dire à une organisation en formes (en patterns) possédant une structure méréologique en constituants (en parties) bien précise (pensons par exemple au passage d'un son musical à une partition constituée de notes, à celui d'une image brute conçue comme matrice de pixels à la reconnaissance de scènes composées d'objets eux-mêmes composés de parties bien identifiables, etc.).

Ces progrès se sont réalisés à la fois au niveau calculatoire des algorithmes de traitement et au niveau expérimental des données neuronales. Ils commencent à résoudre un problème très ancien, celui qui, à la suite des travaux pionniers de psychophysiciens comme Helmholtz et de philosophes néo-aristotéliciens comme Brentano, était au c_ur de la Gestaltthéorie (Stumpf, Meinong, von Ehrenfels, Köhler, Koffka, Kanizsa, etc.) et de la phénoménologie de la perception (Husserl,Merleau-Ponty, etc.).

Ils réactivent de façon spectaculaire toute une tradition philosophique qui depuis l'Esthétique transcendantale de Kant jusqu'à Lotze, Poincaré, Weyl et Enriques, avait dominé la philosophie des mathématiques mais avait été brutalement éliminée dans les années 20-30 au bénéfice des orientations logicistes et formalistes.

Ces progrès concernent la vision de bas niveau. Mais ils comblent un fossé qui jusqu'ici empêchait d'articuler les bas niveaux perceptifs de traitement du signal avec les hauts niveaux plus cognitifs, symboliques et inférentiels. En effet ils expliquent comment se constitue le niveau morphologique des patterns sur lequel se fondent les niveaux cognitifs supérieurs.

Nous donnons ci-dessous quelques exemples faisant actuellement l'objets d'importants développements.
 

2.2 Mesure du signal optique et détection multi-échelle de traits géométriques

L'espace et la structure géométrique des images sont le résultat d'un formatage du signal optique par des processus de mesure qui s'effectuent au moyen de champs rétinotopiques de cellules opérant comme des filtres. Il existe dans le système visuel des cellules (par exemple les cellules ganglionnaires de la rétine, ou les cellules des hypercolonnes de l'aire V1 du cortex visuel primaire détectant les orientations) possédant des champs récepteurs dont les profils récepteurs sont des dérivées de gaussiennes jusqu'à l'ordre au moins 3 (sans doute 4) d'échelles différentes (par exemple les cellules ganglionnaires ont un profil récepteur en forme de laplacien de gaussienne). L'idée, bien explicitée par le physicien Luc Florack membre du labo de Jan Koenderink, est de considérer le signal comme une distribution I et de faire l'hypothèse que certaines fonctions test j sont cablées dans le système de mesure. Au lieu de considérer que I opère sur les j , on considère au contraire que, dualement, les j opèrent sur I comme des filtres. Des champs de tels profils récepteurs agissent par convolution sur le signal et cela à plusieurs échelles différentes. Il est facile de construire à partir d'eux des invariants qui sont des détecteurs de traits géométriques locaux multi-échelle (par exemple des détecteurs de bords, de coins, de points d'inflexion, etc.).
 

2.3 Lien avec les algorithmes de type ondelettes

Ces résultats montrent que l'analyse du signal optique effectuée par le système visuel est à la fois un traitement du signal et une analyse morphologique des images au moyen de singularités de codimension 2 génériques (typiques). Dès le traitement périphérique de l'information encodée dans le signal optique, les algorithmes visuels sont finalisés de façon essentielle par la détection de discontinuités. Cela permet de faire le lien avec les algorithmes d'analyse multi-échelle de type ondelettes. Et effectivement, depuis les travaux de David Marr à la fin des années 70, l'une des hypothèses qui semble le mieux confirmée est que les cellules ganglionnaires de la rétine implémentent une analyse en ondelettes du signal optique. Les spécialistes considèrent que D. Marr a été l'un des inventeurs de ces nouvelles méthodes.

L'intérêt principal de l'analyse en ondelettes est de fournir un algorithme d'analyse du signal qui, contrairement aux analyses classiques de type Fourier, est spatialement localisée et multi-échelle, ce qui la rend adaptée à l'extraction de la géométrie encodée dans le signal. A chaque échelle, le signal est lissé et les discontinuités qualitatives significatives en sont extraites. On peut citer les travaux fondamentaux d'Yves Meyer et de S. Mallat sur ce problème.
 

2.4 Scale-space analysis (Koenderink, Morel, etc.)

L'idée d'analyse multi-échelle domine désormais les théories de l'analyse géométrique des images. Parallèlement à la filière Marr ondelettes, elle remonte à Witkin (1982) et à Koenderink (1984). Elle est celle de la "scale space analysis".

Pour être morphologiquement correcte, une analyse d'images doit s'effectuer en termes de géométrie différentielle (et non pas en termes de combinaisons de primitives de type cubes, sphères, cylindres, "géons", etc.). La difficulté est que les outils de la géométrie différentielle ne sont pas directement applicables au signal en tant que tel. C'est un problème mal posé. Pour que les images puissent acquérir le statut d'observables géométriquement analysables par détection d'invariants, il faut au préalable définir une échelle, c.à.d. fixer un niveau de régularisation du signal bruité. On est ainsi conduit à définir des jets multi-échelle et à reprendre sur cette base la théorie de Thom-Mather des singularités génériques et des déploiements universels. C'est en effet celle-ci qui permet de définir les bons invariants.

On montre (travaux de J-M. Morel, etc.) que, sous des contraintes générales de linéarité et d'isotropie, la façon la plus simple d'obtenir une analyse multi-échelle d'une image 2D I(x,y ) est de la plonger dans une famille I_s (x, y) qui est une solution de l'équation de la chaleur dans un espace-échelle (et non pas dans un espace-temps). Le problème est évidemment qu'un tel lissage, parce qu'isotrope, est indifférent à la géométrie de l'image. D'où l'idée que pour pouvoir effectuer une bonne analyse morphologique de l'image, il faut concilier deux exigences apparemment antagonistes:

(i) régulariser le signal de façon multi-échelle par diffusion;

(ii) préserver la structure morphologique de l'image, c'est-à-dire les discontinuités d'éléments différentiels construits à partir des jets successifs de la fonction I_s(x, y) et possédant une signification géométrique intrinsèque.

Pour ce faire, il faut adapter l'équation de diffusion à la préservation de ces éléments.

Le cas le plus simple est celui des bords qui délimitent les domaines homogènes d'une image et sont essentiels à la définition de ses constituants. Un bord est idéalement une discontinuité du gradient de I_s. Pour qu'une diffusion préserve le caractère discontinu des bords tout en les simplifiant progressivement, il faut qu'elle soit anisotrope, en fait inhibée dans la direction du gradient. Des EDP paraboliques non linéaires possédant ces propriétés ont été proposées et analysées par Malik et Perona et Jean-Michel Morel et ses collègues.
 

2.5 Les modèles variationnels de segmentation (Mumford)

Sans doute le mathématicien qui développe actuellement le plus profond programme de recherche sur la façon dont une analyse du signal peut conduire à la formation de patterns morphologiques est David Mumford. C'est dans le cadre d'une approche probabiliste bayésienne qu'il explique les phénomènes de segmentation. Cela l'a conduit à des modèles variationnels qui ont soulevé des problèmes difficiles et ont conduit à des conjectures encore ouvertes.

Dans son article de synthèse "Bayesian rationale for the variational formulation", Mumford explique que "one of the primary goals of low-level vision is to segment the domain W of an image I into the parts Wi on which distinct surface patches, belonging to distinct objects in the scene, are visible" et que l'approche mathématique de base à ce problème de segmentation consiste à utiliser les différentes sources d'information de bas niveau "for splitting and merging different parts of the domain W" de façon optimale. Il propose alors une approche variationnelle .
 

2.6 Théorie des singularités multi-échelle

Ces méthodes d'analyse d'images conduisent à reprendre certains problèmes de géométrie différentielle dans une optique multi-échelle, en particulier la théorie des singularités et de leurs déploiements universels.

En ce qui concerne ce dernier point, J. Damon a montré comment on pouvait transformer la théorie de Morse-Whitney-Thom-Mather-Arnold. Le problème est que les formes normales de Morse ne satisfont pas à l'équation de la chaleur. Les méthodes doivent être transposées des espaces de germes d'applications C aux espaces de germes de solutions de l'EDP considérée. Or, ces espaces n'ont pas en général les "bonnes" propriétés algébriques qui font marcher la théorie et permettent d'appliquer des arguments de transversalité pour obtenir des résultats de généricité. Il faut donc adapter la théorie. Cela conduit à d'intéressants problèmes géométriques.
 

2.7 Contours apparents et graphes d'aspects multi-échelle

Un problème particulièrement intéressant à résoudre dans cette perspective est celui des contours apparents et des graphes d'aspects multi-échelle. Les contours apparents (CA) d'une forme F (surface dans l'espace euclidien) sont un élément essentiel de sa perception. Lorsque le point de vue varie dans l'espace des points de vue, les types qualitatifs des CA stratifient cet espace et ce que l'on appelle le graphe d'aspects de la forme F est le graphe d'incidence de cette stratification. On dispose de nombreux résultats sur les graphes d'aspects des surfaces (Regier, Van Effelterre, Petitjean). Par ailleurs, on peut simplifier la forme F en lui appliquant l'équation de la chaleur. Dans de nombreux cas cela fait diffuser la courbure, convexifie la forme et la fait tendre vers une sphère. Ce résultat généralise en dimension 2 un théorème dû à Hamilton, Gage et Grayson en dimension 1. Il n'est pas vrai en toute généralité car des formes possédant des étranglements trop forts peuvent se scinder en sous-formes, mais il est vrai pour une large classe de formes. Le problème est alors d'étudier l'évolution du graphe d'aspects lors de ce processus de simplification multi-échelle et les bifurcations qu'il peut présenter génériquement.
 

2.8 Fibrations corticales, colonnes d'orientation et intégration des contours visuels

Il existe désormais des modèles géométriques très intéressants du processus d'intégration des contours dans le système visuel, c'est-à-dire de la reconstruction des contours globaux à partir de leur représentation distribuée dans le cortex. Le traitement des contours dans le cortex visuel débute dans l'aire V1, où le signal rétinien est analysé par des neurones dont les champs récepteurs possèdent une préférence orientationnelle. Deux niveaux d'organisation de l'architecture fonctionnelle de l'aire V1 sont particulièrement importants: la rétinotopie et la structure columnaire. L'organisation columnaire peut être modélisée par une structure géométrique fondamentale, celle de fibration. Cette fibration est munie d'une structure géométrique supplémentaire, dite structure de contact.. Or l'équivalent discret de cette entité continue est analogue à un mécanisme dit champ d'association proposé récemment en neurosciences de la vision par Field, Hayes et Hess pour rendre compte d'expériences psychophysiques sur l'intégration des contours. Du point de vue physiologique, les connexions horizontales découvertes dans le cortex visuel pourraient implémenter ce schéma local d'association.
 

2.9 Catégorisation, typicalité et perception catégorielle

Un autre problème cognitif central est celui de la catégorisation. En général, les modèles connexionnistes de catégorisation, comme les Attractor Neural Networks de Daniel Amit, reposent sur l'idée que les attracteurs d'une dynamique (définie sur un espace interne approprié M) fonctionnent comme des prototypes, que leurs bassins d'attraction partitionnent M en domaines que l'on peut traiter comme des catégories, que les fonctions de Liapounov sur ces bassins s'identifient alors à ce que les psychologues appellent des gradients de typicalité, et que la capture d'une condition initiale (stimulus) par un des attracteurs s'identifie à la réalisation physique d'une relation type-occurrence: la condition initiale située dans un certain bassin d'attraction est interprétée comme une occurrence du type représenté par l'attracteur correspondant. Ces modèles restent toutefois très largement insuffisants. En effet dans de très nombreux cas la catégorisation se manifeste lorsque l'on fait varier des indices (des "cues") qui appartiennent à des espaces de contrôle des percepts. Le changement de catégorie s'identifie alors à un phénomène de bifurcation contrôlé par ces paramètres. La catégorisation se réalise donc non seulement dans les espaces internes des percepts, mais également dans les espaces externes de leur contrôle par des indices.

On a développé des modèles de catégorisation fondés sur la théorie des bifurcations, en particulier en ce qui concerne la catégorisation phonétique et les phénomènes associés dits de perception catégorielle. Dans ce cas, les dynamiques internes sont des dynamiques acoustiques (définissant en particulier les formants, i.e. les pics du spectre continu modulant le spectre harmonique, pics qui reflètent la géométrie des résonateurs du tractus vocal) et les contrôles externes sont des indices acoustiques comme le voisement ou des indices articulatoires comme le point d'articulation. Les hypothèses développées à ce propos ont été confirmées expérimentalement, en particulier par certains travaux (J.L. Schwartz, C.Abry, P. Escudier et L.J. Boë) de l'Institut de la Communication Parlée de Grenoble prolongeant ceux de l'équipe de Chistovich à l'Institut Pavlov de Saint-Petersbourg. On a en particulier repris les modèles connus (des travaux classiques de G. Fant dans les années 60 jusqu'à ceux récents de S. Maeda et R. Carré) sur la façon dont les paramètres articulatoires contrôlent la structure formantielle des spectres continus. La fonction de transfert du tractus vocal (qui donne le spectre continu) se ramène à l'inverse d'un polynôme P(s,C) dont les paires de zéros conjugués correspondent aux formants et dont les coefficients C=(c_i) dépendent de façon non triviale des paramètres articulatoires. En fait, ces polynômes sont des déploiements universels qui déploient des singularités cuspoïdes et les phénomènes de perception catégorielle sont intimement liés à leurs ensembles catastrophiques canoniques.
 

2.10 Des scènes visuelles au langage

Beaucoup de travaux (par ex. ceux de Kosslyn) ont été récemment consacrés à la "montée" de la perception vers le langage. Cela a conduit à développer une conception topologico-dynamique, schématique et iconique de la grammaire radicalement opposée à la conception formaliste chomskyenne: Cognitive Grammar de Ronald Langacker, Cognitive Topology de George Lakoff, modèles connectionnistes d'apprentissage des systèmes prépositionnels de différentes langues par Terry Regier, et, surtout, conceptions néo-gestaltistes de Leonard Talmy.

Par exemple, les relations spatiales entre objets linguistiquement codés par des prépositions (dans, dessus, à travers, etc.) sont de nature perceptive abstraite (i.e.perceptivo-sémantique) et sont catégorisées de façon beaucoup plus subtile que l'on ne croit. Leur catégorisation mélange de façon compliquée (et encore incomprise) des informations géométriques (traitées dans l'hémisphère droit) et des informations catégorielles (traitées dans l'hémisphère gauche). L'élaboration d'un bon modèle mathématique est considérée comme le problème de base des grammaires cognitives. Il existe des propositions et même une première machine appliquant automatiquement certaines prépositions à des scènes visuelles (R.Doursat).

Le développement d'une modélisation topologique et dynamique des liens entre langage et perception conduit à reprendre nombre de questions, de nature géométrique, héritées de la phénoménologie et de la Gestaltthéorie et à poser la question de leurs liens avec les formalisations, plus classiques, de nature logique.
 

2.11 Conclusion

Des travaux de ce type font converger les analyses morphologiques (dont René Thom a été l'un des pionniers) avec la physique des phénomènes concernés. L'émergence des patterns perceptifs commencent ainsi à être comprise. Comme nous l'avons montré, cela permet de naturaliser un nombre considérable de descriptions phénoménologiques (au sens Gestaltiste/ husserlien) qui jusqu'ici avaient été traitées de façon essentiellement logico-symbolique parce que la "géométrie morphologique" associée faisait complètement défaut.

Cette "géométrie perceptive" avec son implémentation neurale et son "embodiment" dans le corps propre vivant (ce que Husserl appelait le Leibkörger) permet de renouveler en profondeur le problème des fondements de la géométrie. En effet, comme Husserl l'a bien expliqué, par exemple dans ses leçons de 1907 Ding und Raum, l'espace objectif tridimensionnel se constitue à partir des flux temporels de contours apparents 2D (et plus généralement des esquisses ou aspects d'objets) se détachant sur un fond. Les caractères "ontologiques" des objets externes sont en effet liés aux types kinesthésiquement contrôlés des enchaînements temporels des esquisses perceptives. Translations, rotations, rapprochements/ éloignements, changements d'orientation, occlusions, etc. sont des transformations d'objets encodées dans des transformations typiques des images, mais qui sont les mêmes transformations que l'on obtient en faisant l'hypothèse que les images sont les projections de transformations euclidiennes entre objets de l'espace euclidien.

Ce passage d'un calcul perceptif de flux d'images 2D à un calcul géométrique de projections de mouvements 3D permet une réduction drastique de complexité algorithmique . Il ouvre les portes de la genèse phénoménologique de la géométrie euclidienne. Husserl est sans doute, avec Poincaré, l'un des penseurs à avoir le plus profondément compris à quel point la géométrie euclidienne n'est pas un donné mais une construction, à quel point l'expérience sensori-motrice active de l'espace (ce qu'Alain Berthoz appelle le "sens" du mouvement) diffère du concept géométrique d'espace.
 

Références

Alvarez, L., Lions, P.L.,Morel, J.M. "Image selective smoothing and edge detection by non lineardiffusion, SIAM Journal of NumericalAnalysis, 29, 845-866, 1992.