Ecole
Normale
Supérieure
GÉOMÉTRIE ET COGNITION (GEO-CO)
Groupe de travail et de cycle de Conférences
proposé par
Giuseppe LONGO*, Jean PETITOT°, Bernard TEISSIER*
* CNRS et DMI, Ecole Normale Supérieure: longo@di.ens.fr, teissier@di.ens.fr
° EHESS et Ecole Polytechnique (CREA): petitot@poly.polytechnique.fr
"Atelier
de Recherche" 1999 - 2002, financé par le Ministère
de l'ENRT
(responsable: G.
LONGO)
Partecipants and english summary
NOTE
(Octobre 2002): Cet atélier a désormais évolué
dans la nouvelle équipe
"Complexité
et information morphologiques" (CIM),
Laboratoire d'Informatique de l'ENS (LIENS)
Cycle
de Conférences de démarrage
(Février - Avril, 1999) (à
l'intention, en particulier, des élèves)
COLLOQUES,
2000 - 2002 :
Colloque International, Novembre 2000 :
"New
programs and open problems in the foundation of mathematics and of
its applications, in year 2000", Paris, ENS, Salle
Dusanne, November 13 & 14, 2000.
Colloque International, Septembre 2001
:
“Geometry in the XXth century”, Paris,
Institut H. Poincaré, 24 - 29 Septembre, 2001.
Colloque International, Octobre 2001 :
"La
genèse de la perception et de la notion d'espace chez le
robot et l'homme; Genesis of perception and the notion of space in
machines and humans", Paris, ENS, Salle Dusanne,
Octobre 18 & 19, 2001.
Colloque, Avril 2002 :
"L'élaboration
de formes est-elle le moteur de la cognition ?", Paris,
ENS, Salle Jules Ferry, 29 rue d'Ulm, Avril 5 et 6, 2002.
Colloque International, Septembre 2002
:
"The
cognitive foundations of mathematics"(Epistemology and
Cognition as foundational issues in Mathematics), Roma,
Villa Mirafiori, 9 - 10 September, 2002.
Colloque, Juin 2003 :
"Géométrie,
continu et théorie de la connaissance / Geometry, continuum
and theory of knowledge", Paris, ENS, Salle des
Conférences, 46, rue d’Ulm, 2 Juin, 2003.
Volumes publiés
dans le cadre du projet:
1 - Geometry and Concurrency, E. Goubault (Editor), Special issue of Mathematical Structures in Computer Science, Cambridge University Press, vol. 10, n. 4, August 2000.
2 - New Programs and open problems in the Foundations of Mathematics, G. Longo and P. Scott (Editors), Special issue of The Bulletin of Symbolic Logic, ASL, Vol. 9, Number 2, June 2003.
3 - Géométrie
et Cognition, G. Longo (Editeur), Numéro spécial de
la Revue de Synthèse,
Editions
de la rue d'Ulm, tome 124, 2003.
Octobre 2002 : Les activités de cet
atelier ont contribué à la mise en place de (et se sont
transformé dans) un projet de recherche plus spécifique,
voir la nouvelle équipe :
"Complexité
et information morphologiques" (CIM)
LIENS, CNRS - ENS
GÉOMÉTRIE
ET COGNITION :
Présentation générale (Mars
1999) English
Summary
( For some papers in english related to part 1 of the project, click here)
Le texte suivant expose le projet du groupe de travail GeoCo ainsi qu'un certain nombre de thèmes scientifiques, actuellement en plein développement, qui constitueront le contexte général initial de ses travaux.
- Deux approches duales - Articulation des activités |
Part 1. De la Cognition à la géométrie
Part 2. Méthodes géométriques dans les sciences cognitives
Depuis une dizaine d'années, on assiste à deux évolutions frappantes:
d'une part la manifestation croissante d'un besoin de ''retour au sens'' en Mathématiques à mesure que l'on domine mieux les retombées et les limitations des approches formalistes des fondements des Mathématiques (et de la connaissance);
d'autre part une sorte de ''révolution '' cognitiviste , due en grande partie aux remarquables progrès des neurosciences intégratives, qui permet en particulier d'approcher les structures neurologiques liées à la perception de l'espace et du mouvement, et incite à reprendre sur des bases plus expérimentales et scientifiques la problématique des fondements des Mathématique, tout en considérant l'intersubjectivité humaine et la constitution des symbolismes, au cours de l'histoire.
Ces évolutions conduisent à remettre au centre des débats le lien entre géométrie et cognition; c'est ce que propose de faire ce projet, dans un double mouvement:
1) De la Cognition à la Géométrie: ou les fondements cognitifs des Mathématiques (où dans "cognitif" on veut inclure aussi l'évolution de la construction conceptuelle et de son l'histoire);
2) De la Géométrie à la Cognition: ou l'analyse mathématique de la cognition humaine (vision, en particulier).
Les conséquences espérées sont à la fois techniques et épistémologiques.
1) Le développement de certains aspects de la Géométrie Différentielle et d'un nouveau rôle de la Géométrie en Informatique.
2) Une meilleure compréhension du rôle de ces progrès des sciences naturelles et de la cognition dans l'analyse de certains problèmes traditionnellement considérés comme philosophiques.
Les intérêts
manifestés par les élèves ces dernières
années nous font espérer de réunir aussi autour
de ce projet des élèves littéraires et
scientifiques.
Deux approches duales
1. L'histoire récente des fondements des Mathématiques est dominée par une approche logique et formelle. Tout en admirant les progrès remarquables permis par ces approches, propres à la Logique Mathématique (en particulier, leur application majeure: l'Informatique), nous considérons que le moment est venu de tenter une nouvelle exploration, que nous voudrions nommer "l'approche cognitive des fondements des Mathématiques".
Les mathématiciens, et plus largement les scientifiques et les étudiants souhaitent, semble-t-il, un ''retour au sens'' en Mathématiques; les mathématiciens parce qu'ils sentent bien que c'est du côté de la signification autant que de celui de la rigueur que se trouvent les moteurs de la découverte, et les autres parce que l'apprentissage des mathématiques dont ils ont besoin est extrêmement difficile sans le support de l'intuition, support que l'on a trop longtemps repoussé à cause de ses errements possibles. Se lancer avec rigueur dans une telle entreprise, après un siècle d'approche logique et de son développement magnifique dû en partie à la méthode axiomatique, n'est pas sans danger, mais nous semble indispensable. Il est vrai que le sens d'un objet ou d'une opération mathématique paraît être un concept flou que l'on ne peut étudier que par un discours renvoyant à d'autres concepts flous. Cependant, les outils permettant un travail en profondeur commencent à émerger du côté des Sciences Cognitives, plus précisément de l'étude de la perception. Non seulement une compréhension bien meilleure des modes de perception (visuelle, spatiale, auditive) s'est fait jour, mais on commence à savoir analyser, dans l'énorme complexité du système nerveux et cérébral, les connexions et fonctions pertinentes. A tout cela il faudra ajouter l'analyse du rôle constitutif de l'intersubjectivité et de l'historicité dans le développement des concepts mathématiques.
Il nous semble qu'un travail de recherche des correspondances entre les objets et opérations mathématiques et les processus cognitifs ou les opérations de base de notre système perceptif (comparer, constituer des invariants, diriger le mouvement dans l'espace, compter, etc....) serait d'une grande utilité pour éclairer les fondements des mathématiques. En fait, nous croyons que le problème des fondements des mathématique n'est pas seulement un problème logique, mais aussi un problème épistémologique et qu'il n'y a pas d'épistémologie sans analyse d'une genèse: une analyse de la genèse, tant cognitive qu'historique, de cette construction conceptuelle très particulière que sont les Mathématiques. De plus, le rôle paradigmatique qu'ont les Mathématiques parmi les conceptualisations humaines, joint à leur intrinsèque "simplicité" et clarté conceptuelle, peut aider à l'entreprise générale des Sciences Cognitives, comme il est souvent arrivé dans maintes philosophies de la connaissance.
Nous pensons aussi que
l'influence trè fructueuse que l'approche formelle et logique,
en fait "linguistique", a eu dans la naissance de
l'Informatique a besoin, aujourd'hui, d'être enrichie par une
l'analyse directe des fondements de la Géométrie. En
fait, les nouveaux défis posés par l'Informatique sont
dus aux systèmes distribués, concurrent, asynchrones
... . Or, la distribution, la concurrence et l'asynchronie sont
des problèmes avant tout géométriques,
car ils se posent tout d'abord dans l'espace et dans le temps.
Leur analyse devrait donc se baser sur une refonte de l'approche
fondationnelle des Mathématiques qui met également au
centre l'analyse les rapports entre Géométrie et espace
physique.
2. Par ailleurs, les étonnants développements des neurosciences de la perception permettent de commencer à modéliser mathématiquement les mécanismes neuronaux de la perception et, en particulier, de la vision. Cela ouvre de nouvelles perspectives sur la genèse visuelle de la géométrie. On commence à comprendre comment celle-ci peut "émerger" d'algorithmes de traitement du signal optique et "formater" des informations sensorielles. Ces travaux remettent à l'honneur tout un ensemble de réflexions (Kant, Herbart, Lotze, Poincaré, Weyl, Enriques) qui avaient insisté sur le rôle constitutif irréductible de l'espace et du temps dans notre représentation des phénomènes.
Un aspect essentiel de cette problématique concerne les liens mathématiques entre l'analyse du signal sensoriel et la structuration géométrique des représentations perceptives. D'un côté on a les méthodes de représentation compacte optimale des signaux par des "atomes" temps-fréquence ou espace-fréquence. Elles vont de l'analyse de Fourier classique aux méthodes multi-échelle de type ondelettes, en passant entre autres par les transformées de Gabor. D'un autre côté on a le problème de la segmentation des signaux sonores (musique, parole) et optiques (images) au moyen de discontinuités qualitatives. C'est la partie géométrique (morphologique) du traitement.
Des travaux de pointe dans les modèles de perception consistent à unifier les deux points de vue en subordonnant l'analyse du signal à des segmentations optimales. On évoquera en particulier les travaux de J. Koenderink, D. Mumford, J-M.Morel, Y. Meyer, S. Mallat.
Par ailleurs on commence à connaître assez bien l'implémentation des algorithmes permettant au cortex de faire de la géométrie. On évoquera le champ d'association dans les hypercolonnes d'orientation de l'aire V1 du cortex visuel primaire, champ qui implémente la structure de contact du fibré des directions en chaque point de la rétine.
L'ensemble de ces travaux
convergents conduit à reprendre sur de nouvelles bases
"naturalistes" (physico-mathématiques et
neuro-cognitives) tout un ensemble de descriptions héritées
de la Gestalt théorie et de la phénoménologie
(Husserl et Merleau-Ponty).
Articulation des activités
Nous proposons la constitution d'un petit groupe de scientifiques qui unissent leurs efforts pour explorer cette approche cognitiviste des fondements. Ils organiseront un groupe de travail régulier et diffuseront les thèmes de leurs réflexions au moyen de cycles de conférences destinés prioritairement aux élèves. Ils tenteront aussi de répondre à la demande de communication avec les mathématiciens que peuvent avoir des chercheurs en sciences cognitives, plus particulièrement ceux qui travaillent sur la perception visuelle dans ses rapports avec la Géométrie.
Les activités de ce
groupe devraient se joindre à celles du laboratoire "Pensée
des Sciences" pour former un lieu de réflexion rigoureuse
qui manifeste de manière créative le rapprochement
entre la Philosophie des Sciences des scientifiques et celle des
philosophes, et tente de surmonter le fossé qui a séparé
trop longtemps ces deux mondes. Le dialogue avec les physiciens,
biologistes, physiologistes et, en général, les
cognitivistes de formations diverses en serait l'outil principal.
1.
DE LA COGNITION À LA GÉOMÉTRIE
L'expérience quotidienne du mathématicien est que la compréhension de l'énoncé d'un théorème, et surtout celle de sa démonstration, semblent être d'une nature tout-à-fait différente de celle qui est décrite par la construction logique. La logique semble n'être qu'une sorte de garde-fou permettant de se convaincre de la véracité d'un théorème que l'on n'a pas ''compris''.
Il faut donc essayer de déterminer comment les théorèmes et démonstrations font sens, et il nous semble qu'une approche naturelle est de postuler que les objets mathématiques simples incarnent des faits cognitifs, et qu'une bonne partie des problèmes et constructions expriment des règles de pensée tout d'abord involontaires qui sont aussi de nature cognitive: comparer, classifier, faire des analogies. La construction de modèles mathématiques des phénomènes physiques suit aussi ce schéma, en s'appuyant en outre sur un certain nombre de postulats sur la correspondance d'objets du monde physique avec des objets mathématiques.
La ramification du sens dans la
construction des mathématiques est extrêmement
compliquée, et la mise en oeuvre des règles de pensée
mentionnées plus haut souvent cachée, mais il nous
semble intéressant de les faire apparaître dans un
certain nombre d'épisodes de l'histoire des mathématiques.
Par exemple dans l'histoire de l'intégration, dans celles de
la théorie des idéaux, des places et des valuations en
Géométrie algébrique ou dans celle de l'analyse
fonctionnelle. Une place particulière doit bien sûr
revenir à l'histoire des fondements.
Un grand débat est à l'origine de l'analyse des fondements des mathématiques, au tournant du siècle. Un moment central en fut l'opposition radicale entre les visions de Riemann et Poincaré, d'un coté, et celles de Frege et Hilbert de l'autre. Riemann et Poincaré insistent sur le rôle de l'espace et sur la "constitution des concepts mathématiques" par l'homme, en tant qu'être vivant dans le monde.Frege propose des règles logiques universelles et indépendantes de l'homme, dont l'objectivité absolue constitue le fondement ultime des mathématiques, des règles à exprimer dans une "langue formulaire de la pensée".
Au cours de ce siècle, F. Enriques et H. Weyl enrichiront les réflexions de Riemann et Poincaré en y ajoutant l'appréciation de l'histoire, par cette analyse des "conceptualisations progressives" en mathématiques, que l'on trouve dans leurs nombreux écrits philosophiques. Hilbert, au contraire, développera la Logique Mathématique de Frege et ira bien plus loin que Frege: en cherchant la "certitude" dans la manipulation finitaires de langages formels, il posera les bases de la Théorie de la Démonstration, en tant qu'analyse formelle et linguistique des mathématiques, telle qu'elle se développera surtout après les années trente.
En fait, le "tournant linguistique" marque le siècle bien au-delà des projets de Frege : le raisonnement logique de Boole et de Frege est réifié dans une mathématique des suites finies de symboles et leur transformations effectives, la métamathématique de Hilbert, à l'intérieur de laquelle on pourra poser des problèmes mathématiques, des conjectures (la complétude, la décidabilité, la cohérence ... d'un système d'axiomes et règles), démontrer des résultats précis. La force conceptuelle, la rigueur et la précision mathématique du programme de Hilbert, feront oublier les remarques informelles, quoique profondes, de Riemann, Poincaré et quelques autres (dont aussi Helmholtz et Mach): la logique mathématique se posera comme nouvelle discipline mathématique de grand relief et, en permettant de développer la notion de représentation ou codage finitaire (Gödel) et de calcul effectif (Herbrand, Gödel, Turing, Church ...), elle sera à l'origine de l'Informatique. C'est ainsi que l'objectivité absolue des calculs logiques s'est en définitive trouvée réifiée dans des machines "formellement et parfaitement logiques". Ces machines ne cessent, depuis 50 ans, de changer notre vie, par leur extraordinaire efficacité dans tout ce qui est codable par des suites finies de symboles et leur transformations effectives.
Ce sont justement les succès
et les limites des analyses et des applications basées sur "le
traitement finitaire de suites finies de symboles" qui nous
poussent à aller au delà de ces outils, vers une
méthode épistémologique et scientifique qui
intègre aussi les autres formes de la connaissance et du
rapport de l'homme au monde. Il est temps de reprendre les idées
esquissées par Riemann, Poincaré, Weyl et Enriques,
pour redémarrer une réflexion scientifique, en fait
mathématique, sur l'épistémologie des
mathématiques et leur origine cognitive.
1.3 La Géométrie : d'une Science de l'espace à une Science du mouvement dans l'espace.
La Géométrie des Grecs était une "science des figures"; avec Riemann, et après Descartes, elle est devenue une "science de l'espace". Poincaré est allé plus loin, en soulignant le rôle du mouvement dans l'espace : « un être immobile n'aurait jamais pu acquérir la notion d'espace puisque, ne pouvant corriger par ses mouvements les effets des changements des objets extérieurs, il n'aurait eu aucune raison de les distinguer des changements d'état» [Poincaré,1902,p. 78] ...« localiser un objet en un point quelconque signifie se représenter le mouvement (c'est-à-dire les sensations musculaires qui les accompagnent et qui n'ont aucun caractère géométrique) qu'il faut faire pour l'atteindre» [Poincaré,1905,p. 67].
Pour Poincaré, comme pour Riemann, il n'y a pas une théorie géométrique "a priori" du monde, donnée par une axiomatique formelle. C'est plutôt « la présence des corps, les solides naturels» et notre propre corps, notre mouvement et les changements d'état qui constituent l'espace et qui nous le font appréhender; « les axiomes ne sont que des définitions déguisées», dont on choisit « les plus commodes » [Poincaré,1902,p.75-76]. Toutefois, pour Poincaré, la géométrie du monde sensible n'est pas la géométrie mathématique, car ...« les sensations musculaires ... n'ont aucun caractère géométrique...». C'est ce clivage, qui le conduit à un certain conventionnalisme, qu'il faut aujourd'hui dépasser : il faut reconstruire la géométrie mathématique à partir de celle du monde sensible, expliquer pourquoi nos choix explicites sont "plus commodes", en utilisant les outils que les mathématiques, la géométrie tout d'abord, mais aussi la logique mathématiques, nous ont donné au cours des dernières décennies, en combinaison avec l'apport des neurosciences et des sciences cognitives.
Prenons un exemple, à partir du livre d'un physiologiste [Berthoz, 1997]: la capture d'une balle qui approche. Selon Berthoz, au cours de l'action, il n'y a pas de reconstruction centralisée de l'espace extérieur, mais une intégration multisensorielle de différents référentiels [p.90], chacun desquels permet de "simuler" l'espace de la perception. C'est à dire, l'espace n'a pas besoin d'être représenté de façon explicite, dans un système de coordonné cartésienne ou par un codage pixel par pixel des points de l'espace : le seuil musculaire relatif à un certain angle du bras, par exemple, est lui-même le référentiel ou le codage d'une distance. C'est ainsi que, quand on fait un mouvement pour saisir un objet, le référentiel est constitué par l'espace articulaire et quantifié par les seuils musculaires, y compris ceux des muscles oculaires. Il nous parait donc que le référentiel spatial est, en premier lieu, analogiquement reconstruit sur la rétine : l'élargissement de l'image bidimensionnelle est une "simulation analogique" du mouvement de la balle; ensuite, cette "simulation" est transférée, par mille passages intermédiares, sur le système reférentiel donné par les articulation du bras et quantifié par la proprioception des seuils musculaires. Le passage d'une représentation analogique à l'autre, l'intégration, par comparaison et constitution d'invariants (l'aperception de la stabilité de certains phénomènes), est le premier élément constitutif de cette intelligence qui nous permet l'action et qui, en fait, a sa genèse dans notre action dans le monde, dans la pluralité de nos représentations du monde et de notre action. En bref, cette toute première forme d'intelligence, le bras qui se lève et saisit la balle qui s'approche, réside tout d'abord dans le transfert de la représentation analogique de la balle, de sa vitesse et de son accélération sur la rétine sur une autre représentation analogique, celles des seuils musculaires, qui simulent la direction, la vitesse, l'accélération de la balle dans leur propre système de référence, celui des articulations du bras. Cette intelligence "géométrique" est loin d'être indépendante des codages, tout au contraire elle se construit comme réseaux de codages ou de représentations analogiques; elle est acquise par une pratique de l'action dans le monde, sur un corps et une protocarte cérébrale qui rendent ce réseau possible. La pratique de l'invariance des objets du monde par rapport à la pluralité de nos référentiels et de nos codages nous permet de construire ou de concevoir, après coup, cette "invariance" ou stabilité qui sera propre de nos représentations conscientes, celles du langage et de l'espace par exemple, jusqu'aux constructions conceptuelles les plus stables, les plus invariantes, celles des mathématiques.
L'analyse de la constitution
dans la praxis de nos invariants conceptuels demande un effort
mathématique remarquable, qui parte du dialogue avec les
biologistes et les physiologistes et utilise l'analyse des jeux des
référentiels géométriques. En
particulier, l'espace dont nous parlent les physiologistes est
toujours structuré par le geste, le mouvement : il n'est
jamais absolu, mais relatif à la structure qui intéresse.
En fait, l'analogie reconstruit l'essentiel (la structure spatiale
intéressante) du phénomène simulé,
dans le but de l'action. Le référentiel modulaire des
seuils, des saccades, du système vestibulaire, du toucher, est
choisi et modifié selon la structure de l'espace; il est
fonctionnel à l'action du moment: la saccade qui simule la
course de la proie ou précède la poursuite, le
mouvement du bras qui simule le déplacement de l'objet à
saisir, préservent exactement la structure de l'espace utile à
l'action. Or, l'analyse des "espaces mathématiques
structurées" est un enjeu central en géométrie
et dans une de ses généralisation des plus importantes
: la Théorie des Catégories, en tant que théorie
des transformations qui préservent la structure (qui
intéresse). En conclusion, la question que nous posons, par
cette analyse, est celle du rapport entre construction géométrique
(conceptuelle, proposée par l'homme dans l'histoire) et
perception/simulation mentale des espaces physiques et de notre
mouvement dans ces espaces, en tant qu'être vivant dans le
monde. Elle est la question des rapports entre géométrie
mathématique et géométrie du monde sensible.
Dans un article de 1927, Weyl
explique que l'analyse formelle des théories mathématiques,
en fait de leur cohérence logique, n'est qu'un élément
nécessaire pour l'analyse fondationnelle; que ce n'est
nullement une condition suffisante, ni d'un point de vue
épistémologique, ni pour une recherche fondationnelle
analytique. Ce sont plutôt les significations, bâties
à partir de "nos actes d'expérience" (pour
reprendre Weyl), i.e. les structures sous-jacentes des relations avec
le monde sensible - que nous introduisons plus ou moins implicitement
- qui permettent au mathématicien de "comprendre" la
preuve ou de formuler des conjectures, et qui suggèrent au
logicien les conditions suffisantes pour la constitution d'un
système formel, point d'aboutissement, et non pas de départ,
d'une pratique conceptuelle. En somme, dans notre opinion, c'est
l'analyse du processus génétique de constitution
d'un système qui met en évidence la "nécessité"
de ce système. Husserl précisera:
« L'évidence originaire ne peut pas être interchangée avec l'évidence des "axiomes"; car les axiomes sont principiellement déjà les résultats d'une formation de sens originaire et ont cette formation elle-même toujours déjà derrière eux» [Husserl,1933: p. 192-3].
Les "conventions" axiomatiques, donc, viennent après la « formation de sens originaire». Au contraire, comme on mentionnait plus haut, les pères fondateurs de la logique mathématique, au début du siècle, ont pris pour fondement des axiomes et règles, en tant qu'"atomes logique" d'une langue de la pensée, et ont pu proposer cette discipline remarquable grâce au
...« dogme tout-puissant de la cassure principielle entre l'élucidation épistémologique et l'explicitation historique aussi bien que l'explicitation psychologique dans l'ordre des sciences de l'esprit, de la cassure entre l'origine épistémologique et l'origine génétique; ce dogme, dans la mesure où on ne limite pas de façon inadmissible, comme c'est l'habitude, les concepts d'"histoire", d'"explicitation historique" et de "genèse", ce dogme est renversé de fond en comble»[Husserl,1933: p.201].
C'est à ce renversement
que nous voulons oeuvrer, car c'est possible aujourd'hui. C'est
possible, grâce aussi aux percées de la logique
mathématique : les nombreux résultats d'incomplétude
des dernières décennies nous confirment le rôle
essentiel de la géométrie (au moins l'ordre et les
arbres) ainsi que de l'infini mathématique en général,
même dans la preuve de théorèmes finitaires, en
théorie des nombres par exemple.
1.5 La constitution des invariants mathématiques : leur intérêt cognitif.
En reprenant la "distinction" de Weyl, quand on considère la question de l'identification des conditions suffisantes pour l'émergence d'une théorie, celles qui exigent cette théorie et la rendent possible, l'enjeu, cette fois, n'est pas interne aux mathématiques. Il exige un examen de l'insertion des mathématiques dans leur contexte opératoire, dans le monde, un examen de l'interface entre notre esprit et le monde, où s'amorcent les conceptualisations mathématiques.
En fait, l'objectivité des conceptualisations mathématiques a ses sources dans les processus constitutifs de celles-ci.
Les nombres réels, par exemple, n'ont pas une objectivité de par eux-mêmes, ils acquièrent à la fois existence et objectivité par la construction de Cantor-Dedekind qui constitue les réels standard à partir des entiers induits par nos perceptions courantes. (En outre, il y a aussi d'autres constructions, non-standard, qui suivent d'autres parcours et conduisent à d'autres résultats). En ce sens les réels ne sont pas des entités platoniques, des déjà-là-depuis-toujours-et-"en eux-mêmes"-tels-qu'ils-sont.
Les processus constitutifs des conceptualisations mathématiques sont donc de nature cognitive et ils sont ensuite soumis à l'historicité. Une analyse satisfaisante de ces processus conduit à réexaminer la théorie des démonstrations selon laquelle les bases des conceptualisations mathématiques se trouvent dans les formalismes linguistiques et dans les principes généraux de preuve syntactique. Notamment, le rôle des topologies et de la géométrie en logique - et, pour nous, avec ses origines cognitives - doit être réaffirmé, autant sur le plan technique que sur un plan philosophique ainsi que sa construction à partir de notre rapport avec le monde et du vivre dans le monde (à partir de Riemann, Helmoltz, Poincaré, Weyl, comme nous disions). Ce rôle est d'autre part déjà présent dans les structures topologiques et les Topos pour la Logique Intuitionniste, avec leurs applications à l'Informatique initialement proposées par D.S. Scott, et, surtout, grâce aux idées très originales de J.-Y. Girard en Théorie de la Démonstration (la Logique Linéaire, en particulier, où la géométrie ne concerne pas seulement les structures sous-jacentes, mais elle entre aussi "par la fenêtre", dans la structure elle-même des preuves, par les "réseaux des preuves" ).
D'autre part les mathématiques, tout en étant, dans leur genèse, intimement liées aux autres formes générales de la connaissance, présentent une très forte spécificité lorsqu'elles sont déjà accomplies. Aucune autre forme de représentation du monde n'est si essentiellement et explicitement fondée sur l'exigence d'indépendance des structures face aux représentations, face aux notations employées. Cette exigence est le coeur même de la conceptualisation mathématique, de son type particulier de généralité. En outre les mathématiques, à tout niveau, sont à la chasse d'une "simplicité" maximale, même - surtout - quand elles sont profondes. "L'élégance", la recherche de ce qui est "essentiel", "minimal", "stable", en bref la recherche de sortes de "géodésiques" abstraites - comme méthode liée à un principe que l'on est tenté de qualifier comme "esthétique" - en font partie de façon constituante. Or, le rôle de l'invariance au sens des mathématiques peut éclairer fortement les efforts d'analyse des processus quelconques de la cognition humaine. Il peut également guider pour l'identifications des contraintes qui ont présidé implicitement à la structuration de formes de représentation de connaissances plus complexes que les systèmes mathématiques abstraits, et dont les principes sont donc plus difficiles à isoler directement, plus cachés qu'en mathématiques pures.
Pour toutes ces raisons les
mathématiques ont déjà été très
souvent au centre des réflexions philosophiques en
épistémologie, et il faut les y maintenir. En
particulier, il nous semble que le rôle de la géométrie
est le plus central, car "geometry is more compelling",
comme aime le dire D.S. Scott (mais J.Y. Girard serait également
d'accord). C'est un fait que, en mathématiques, la géométrie
est le lieu préféré de la "signification"
: pour analyser ce fait, il faut développer notre thèse
qui lie la géométrie mathématique à
l'espace sensible.
1.6 Infini et Géométrie : du continu au systèmes dynamiques.
Nous en avons assez dit au sujet de notre intérêt concernant les aspects des fondements non linguistiques, non formels, des mathématiques et le rôle de la géométrie. Quant au concept d'infini mathématique, il s'agit là d'un des exemples des plus intéressants de "conceptualisation progressive", au cours de l'histoire. Un concept "métaphysique" qui est devenu une "pratique mathématique", qui s'est concrétisé dans des contextes opérationnels, de l'analyse infinitésimale à la théorie des ordinaux de Cantor. Mais l'infini a acquis une signification bien solide également grâce à son sens géométrique, et tout d'abord en géométrie projective : les points à l'infini de la peinture de Piero della Francesca, un des inventeurs de cette géométrie, est une des "conceptualisations" humaines les plus fortes et rigoureuse du concept d'infini.
On envisage de développer une analyse du rôle de l'infini dans les fondements des mathématiques sous deux aspects essentiels. D'un coté, maints résultats de ces vingt dernières années montrent que l'infini (en acte, bien évidemment) entre massivement dans la preuve de théorèmes dont les énoncés sont finitaires (arithmétiques) comme le théorème de Paris-Harrington ou le théorème de Friedman prouvant la version finitiste du théorème de Kruskal. Il nous paraît toutefois qu'il manque une analyse "fine", épistémologique et mathématique, de ce phénomène. D'un autre côté, des résultats encore plus récents établissent des liens profonds entre la sémantique de certains systèmes logiques et la géométrie des systèmes dynamiques.
Quelle notion de calcul pouvons
nous transférer sur ces derniers systèmes "continus"?
Comment l'analyse mathématique, par des outils du continu, de
certains systèmes discrets (langages formels et pour le
calcul) peut-elle nous informer sur leur sens et sur leur
expressivité? Quels liens existent entre le continu des
structures utilisées pour la sémantique des langages et
systèmes formels et, en passant par leur nouveau rôle
dans les systèmes dynamiques, le continu des analyses
morphodynamiques, en particulier thomiennes, du langage?
Le projet de réification de la rationalité dans les "règles formelles", qui s'est développé au cours du siècle, est à la base de l'invention des ordinateurs, dans les années '30 et '40: les suites finies de symboles en tant que codage d'axiomes et de règles de déduction, permettent de manipuler d'énormes quantités de données. L'intelligence s'est transformée en la manipulation finitaire des suites finies de 0 et 1.
Malheureusement ce projet, bien que si efficace, s'est heurté à des limites bien précises. En fait, derrière les résultats d'incomplétude, que le logicisme et le formalisme eux-mêmes ont su nous donner, il y a la praxis humaine de la démonstration, qui utilise largement des références directes à l'espace (mental et physique): ce qui "manque" à la déduction formelle ou mécanique est le bon-ordre géométrique dans le quel nous rangeons les nombres dans nos espaces mentaux, ce sont les jugements explicites sur le continu spatial, sa connexion, les symétries, les analogies entre formes et mouvement. On a souvent "caché" ces pratiques conceptuelles sous une référence vague à "l'intuition". Il est temps de développer une analyse scientifique, en termes "cognitivistes", de ces aspects implicites du raisonnement, en particulier spatial, aussi rationnels que ceux gouvernés par les "règles logico-linguistiques finitaires". C'est l'Informatique même qui l'exige et cela pour au moins deux raisons différentes:
- l'essor remarquable des systèmes de calcul dans lesquels l'espace et le temps jouent un rôle central (distribution et asynchronie des systèmes concurrents, que nous avons déjà mentionnés), et qui sont mal représentés par certaines variantes des langages et méthodes essentiellement séquentiels,
- les difficultés immenses auxquelles s'est trouvée confrontée l'Intelligence Artificielle, en particulier la Robotique, dans la simulation des taches humaines ou animales les plus simples, en particulier quand le rapport à l'espace et au mouvement y sont centrales.
Nous nous proposons, par notre
projet, de contribuer au dialogue entre les spécialistes de
ces deux secteurs et les experts en Géométrie de
l'espace et de ses méthodes mathématiques; nos
expériences complémentaires en Logique et Informatique,
Géométrie et Algèbre, Philosophie et Méthodes
Différentielles devraient le permettre.
Voici une liste de quelques thèmes plus précis que nous souhaitons étudier:
1 - Analyse des opérations constitutives de la pensée mathématique, avec une attention particulière aux représentations de l'espace, sur la base de l'hypothèse que les approches formalistes de la preuve mathématique sont nécessaires mais non suffisantes. On pourrait en particulier se proposer d'analyser en grand détail quelques exemples précis de preuves difficiles pour voir comment, en plus des chaînes démonstratives locales, il y a constamment changement de représentation pour expliciter de nouveaux aspects de l'information et faire avancer la preuve globale. A notre connaissance un tel travail n'a jamais été fait. Il serait du plus haut intérêt.
2 - Passage d'une approche formaliste (métamathématique, au sens de Hilbert) des fondements à une approche cognitive concernant:
les opérations mentales;
les constructions conceptuelles (en partie au sens de Lautman mais sans sa métaphysique néoplatonicienne): il serait bon d'en faire un recensement;
les codages et les représentations: c'est un point crucial.
l'ouverture de la logique à la géométrie (théorie des faisceaux et des topoï, etc.) et aux systèmes dynamiques.
3 - Rôle des représentations géométriques de l'espace dans l'analyse des systèmes informatiques distribués.
2.
Méthodes géométriques dans les sciences
cognitives
2.1 De l'analyse du signal à la structuration morphologique
Certains des progrès les plus intéressants dans la compréhension des algorithmes perceptifs concernent la façon dont un traitement du signal peut conduire à une structuration morphologique, c'est-à-dire à une organisation en formes (en patterns) possédant une structure méréologique en constituants (en parties) bien précise (pensons par exemple au passage d'un son musical à une partition constituée de notes, à celui d'une image brute conçue comme matrice de pixels à la reconnaissance de scènes composées d'objets eux-mêmes composés de parties bien identifiables, etc.).
Ces progrès se sont réalisés à la fois au niveau calculatoire des algorithmes de traitement et au niveau expérimental des données neuronales. Ils commencent à résoudre un problème très ancien, celui qui, à la suite des travaux pionniers de psychophysiciens comme Helmholtz et de philosophes néo-aristotéliciens comme Brentano, était au c_ur de la Gestaltthéorie (Stumpf, Meinong, von Ehrenfels, Köhler, Koffka, Kanizsa, etc.) et de la phénoménologie de la perception (Husserl,Merleau-Ponty, etc.).
Ils réactivent de façon spectaculaire toute une tradition philosophique qui depuis l'Esthétique transcendantale de Kant jusqu'à Lotze, Poincaré, Weyl et Enriques, avait dominé la philosophie des mathématiques mais avait été brutalement éliminée dans les années 20-30 au bénéfice des orientations logicistes et formalistes.
Ces progrès concernent la vision de bas niveau. Mais ils comblent un fossé qui jusqu'ici empêchait d'articuler les bas niveaux perceptifs de traitement du signal avec les hauts niveaux plus cognitifs, symboliques et inférentiels. En effet ils expliquent comment se constitue le niveau morphologique des patterns sur lequel se fondent les niveaux cognitifs supérieurs.
Nous donnons ci-dessous
quelques exemples faisant actuellement l'objets d'importants
développements.
2.2 Mesure du signal optique et détection multi-échelle de traits géométriques
L'espace et la structure
géométrique des images sont le résultat d'un
formatage du signal optique par des processus de mesure
qui s'effectuent au moyen de champs rétinotopiques de cellules
opérant comme des filtres. Il existe dans le système
visuel des cellules (par exemple les cellules ganglionnaires de la
rétine, ou les cellules des hypercolonnes de l'aire V1
du cortex visuel primaire détectant les orientations)
possédant des champs récepteurs dont les profils
récepteurs sont des dérivées de gaussiennes
jusqu'à l'ordre au moins 3 (sans doute 4) d'échelles
différentes (par exemple les cellules ganglionnaires ont un
profil récepteur en forme de laplacien de gaussienne). L'idée,
bien explicitée par le physicien Luc Florack membre du labo de
Jan Koenderink, est de considérer le signal comme une
distribution I et de faire l'hypothèse que certaines
fonctions test j sont cablées dans le système de
mesure. Au lieu de considérer que I opère sur
les j , on considère au contraire que, dualement, les j
opèrent sur I comme des filtres. Des champs de tels
profils récepteurs agissent par convolution sur le signal et
cela à plusieurs échelles différentes. Il est
facile de construire à partir d'eux des invariants qui sont
des détecteurs de traits géométriques locaux
multi-échelle (par exemple des détecteurs de bords,
de coins, de points d'inflexion, etc.).
2.3 Lien avec les algorithmes de type ondelettes
Ces résultats montrent que l'analyse du signal optique effectuée par le système visuel est à la fois un traitement du signal et une analyse morphologique des images au moyen de singularités de codimension 2 génériques (typiques). Dès le traitement périphérique de l'information encodée dans le signal optique, les algorithmes visuels sont finalisés de façon essentielle par la détection de discontinuités. Cela permet de faire le lien avec les algorithmes d'analyse multi-échelle de type ondelettes. Et effectivement, depuis les travaux de David Marr à la fin des années 70, l'une des hypothèses qui semble le mieux confirmée est que les cellules ganglionnaires de la rétine implémentent une analyse en ondelettes du signal optique. Les spécialistes considèrent que D. Marr a été l'un des inventeurs de ces nouvelles méthodes.
L'intérêt
principal de l'analyse en ondelettes est de fournir un algorithme
d'analyse du signal qui, contrairement aux analyses classiques de
type Fourier, est spatialement localisée et multi-échelle,
ce qui la rend adaptée à l'extraction de la géométrie
encodée dans le signal. A chaque échelle, le signal est
lissé et les discontinuités qualitatives significatives
en sont extraites. On peut citer les travaux fondamentaux d'Yves
Meyer et de S. Mallat sur ce problème.
2.4 Scale-space analysis (Koenderink, Morel, etc.)
L'idée d'analyse multi-échelle domine désormais les théories de l'analyse géométrique des images. Parallèlement à la filière Marr ondelettes, elle remonte à Witkin (1982) et à Koenderink (1984). Elle est celle de la "scale space analysis".
Pour être morphologiquement correcte, une analyse d'images doit s'effectuer en termes de géométrie différentielle (et non pas en termes de combinaisons de primitives de type cubes, sphères, cylindres, "géons", etc.). La difficulté est que les outils de la géométrie différentielle ne sont pas directement applicables au signal en tant que tel. C'est un problème mal posé. Pour que les images puissent acquérir le statut d'observables géométriquement analysables par détection d'invariants, il faut au préalable définir une échelle, c.à.d. fixer un niveau de régularisation du signal bruité. On est ainsi conduit à définir des jets multi-échelle et à reprendre sur cette base la théorie de Thom-Mather des singularités génériques et des déploiements universels. C'est en effet celle-ci qui permet de définir les bons invariants.
On montre (travaux de J-M. Morel, etc.) que, sous des contraintes générales de linéarité et d'isotropie, la façon la plus simple d'obtenir une analyse multi-échelle d'une image 2D I(x,y ) est de la plonger dans une famille I_s (x, y) qui est une solution de l'équation de la chaleur dans un espace-échelle (et non pas dans un espace-temps). Le problème est évidemment qu'un tel lissage, parce qu'isotrope, est indifférent à la géométrie de l'image. D'où l'idée que pour pouvoir effectuer une bonne analyse morphologique de l'image, il faut concilier deux exigences apparemment antagonistes:
(i) régulariser le signal de façon multi-échelle par diffusion;
(ii) préserver la structure morphologique de l'image, c'est-à-dire les discontinuités d'éléments différentiels construits à partir des jets successifs de la fonction I_s(x, y) et possédant une signification géométrique intrinsèque.
Pour ce faire, il faut adapter l'équation de diffusion à la préservation de ces éléments.
Le cas le plus simple est celui
des bords qui délimitent les domaines homogènes d'une
image et sont essentiels à la définition de ses
constituants. Un bord est idéalement une discontinuité
du gradient de I_s. Pour qu'une diffusion préserve le
caractère discontinu des bords tout en les simplifiant
progressivement, il faut qu'elle soit anisotrope, en fait inhibée
dans la direction du gradient. Des EDP paraboliques non linéaires
possédant ces propriétés ont été
proposées et analysées par Malik et Perona et
Jean-Michel Morel et ses collègues.
2.5 Les modèles variationnels de segmentation (Mumford)
Sans doute le mathématicien qui développe actuellement le plus profond programme de recherche sur la façon dont une analyse du signal peut conduire à la formation de patterns morphologiques est David Mumford. C'est dans le cadre d'une approche probabiliste bayésienne qu'il explique les phénomènes de segmentation. Cela l'a conduit à des modèles variationnels qui ont soulevé des problèmes difficiles et ont conduit à des conjectures encore ouvertes.
Dans son article de synthèse
"Bayesian rationale for the variational formulation",
Mumford explique que "one of the
primary goals of low-level vision is to segment the domain W
of an image I into the parts Wi on which distinct
surface patches, belonging to distinct objects in the scene, are
visible" et que l'approche
mathématique de base à ce problème de
segmentation consiste à utiliser les différentes
sources d'information de bas niveau "for splitting and
merging different parts of the domain W" de
façon optimale. Il propose alors une approche variationnelle
.
2.6 Théorie des singularités multi-échelle
Ces méthodes d'analyse d'images conduisent à reprendre certains problèmes de géométrie différentielle dans une optique multi-échelle, en particulier la théorie des singularités et de leurs déploiements universels.
En ce qui concerne ce dernier
point, J. Damon a montré comment on pouvait transformer la
théorie de Morse-Whitney-Thom-Mather-Arnold. Le problème
est que les formes normales de Morse ne satisfont pas à
l'équation de la chaleur. Les méthodes doivent être
transposées des espaces de germes d'applications C aux
espaces de germes de solutions de l'EDP considérée. Or,
ces espaces n'ont pas en général les "bonnes"
propriétés algébriques qui font marcher la
théorie et permettent d'appliquer des arguments de
transversalité pour obtenir des résultats de
généricité. Il faut donc adapter la théorie.
Cela conduit à d'intéressants problèmes
géométriques.
2.7 Contours apparents et graphes d'aspects multi-échelle
Un problème
particulièrement intéressant à résoudre
dans cette perspective est celui des contours apparents et des
graphes d'aspects multi-échelle. Les contours apparents
(CA) d'une forme F (surface dans l'espace euclidien)
sont un élément essentiel de sa perception. Lorsque le
point de vue varie dans l'espace des points de vue, les types
qualitatifs des CA stratifient cet espace et ce que l'on
appelle le graphe d'aspects de la forme F est le graphe
d'incidence de cette stratification. On dispose de nombreux résultats
sur les graphes d'aspects des surfaces (Regier, Van Effelterre,
Petitjean). Par ailleurs, on peut simplifier la forme F en lui
appliquant l'équation de la chaleur. Dans de nombreux cas cela
fait diffuser la courbure, convexifie la forme et la fait tendre vers
une sphère. Ce résultat généralise en
dimension 2 un théorème dû à Hamilton,
Gage et Grayson en dimension 1. Il n'est pas vrai en toute généralité
car des formes possédant des étranglements trop forts
peuvent se scinder en sous-formes, mais il est vrai pour une large
classe de formes. Le problème est alors d'étudier
l'évolution du graphe d'aspects lors de ce processus de
simplification multi-échelle et les bifurcations qu'il peut
présenter génériquement.
2.8 Fibrations corticales, colonnes d'orientation et intégration des contours visuels
Il existe désormais des
modèles géométriques très intéressants
du processus d'intégration des contours dans le système
visuel, c'est-à-dire de la reconstruction des contours globaux
à partir de leur représentation distribuée dans
le cortex. Le traitement des contours dans le cortex visuel débute
dans l'aire V1, où le signal rétinien est
analysé par des neurones dont les champs récepteurs
possèdent une préférence orientationnelle. Deux
niveaux d'organisation de l'architecture fonctionnelle de l'aire V1
sont particulièrement importants: la rétinotopie et la
structure columnaire. L'organisation columnaire peut être
modélisée par une structure géométrique
fondamentale, celle de fibration. Cette fibration est munie
d'une structure géométrique supplémentaire, dite
structure de contact.. Or l'équivalent discret de cette
entité continue est analogue à un mécanisme dit
champ d'association proposé récemment en
neurosciences de la vision par Field, Hayes et Hess pour rendre
compte d'expériences psychophysiques sur l'intégration
des contours. Du point de vue physiologique, les connexions
horizontales découvertes dans le cortex visuel pourraient
implémenter ce schéma local d'association.
2.9 Catégorisation, typicalité et perception catégorielle
Un autre problème cognitif central est celui de la catégorisation. En général, les modèles connexionnistes de catégorisation, comme les Attractor Neural Networks de Daniel Amit, reposent sur l'idée que les attracteurs d'une dynamique (définie sur un espace interne approprié M) fonctionnent comme des prototypes, que leurs bassins d'attraction partitionnent M en domaines que l'on peut traiter comme des catégories, que les fonctions de Liapounov sur ces bassins s'identifient alors à ce que les psychologues appellent des gradients de typicalité, et que la capture d'une condition initiale (stimulus) par un des attracteurs s'identifie à la réalisation physique d'une relation type-occurrence: la condition initiale située dans un certain bassin d'attraction est interprétée comme une occurrence du type représenté par l'attracteur correspondant. Ces modèles restent toutefois très largement insuffisants. En effet dans de très nombreux cas la catégorisation se manifeste lorsque l'on fait varier des indices (des "cues") qui appartiennent à des espaces de contrôle des percepts. Le changement de catégorie s'identifie alors à un phénomène de bifurcation contrôlé par ces paramètres. La catégorisation se réalise donc non seulement dans les espaces internes des percepts, mais également dans les espaces externes de leur contrôle par des indices.
On a développé
des modèles de catégorisation fondés sur la
théorie des bifurcations, en particulier en ce qui concerne la
catégorisation phonétique et les phénomènes
associés dits de perception catégorielle. Dans
ce cas, les dynamiques internes sont des dynamiques acoustiques
(définissant en particulier les formants, i.e. les pics du
spectre continu modulant le spectre harmonique, pics qui reflètent
la géométrie des résonateurs du tractus vocal)
et les contrôles externes sont des indices acoustiques comme le
voisement ou des indices articulatoires comme le point
d'articulation. Les hypothèses développées à
ce propos ont été confirmées expérimentalement,
en particulier par certains travaux (J.L. Schwartz, C.Abry, P.
Escudier et L.J. Boë) de l'Institut de la Communication Parlée
de Grenoble prolongeant ceux de l'équipe de Chistovich à
l'Institut Pavlov de Saint-Petersbourg. On a en particulier repris
les modèles connus (des travaux classiques de G. Fant dans les
années 60 jusqu'à ceux récents de S. Maeda et R.
Carré) sur la façon dont les paramètres
articulatoires contrôlent la structure formantielle des
spectres continus. La fonction de transfert du tractus vocal (qui
donne le spectre continu) se ramène à l'inverse d'un
polynôme P(s,C) dont les paires de zéros
conjugués correspondent aux formants et dont les coefficients
C=(c_i) dépendent de façon non triviale
des paramètres articulatoires. En fait, ces polynômes
sont des déploiements universels qui déploient des
singularités cuspoïdes et les phénomènes de
perception catégorielle sont intimement liés à
leurs ensembles catastrophiques canoniques.
2.10 Des scènes visuelles au langage
Beaucoup de travaux (par ex. ceux de Kosslyn) ont été récemment consacrés à la "montée" de la perception vers le langage. Cela a conduit à développer une conception topologico-dynamique, schématique et iconique de la grammaire radicalement opposée à la conception formaliste chomskyenne: Cognitive Grammar de Ronald Langacker, Cognitive Topology de George Lakoff, modèles connectionnistes d'apprentissage des systèmes prépositionnels de différentes langues par Terry Regier, et, surtout, conceptions néo-gestaltistes de Leonard Talmy.
Par exemple, les relations spatiales entre objets linguistiquement codés par des prépositions (dans, dessus, à travers, etc.) sont de nature perceptive abstraite (i.e.perceptivo-sémantique) et sont catégorisées de façon beaucoup plus subtile que l'on ne croit. Leur catégorisation mélange de façon compliquée (et encore incomprise) des informations géométriques (traitées dans l'hémisphère droit) et des informations catégorielles (traitées dans l'hémisphère gauche). L'élaboration d'un bon modèle mathématique est considérée comme le problème de base des grammaires cognitives. Il existe des propositions et même une première machine appliquant automatiquement certaines prépositions à des scènes visuelles (R.Doursat).
Le développement d'une
modélisation topologique et dynamique des liens entre langage
et perception conduit à reprendre nombre de questions, de
nature géométrique, héritées de la
phénoménologie et de la Gestaltthéorie et à
poser la question de leurs liens avec les formalisations, plus
classiques, de nature logique.
Des travaux de ce type font converger les analyses morphologiques (dont René Thom a été l'un des pionniers) avec la physique des phénomènes concernés. L'émergence des patterns perceptifs commencent ainsi à être comprise. Comme nous l'avons montré, cela permet de naturaliser un nombre considérable de descriptions phénoménologiques (au sens Gestaltiste/ husserlien) qui jusqu'ici avaient été traitées de façon essentiellement logico-symbolique parce que la "géométrie morphologique" associée faisait complètement défaut.
Cette "géométrie perceptive" avec son implémentation neurale et son "embodiment" dans le corps propre vivant (ce que Husserl appelait le Leibkörger) permet de renouveler en profondeur le problème des fondements de la géométrie. En effet, comme Husserl l'a bien expliqué, par exemple dans ses leçons de 1907 Ding und Raum, l'espace objectif tridimensionnel se constitue à partir des flux temporels de contours apparents 2D (et plus généralement des esquisses ou aspects d'objets) se détachant sur un fond. Les caractères "ontologiques" des objets externes sont en effet liés aux types kinesthésiquement contrôlés des enchaînements temporels des esquisses perceptives. Translations, rotations, rapprochements/ éloignements, changements d'orientation, occlusions, etc. sont des transformations d'objets encodées dans des transformations typiques des images, mais qui sont les mêmes transformations que l'on obtient en faisant l'hypothèse que les images sont les projections de transformations euclidiennes entre objets de l'espace euclidien.
Ce passage d'un calcul
perceptif de flux d'images 2D à un calcul géométrique
de projections de mouvements 3D permet une réduction drastique
de complexité algorithmique . Il ouvre les portes de
la genèse phénoménologique de la géométrie
euclidienne. Husserl est sans doute, avec Poincaré, l'un
des penseurs à avoir le plus profondément compris à
quel point la géométrie euclidienne n'est pas un donné
mais une construction, à quel point l'expérience
sensori-motrice active de l'espace (ce qu'Alain Berthoz appelle le
"sens" du mouvement) diffère du concept géométrique
d'espace.
Alvarez, L., Lions, P.L.,Morel, J.M. "Image selective smoothing and edge detection by non lineardiffusion, SIAM Journal of NumericalAnalysis, 29, 845-866, 1992.
Asperti, A., Longo, G. Categories,Types and Structures, MIT Press, 1991.
Berthoz, A. Le sens du mouvement, Paris, Odile Jacob, 1997.
Boi, L. Le problème mathématique de l'espace, Springer, 1995.
Chatelet, G. Les enjeux du mobile, Paris, Seuil, 1993.
Dehaene, S. La bosse des mathématiques, Paris, Odile Jacob, 1997.
Enriques, F. Problemi della Scienza, 1901.
Florack, L. The Syntactical Structure of Scalar Images,Thèse, Université d'Utrecht, 1993.
Hamy, H. Méthodes géométriques multi-échelle en vision computationnelle, Thèse,Paris, Ecole Polytechnique, 1997.
Harrington, L. et al. (eds). H. Friedman's Research on the Foundations of Mathematics, North-Holland, 1985.
Herken, R. The Universal Turing Machine, Springer-Verlag, 1995.
Husserl, E. Ding und Raum, Vorlesungen 1907, Husserliana XVI, La Hague, Martinus Nijhoff, 1973. Ed. françaiseChose et Espace, (trad. J-F. Lavigne), Paris, Presses Universitairesde France, 1989.
Husserl, E. L'origine de la Géométrie, 1936 (trad. française de J. Deridda, PUF, 1962).
Koenderink, J.J. "The Stucture of Images", Biological Cybernetics, 50,363-370, 1984.
Longo, G. "The mathematical continuum, from intuition to logic" in Naturalizing Phenomenology: issues in comtemporary Phenomenology and Cognitive Sciences, (J. Petitot et al.,eds) Stanford U.P., 1998.
Morel, J-M., Solimini, S. Variational Methods in Image Segmentation, Berlin, Birkhäuser, 1995.
Mumford, D. "Bayesian rationale for the variational formulation", Geometry-Driven Diffusion in Computer Vision, Dordrecht, Kluwer, 1994.
NP. Naturalizing Phenomenology: Issues in Contemporary Phenomenology and Cognitive Science, (J. Petitot, F. J.Varela, J.-M. Roy, B. Pachoud eds.), Stanford, Stanford University Press,1998.
Petitot, J. Physique du Sens, Paris, Editions du CNRS, 1992.
- "Continu et Objectivité. La bimodalité objective du continu et le platonisme transcendantal", Le Labyrinthe du Continu, (J.-M. Salanskis, H. Sinaceur eds.), 239-263,Springer, Paris, 1992.
- "Phénoménologie computationnelle et objectivité morphologique", La connaissance philosophique. Essais sur l'_uvre de Gilles-Gaston Granger, (J. Proust, E. Schwartz eds.), 213-248,Paris, PUF, 1994.
- "Phenomenology of Perception,Qualitative Physics and Sheaf Mereology", Philosophy and the CognitiveSciences, Proceedings of the 16th International Wittgenstein Symposium (R. Casati,B. Smith, G. White eds), 307-408, Vienna, Verlag Hölder-Pichler-Tempsky,1994.
- "Morphodynamics and Attractor Syntax. Dynamical and morphological models for constituency in visual perception and cognitive grammar", Mind as Motion, (T. van Gelder, R. Port eds.), 227-281, Cambridge, MIT Press, 1995.
Poincaré, H. La Science et l'Hypothèse, Flammarion, Paris, 1902.
Poincaré, H. La valeur de la Science, Flammarion, Paris, 1905.
Prochiantz, A. Les anatomies de la pensée, Odile Jacob, 1997.
Thom, R. Modèles mathématiques de la Morphogenèse (2ème ed.), Paris, Christian Bourgois, 1980.
Tondut, Y., Petitot, J. "Géométrie de contact et champ d'association dans le cortex visuel", Rapport du CREA n· 9725, Ecole Polytechnique, 1998.
Weyl, H. Das Kontinuum, 1918.
Weyl, H. Symmetry, Princeton University Press, 1952.
Weyl, H. "Comments on Hilbert's second lecture on the foundations of mathematics." [1927] in van HeijenoortJ., From Frege to Goedel, 1967.