Category Archives: recherche

sans commentaire

Extrait de la première conférence dans le message ci-dessous :

Comme l’explique le neurobiologiste V. S. Ramachandran :

“Pendant plus d’un demi-siècle, la neuroscience moderne a emprunté le chemin du réductionnisme, divisant chaque chose en morceaux de plus en plus petits, dans l’espoir qu’en comprenant tous ces petits morceaux, on finirait par expliquer l’ensemble. Malheureusement, beaucoup de personnes pensent que, dans la mesure où le réductionnisme est très souvent utile dans les tentatives qui sont faites pour résoudre des problèmes, il est donc aussi suffisant pour les résoudre. Cela fait des générations que les savants sont élevés dans ce dogme. Ce mauvais usage du réductionnisme mène à une conviction perverse et tenace : à savoir que le réductionnisme lui-même nous dira, d’une manière ou d’une autre, comment le cerveau fonctionne. En réalité, ce dont nous avons le plus grand besoin, c’est d’un rapprochement entre les différents niveaux de discours. Horace Barlow, physiologiste à Cambridge, a dit récemment dans une conférence scientifique que nous avons passé cinq décennies à étudier le cortex cérébral dans ses moindres détails sans avoir acquis la moindre idée, ni de ce qu’il fait, ni de la manière dont il fait ce qu’il fait. Il a choqué l’auditoire en suggérant que nous sommes comme des Martiens entièrement asexués, qui ont visité la terre et qui ont passé cinquante ans à examiner en détail les mécanismes des testicules et leur biochimie cellulaire, sans savoir quoi que ce soit de la sexualité.”

Phantoms in the Brain : Probing the Mysteries of the Human Mind, Morrow, New-York, 1998, p. 264.

structure émergente!

Voici deux conférences de Mark Turner au Collège de France débusquées par Clémence depuis un moment déjà. L’une sur la mécanique de l’imagination : L’imagination et le cerveau l’autre, la suite : L’invention du sens.

Remarques philosophiques

une citation de wittgenstein:

Le sens d’une question c’est la méthode pour y répondre.

Dis-moi comment tu cherches et je te dirai ce que tu cherches.

La simplexité

La Simplexité

« La simplexité, telle que je l’entends, est l’ensemble des solutions trouvées par les organismes vivants pour que, malgré la complexité des processus naturels, le cerveau puisse préparer l’acte et en projeter les conséquences. Ces solutions sont des principes simplificateurs qui permettent de traiter des informations ou des situations, en tenant compte de l’expérience passée et en anticipant l’avenir. Ce ne sont ni des caricatures, ni des raccourcis ou des résumés. Ce sont de nouvelles façons de poser les problèmes, parfois au prix de quelques détours, pour arriver à des actions plus rapides, plus élégantes, plus efficaces. »

Comme le démontre Alain Berthoz dans ce livre profondément original, faire simple n’est jamais facile ; cela demande d’inhiber, de sélectionner, de lier, d’imaginer pour pouvoir ensuite agir au mieux.

fonctionnement interne de l’ordinateur

fonctionnement interne de l’ordinateur

CPU : Central Processing Unit (unité centrale de traitement), on l’appelle “processeur” en français. Quand on réussit à mettre tous ses composants dans un seul circuit intégré, on le nomme “micro processeur“.

ALU : Unité Arithmétique et Logique : c’est ce composant qui sait faire les calculs. C’est à dire que pour chaque combinaison de 0 et de 1 en entrée, il sait quelle combinaison de 0 et de 1 il doit donner en sortie. La sortie ne dépend que des entrées, le problème est donc combinatoire. C’est donc un ensemble de portes logiques. Par exemple, le schéma de l’additionneur (voir /pat/autom/tr-autom/transp3.htm). Une caractéristique est importante d’un processeur est le nombre de chiffres binaires (bits) sur lesquels l’ALU sait faire les calculs. Notons le N, il vaut suivant les cas 8 bits (les anciens ordinateurs personnels comme l’Apple II, Commodore,… aujourd’hui les micro-contrôleurs qui gèrent une télé, une machine à laver…), 16 bits, 32 bits (le Pentium), 64 bits voire 128 bits dans les gros ordinateurs.

Registres : mémoires internes du processeur. Un registre est capable de stocker N 0 ou 1, par exemple le résultat de la dernière opération de l’ALU. Il est en fait composé de N bascules (voi r /pat/autom/autom08.htm). Dans un processeur, le nombre de registres est très limité (3 à 8). L’un de ces registres est plus important que les autres, il est appelé accumulateur (accu). Sur une calculatrice, l’accu est le registre constamment relié à l’affichage : c’est ici qu’est stocké le résultat de l’opération précédente, ou la donnée du calcul suivant.

PC (Partie Commande) : la PC commande le processeur. Par exemple, si elle veut additionner deux registres, elle va brancher ces deux registres à l’entrée de l’ALU, demander une addition, et brancher la sortie de l’ALU sur le registre devant récupérer le résultat. Mais il n’est pas possible de changer les branchements. En fait, tout est branché ensemble, sur un ensemble de N fils appelé “bus de données“, et devant chaque composant un ensemble de N portes peut être ouvert ou fermé par ordre de la PC. A un instant donné deux portes sont ouvertes, donc deux composants sont reliés, ils monopolisent le bus, les autres composants doivent attendre leur tour. C’est pourquoi un processeur ne peut faire qu’une chose à la fois. Chaque réservation du bus se fait durant une durée déterminée, la même quelle que soit l’opération effectuée. Une horloge (notée Ø ) envoie des “tops” à intervalles réguliers, à chaque top deux nouveaux composants sont reliées au bus, et peuvent y transmettre une valeur jusqu’au prochain top. Le nombre de tops envoyés en une seconde est la seconde caractéristique importante d’un processeur, c’est sa “fréquence“. Les tout premiers ordinateurs fonctionnaient à quelques dizaines de Hertz, le premier PC tournait à 4,77 MHz, aujourd’hui on dépasse les 2 GHz.

Tags: , , , ,

à propos de recherche, par wikipédia

Il est faux de croire que la recherche mathématique se limite à la démonstration mécanique de théorèmes. L’une des méthodes les plus fructueuses de recherche mathématique est la mise en rapprochement de domaines a priori éloignés en mettant en lumière des phénomènes analogues (par exemple, la géométrie euclidienne et les équations différentielles linéaires). Voir des phénomènes analogues se produire peut conduire à vouloir adapter des résultats d’un domaine des mathématiques à un autre, à reformuler des éléments de démonstration en termes équivalents, à tenter une axiomatisation d’un objet (dans notre exemple, ce serait la notion d’espace vectoriel) qui regrouperait les deux domaines, … Dans ce dernier cas, ce nouvel objet deviendrait alors un objet d’étude par lui-même. Dans certains cas, l’identification d’objets a priori différents devient nécessaire : le langage des catégories permet de faire ce genre de choses.

Une autre méthode de recherche est la confrontation aux exemples et aux cas particuliers. Cette confrontation peut permettre de réfuter des propriétés qu’on pensait ou espérait être vraies (conjectures). Au contraire, elle peut permettre de vérifier des propriétés ou d’amener à les formaliser. Par exemple, en géométrie riemannienne, l’étude des surfaces (donc des objets en dimension 2) et de leurs géodésiques a finalement conduit Anosov à formaliser ce qui aujourd’hui est connu sous le nom de difféomorphisme d’Anosov, une transformation possédant d’intéressantes propriétés dynamiques.