Chaque liaison entre deux neurones stockerait l’équivalent de 4,7 bits, beaucoup plus que ce que l’on pensait jusqu’ici. À l’échelle d’un cerveau humain, le total correspondrait à quelque chose comme un pétaoctet, soit mille téraoctets. « Au moins », ajoutent des chercheurs qui ont fait une incroyable découverte en analysant un petit volume de cerveau de rat par une technique de microscopie électronique en 3D et à l’aide de modèles. Conclusion : les synapses sont plus efficaces que prévu.

Quelle quantité d’information peut stocker un cerveau ? La question est ardue car cet assemblage de quelque cent milliards de neurones chez un être humain est loin de fonctionner comme un ordinateur. Cependant, une équipe de l’Institut Salk, à San Diego, en Californie, a apporté un élément de réponse en analysant des cerveaux de rats dans la région de l’hippocampe – une zone impliquée dans la mémoire (par exemple pour celle des lieux connus, dans les « cellules de positionnement » et les « cellules de grille », dont la découverte a été récompensée par le prix Nobel de médecine 2014). Ils ont fait appel à une technique de reconstitution en 3D de coupes observées en microscopie électronique à balayage. À l’aide d’un ordinateur nourri avec un modèle, ils ont ainsi reconstruit un petit volume presque cubique de 6 microns de côté et ont étudié de très près les synapses, c’est-à-dire les points de contact entre deux neurones, car c’est là que tout se joue.

Petit plongeon dans le cerveau en action. Chaque neurone est connecté à des milliers d’autres par des synapses (des liaisons à sens unique) de l’axone de l’un (une sorte de câble), qui envoie l’information, à une dendrite de l’autre, qui la reçoit sur l'un de ses nombreux diverticules (les épines dendritiques). Ce sont elles qui portent les synapses, sortes de sacs emplis de molécules, les neuromédiateurs, intermédiaires chimiques qui transmettent le signal nerveux, de nature électrique. Deux neurones peuvent être en contact ou non (voilà une information binaire) mais, mieux, lorsqu’ils le sont, ils peuvent l’être plus ou moins. Une synapse est en effet plus ou moins puissante. C’est ainsi qu’est codée l’information dans notre cerveau. À force d’apprentissage, telle liaison se renforce alors que telle autre s’affaiblit.

(...)

 

Auteur de l'article original: Jean-Luc Goudet
Source: Futura-Sciences
Date de publication (dans la source mentionnée): Vendredi, 29. Janvier 2016
Photo: