Comment fonctionnent les neurones. Réseaux de neurones Réseau de neurones humains

Article pour le concours « bio/mol/texte » : Les processus cellulaires qui permettent l’échange d’informations entre neurones nécessitent beaucoup d’énergie. La consommation d'énergie élevée a contribué à la sélection des plus des mécanismes efficaces codage et transmission d’informations. Dans cet article, vous découvrirez approche théoriqueà l'étude de l'énergie cérébrale, son rôle dans la recherche en pathologie, quels neurones sont les plus avancés, pourquoi il est parfois bénéfique pour les synapses de ne pas « se déclencher », et aussi comment elles sélectionnent uniquement les informations dont le neurone a besoin.

Le sponsor général du concours est l'entreprise : le plus grand fournisseur d'équipements, de réactifs et de consommables pour la recherche et la production biologiques.


Le sponsor du prix du public et partenaire de la nomination « La biomédecine aujourd'hui et demain » était la société Invitro.


Sponsor "Livre" du concours - "Alpina Non-Fiction"

Origine de la démarche

Depuis le milieu du XXe siècle, on sait que le cerveau consomme une part importante des ressources énergétiques de l’organisme tout entier : un quart de tout le glucose et ⅕ de tout l’oxygène dans le cas des grands singes. Cela a inspiré William Levy et Robert Baxter du Massachusetts Institute of Technology (États-Unis) à mener une analyse théorique de l'efficacité énergétique de l'information codée dans les réseaux neuronaux biologiques (Fig. 1). L’étude repose sur l’hypothèse suivante. Étant donné que la consommation d'énergie du cerveau est élevée, il est avantageux pour lui d'avoir des neurones qui fonctionnent le plus efficacement : ils ne transmettent que des informations utiles et dépensent un minimum d'énergie.

Cette hypothèse s'est avérée vraie : à l'aide d'un simple modèle de réseau neuronal, les auteurs ont reproduit les valeurs mesurées expérimentalement de certains paramètres. En particulier, la fréquence optimale de génération d’impulsions calculée varie de 6 à 43 impulsions/s – presque la même que pour les neurones situés à la base de l’hippocampe. Ils peuvent être divisés en deux groupes selon la fréquence d'impulsion : lents (~10 impulsions/s) et rapides (~40 impulsions/s). De plus, le premier groupe est nettement plus nombreux que le second. Une image similaire est observée dans le cortex cérébral : il y a plusieurs fois plus de neurones pyramidaux lents (~4-9 impulsions/s) que d'interneurones inhibiteurs rapides (>100 impulsions/s). Ainsi, apparemment, le cerveau « préfère » utiliser moins de neurones rapides et énergivores afin qu’ils n’épuisent pas toutes leurs ressources.

Figure 1. Deux neurones sont représentés. Dans l'un d'eux violet La protéine présynaptique synaptophysine est colorée. Un autre neurone est complètement coloré protéine fluorescente verte. Petits points lumineux- les contacts synaptiques entre neurones. Dans l’encadré, un « point » est présenté de plus près.
Les groupes de neurones reliés par des synapses sont appelés les réseaux de neurones, . Par exemple, dans le cortex cérébral, les neurones pyramidaux et les interneurones forment de vastes réseaux. Le travail coordonné de « concert » de ces cellules détermine nos capacités cognitives supérieures et autres. Des réseaux similaires, constitués uniquement de différents types de neurones, sont répartis dans tout le cerveau, connectés d'une certaine manière et organisent le travail de tout l'organe.

Que sont les interneurones ?

Neurones du centre système nerveux sont divisées en activation (former des synapses activatrices) et inhibiteur (former des synapses inhibitrices). Ces derniers sont largement représentés interneurones , ou neurones intermédiaires. Dans le cortex cérébral et l'hippocampe, ils sont responsables de la formation de rythmes gamma dans le cerveau, qui assurent le travail coordonné et synchrone des autres neurones. Ceci est extrêmement important pour les fonctions motrices, la perception des informations sensorielles, la formation de la mémoire.

Rechercher l'optimum

En fait, nous parlons d'un problème d'optimisation : trouver le maximum d'une fonction et déterminer les paramètres sous lesquels il est atteint. Dans notre cas, la fonction est le rapport de la quantité informations utiles aux coûts énergétiques. La quantité d'informations utiles peut être calculée approximativement à l'aide de la formule de Shannon, largement utilisée en théorie de l'information. Il existe deux méthodes pour calculer les coûts énergétiques, et toutes deux donnent des résultats plausibles. L'une d'elles - la « méthode de comptage d'ions » - est basée sur le comptage du nombre d'ions Na + qui sont entrés dans le neurone lors d'un événement de signalisation particulier (AP ou PSP, voir encadré « Qu'est-ce qu'un potentiel d'action") suivi d'une conversion en nombre de molécules l'adénosine triphosphate (ATP), la principale « monnaie » énergétique des cellules. La seconde est basée sur la description des courants ioniques à travers la membrane selon les lois de l'électronique et permet de calculer la puissance équivalente circuit électrique neurone, qui se traduit ensuite en dépense d’ATP.

Ces valeurs de paramètres « optimales » doivent ensuite être comparées à celles mesurées expérimentalement pour déterminer à quel point elles sont différentes. L’image globale des différences indiquera le degré optimisation d'un neurone donné dans son ensemble : dans quelle mesure les valeurs réelles, mesurées expérimentalement, des paramètres coïncident avec celles calculées. Moins les différences sont prononcées, plus le neurone est proche de l’optimum et plus il fonctionne énergétiquement de manière optimale. En revanche, une comparaison de paramètres spécifiques montrera en quelle qualité spécifique ce neurone est proche de « l'idéal ».

Ensuite, dans le contexte de l’efficacité énergétique des neurones, sont considérés deux processus sur lesquels reposent l’encodage et la transmission de l’information dans le cerveau. Il s'agit d'un influx nerveux, ou potentiel d'action, par lequel des informations peuvent être transmises. envoyé« destinataire » à une certaine distance (du micromètre à un mètre et demi) et la transmission synaptique qui sous-tend la communication réelle transferts signal d’un neurone à un autre.

Potentiel d'action

Potentiel d'action (PD) - un signal que les neurones s'envoient les uns aux autres. Les PD sont différents : rapides et lents, petits et grands. Ils sont souvent organisés en longues séquences (comme des lettres dans des mots) ou en courts « packs » à haute fréquence (Fig. 2).

Figure 2. Différents types de neurones génèrent différents signaux. Dans le centre- coupe longitudinale du cerveau d'un mammifère. Les inserts présentent différents types de signaux enregistrés par des méthodes d'électrophysiologie. UN - Corticale ( Cortex cérébral) les neurones pyramidaux peuvent transmettre à la fois des signaux basse fréquence ( Tirs réguliers), et de courts signaux explosifs ou éclatés ( Tir en rafale). b - Pour les cellules de Purkinje du cervelet ( Cervelet) se caractérise uniquement par une activité de rafale à très haute fréquence. V - Neurones relais du thalamus ( Thalamus) ont deux modes d'activité : burst et tonique ( Cuisson tonique). g - Neurones de la partie médiane de la laisse ( MHb, Habénula médiale) l'épithalamus génère des signaux toniques basse fréquence.

Qu'est-ce qu'un potentiel d'action ?

  1. Membrane et ions. La membrane plasmique d'un neurone maintient une répartition inégale des substances entre la cellule et l'environnement extracellulaire (Fig. 3 b) . Parmi ces substances, il existe également de petits ions, parmi lesquels K + et Na + sont importants pour décrire la PD.
    Il y a peu d’ions Na+ à l’intérieur de la cellule, mais beaucoup à l’extérieur. Pour cette raison, ils s'efforcent constamment d'entrer dans la cage. Au contraire, il y a beaucoup d’ions K+ à l’intérieur de la cellule, et ils s’efforcent d’en sortir. Les ions ne peuvent pas le faire seuls, car la membrane leur est imperméable. Pour que les ions traversent la membrane, il est nécessaire d'ouvrir des protéines spéciales - canaux ioniques membranes.
  2. Figure 3. Neurone, canaux ioniques et potentiel d'action. UN - Reconstruction d'une cellule candélabre dans le cortex cérébral du rat. Bleu les dendrites et le corps des neurones sont colorés (tache bleue au centre), rouge- axone (dans de nombreux types de neurones, l'axone est bien plus ramifié que les dendrites). Légumes verts Et flèches pourpres indiquer le sens du flux d'information : les dendrites et le corps du neurone la reçoivent, l'axone l'envoie à d'autres neurones. b - La membrane d'un neurone, comme toute autre cellule, contient des canaux ioniques. Tasses vertes- les ions Na+, bleu-Ions K+. V - Modification du potentiel membranaire lors de la génération d'un potentiel d'action (PA) par un neurone de Purkinje. Zone verte: Les canaux Na sont ouverts, les ions Na + pénètrent dans le neurone et une dépolarisation se produit. Zone bleue : Les canaux K sont ouverts, K+ sort, une repolarisation se produit. Le chevauchement des régions vertes et bleues correspond à la période où se produit simultanément l'entrée de Na + et la sortie de K +.

  3. Canaux ioniques. La variété des chaînes est énorme. Certains s'ouvrent en réponse à un changement du potentiel membranaire, d'autres - lors de la liaison d'un ligand (un neurotransmetteur dans une synapse, par exemple), d'autres - à la suite de modifications mécaniques de la membrane, etc. L'ouverture d'un canal implique une modification de sa structure, ce qui permet aux ions de le traverser. Certains canaux ne laissent passer qu’un certain type d’ions, tandis que d’autres se caractérisent par une conductivité mixte.
    Dans la génération de PA, un rôle clé est joué par les canaux qui « détectent » le potentiel membranaire - dépendant de la tension canaux ioniques. Ils s'ouvrent en réponse aux changements du potentiel membranaire. Parmi eux, nous nous intéressons aux canaux sodium voltage-dépendants (canaux Na), qui laissent passer uniquement les ions Na+, et aux canaux potassiques voltage-dépendants (canaux K), qui laissent passer uniquement les ions K+.
  4. AP est un changement progressif d'amplitude relativement fort du potentiel de membrane.

  5. Courant ionique et PD. La base de la PD est le courant ionique - le mouvement des ions à travers les canaux ioniques de la membrane. Puisque les ions sont chargés, leur courant entraîne une modification de la charge nette à l’intérieur et à l’extérieur du neurone, ce qui entraîne immédiatement une modification du potentiel membranaire.
    En règle générale, la génération de PA se produit dans le segment initial de l'axone, dans la partie adjacente au corps neuronal. De nombreux canaux Na sont concentrés ici. S'ils s'ouvrent, un puissant courant d'ions Na + s'engouffrera dans l'axone, et dépolarisation membranes - diminution du potentiel membranaire de valeur absolue(Fig. 3 V). Ensuite, vous devez revenir à sa valeur d'origine - repolarisation. Les ions K + en sont responsables. Lorsque les canaux K s'ouvrent (peu avant le maximum d'AP), les ions K+ commenceront à quitter la cellule et à repolariser la membrane.
    La dépolarisation et la repolarisation sont les deux phases principales de l'AP. En plus d'eux, il y en a plusieurs autres qui, faute de nécessité, ne sont pas pris en compte ici. Description détaillée La génération PD peut être trouvée dans ,. Brève description PD est également disponible dans les articles sur Biomolécule.
  6. Segment axonal initial et initiation AP. Qu’est-ce qui provoque l’ouverture des canaux Na au niveau du segment initial de l’axone ? Encore une fois, le changement de potentiel membranaire « venant » le long des dendrites du neurone (Fig. 3 UN). Ce - potentiels postsynaptiques (PSP), résultant de la transmission synaptique. Ce processus est expliqué plus en détail dans le texte principal.
  7. Réalisation du PD. Les canaux Na situés à proximité seront indifférents à l'AP dans le segment initial de l'axone. Eux aussi s'ouvriront en réponse à ce changement de potentiel membranaire, ce qui provoquera également une PA. Cette dernière, à son tour, provoquera une « réaction » similaire sur la section suivante de l’axone, de plus en plus éloignée du corps neuronal, et ainsi de suite. Il arrive ainsi réalisation AP le long de l'axone, . Finalement, il atteindra ses terminaisons présynaptiques ( flèches pourpres En figue. 3 UN), où il peut provoquer une transmission synaptique.
  8. La consommation d'énergie pour la génération des AP est inférieure à celle pour le fonctionnement des synapses. Combien de molécules d’adénosine triphosphate (ATP), la principale « monnaie » énergétique, coûte la DP ? Selon une estimation, pour les neurones pyramidaux du cortex cérébral du rat, la consommation d'énergie pour générer 4 AP par seconde représente environ les ⅕ de la consommation d'énergie totale du neurone. Si l’on prend en compte d’autres processus de signalisation, notamment la transmission synaptique, la part sera de ⅘. Pour le cortex cérébelleux, responsable des fonctions motrices, la situation est similaire : la consommation d'énergie pour générer le signal de sortie est de 15 % du total, et environ la moitié est destinée au traitement des informations d'entrée. Ainsi, la DP est loin d’être le processus le plus énergivore. Le travail de la synapse nécessite plusieurs fois plus d'énergie. Cependant, cela ne signifie pas que le processus de génération de PD ne présente pas de caractéristiques d’efficacité énergétique.

Analyse différents types neurones (Fig. 4) a montré que les neurones des invertébrés ne sont pas très économes en énergie, alors que certains neurones des vertébrés sont presque parfaits. Selon les résultats de cette étude, les interneurones de l'hippocampe, impliqués dans la formation de la mémoire et des émotions, ainsi que les neurones relais thalamocorticaux, qui transportent le principal flux d'informations sensorielles du thalamus vers le cortex cérébral, étaient les plus économes en énergie.

Figure 4. Différents neurones sont efficaces de différentes manières. La figure montre une comparaison de la consommation énergétique de différents types de neurones. La consommation d'énergie est calculée dans les modèles comme avec les valeurs initiales (réelles) des paramètres ( colonnes noires), et avec des optimaux, dans lesquels, d'une part, le neurone remplit la fonction qui lui est assignée, d'autre part, il dépense un minimum d'énergie ( colonnes grises). Les plus efficaces parmi ceux présentés se sont avérés être deux types de neurones vertébrés : les interneurones de l'hippocampe ( interneurone hippocampique de rat, IRR) et les neurones thalamocorticaux ( cellule relais thalamocorticale de souris, MTCR), puisque pour eux la consommation d'énergie du modèle d'origine est la plus proche de la consommation d'énergie du modèle optimisé. En revanche, les neurones des invertébrés sont moins efficaces. Légende: S.A. (axone de calmar) - axone géant du calmar ; CALIFORNIE. (axone du crabe) - axone du crabe ; MFS (interneurone cortical à dopage rapide de souris) - interneurone cortical rapide de souris ; B.K. (Corps de champignon d'abeille Cellule de Kenyon) - Cellule de champignon Kenyon d'une abeille.

Pourquoi sont-ils plus efficaces ? Parce qu'ils ont peu de chevauchement des courants Na et K. Au cours de la génération de PD, il y a toujours une période de temps pendant laquelle ces courants sont présents simultanément (Fig. 3 V). Dans ce cas, pratiquement aucun transfert de charge ne se produit et la modification du potentiel membranaire est minime. Mais dans tous les cas, il faut « payer » ces courants, malgré leur « inutilité » pendant cette période. Par conséquent, sa durée détermine combien de temps ressources énergétiques est gâché. Plus il est court, plus l’utilisation de l’énergie est efficace. Plus c'est long, moins c'est efficace. Uniquement dans les deux types de neurones mentionnés ci-dessus, grâce aux canaux ioniques rapides, cette période est très courte et les AP sont les plus efficaces.

À propos, les interneurones sont beaucoup plus actifs que la plupart des autres neurones du cerveau. En même temps, ils sont extrêmement importants pour le travail coordonné et synchrone des neurones, avec lesquels ils forment de petits réseaux locaux. L'efficacité énergétique élevée des interneurones AP est probablement une sorte d'adaptation à leur activité élevée et à leur rôle dans la coordination du travail d'autres neurones.

Synapse

La transmission d'un signal d'un neurone à un autre se produit lors d'un contact spécial entre neurones, dans synapse . Nous considérerons seulement synapses chimiques (y a-t-il d'autres électrique), car ils sont très courants dans le système nerveux et sont importants pour la régulation du métabolisme cellulaire et de l’apport de nutriments.

À l'extrémité présynaptique de l'axone, l'AP provoque la libération d'un neurotransmetteur dans l'environnement extracellulaire – vers le neurone récepteur. Ce dernier attend cela avec impatience : dans la membrane des dendrites, des récepteurs - des canaux ioniques d'un certain type - se lient au neurotransmetteur, s'ouvrent et laissent passer différents ions. Cela conduit à la génération d'un petit potentiel post-synaptique(PSP) sur la membrane dendritique. Il ressemble à AP, mais son amplitude est beaucoup plus petite et se produit en raison de l'ouverture d'autres canaux. Beaucoup de ces petites PSP, chacune à partir de sa propre synapse, « courent » le long de la membrane dendritique jusqu'au corps neuronal ( flèches vertes En figue. 3 UN) et atteignent le segment initial de l'axone, où ils provoquent l'ouverture des canaux Na et la « provoquent » pour générer des PA.

Ces synapses sont appelées passionnant : Ils favorisent l'activation des neurones et la génération d'AP. Il y a aussi inhibiteur synapses. Ils favorisent au contraire l’inhibition et empêchent la génération de PA. Souvent, un neurone possède les deux synapses. Un certain rapport entre inhibition et excitation est important pour le fonctionnement normal du cerveau et la formation des rythmes cérébraux qui accompagnent les fonctions cognitives supérieures.

Curieusement, la libération d'un neurotransmetteur au niveau de la synapse peut ne pas se produire du tout - il s'agit d'un processus probabiliste. Les neurones économisent ainsi de l'énergie : la transmission synaptique représente déjà environ la moitié de toute la dépense énergétique des neurones. Si les synapses fonctionnaient toujours, toute l’énergie serait consacrée à leur fonctionnement et il n’y aurait plus de ressources pour d’autres processus. De plus, c'est la faible probabilité (20 à 40 %) de libération de neurotransmetteurs qui correspond à l'efficacité énergétique la plus élevée des synapses. Le rapport entre la quantité d'informations utiles et l'énergie dépensée dans ce cas est maximum, . Il s'avère donc que les « échecs » jouent un rôle important dans le fonctionnement des synapses et, par conséquent, de l'ensemble du cerveau. Et vous n’avez pas à vous soucier de la transmission du signal lorsque les synapses ne fonctionnent parfois pas, car il existe généralement de nombreuses synapses entre les neurones, et au moins l’une d’entre elles fonctionnera.

Une autre caractéristique de la transmission synaptique est la division du flux général d'informations en composants individuels en fonction de la fréquence de modulation du signal entrant (en gros, la fréquence des AP entrants). Cela se produit en raison de la combinaison de différents récepteurs sur la membrane postsynaptique. Certains récepteurs s'activent très rapidement : par ex. Récepteurs AMPA (AMPA vient de α- un mino-3-hydroxy-5- m éthyl-4-isoxazole p ropionique un cid). Si seuls de tels récepteurs sont présents sur le neurone postsynaptique, celui-ci peut clairement percevoir un signal haute fréquence (comme, par exemple, sur la Fig. 2). V). L'exemple le plus clair- les neurones du système auditif impliqués dans la détermination de l'emplacement de la source sonore et la reconnaissance précise sons courts type de clic, largement représenté dans le discours. Récepteurs NMDA (NMDA - de N -m éthyle- D -un spartate) sont plus lents. Ils permettent aux neurones de sélectionner des signaux de fréquence inférieure (Fig. 2 g), et perçoivent également une série de potentiels d'action à haute fréquence comme quelque chose d'unifié - ce qu'on appelle l'intégration des signaux synaptiques. Il existe des récepteurs métabotropiques encore plus lents qui, lorsqu'ils se lient à un neurotransmetteur, transmettent un signal à une chaîne de « seconds messagers » intracellulaires pour ajuster une grande variété de processus cellulaires. Par exemple, les récepteurs associés aux protéines G sont très répandus. Selon leur type, ils régulent par exemple le nombre de canaux dans la membrane ou modulent directement leur fonctionnement.

Diverses combinaisons de récepteurs AMPA rapides, NMDA plus lents et métabotropiques permettent aux neurones de sélectionner et d'utiliser les informations qui leur sont les plus utiles et importantes pour leur fonctionnement. Et les informations « inutiles » sont éliminées ; elles ne sont pas « perçues » par le neurone. Dans ce cas, vous n’avez pas à gaspiller d’énergie pour traiter des informations inutiles. C’est un autre aspect de l’optimisation de la transmission synaptique entre neurones.

Quoi d'autre?

L’efficacité énergétique des cellules cérébrales est également étudiée en relation avec leur morphologie. La recherche montre que la ramification des dendrites et des axones n’est pas chaotique et permet également d’économiser de l’énergie. Par exemple, un axone se ramifie de telle sorte que la longueur totale du chemin qui traverse le PA est minime. Dans ce cas, la consommation d'énergie pour conduire l'AP le long de l'axone est minime.

Une réduction de la consommation d'énergie des neurones est également obtenue à un certain rapport de synapses inhibitrices et excitatrices. Cela a une incidence directe sur, par exemple, ischémie(un état pathologique causé par une altération du flux sanguin dans les vaisseaux) du cerveau. Avec cette pathologie, il est fort probable que les neurones les plus métaboliquement actifs soient les premiers à échouer. Dans le cortex, ils sont représentés par des interneurones inhibiteurs qui forment des synapses inhibitrices sur de nombreux autres neurones pyramidaux. À la suite de la mort des interneurones, l'inhibition des neurones pyramidaux diminue. En conséquence, cela augmente niveau général activité de ces derniers (en activant les synapses qui se déclenchent plus souvent, les AP sont générés plus souvent). Ceci est immédiatement suivi d'une augmentation de leur consommation d'énergie, ce qui, dans des conditions ischémiques, peut entraîner la mort des neurones.

Lors de l'étude des pathologies, l'attention est portée à la transmission synaptique comme le processus le plus consommateur d'énergie. Par exemple, dans les maladies de Parkinson, de Huntington et d'Alzheimer, il y a une perturbation du fonctionnement ou du transport vers les synapses des mitochondries, qui jouent un rôle majeur dans Synthèse d'ATP, . Dans le cas de la maladie de Parkinson, cela peut être dû à la perturbation et à la mort des neurones de la substance noire, très consommateurs d'énergie, importants pour la régulation des fonctions motrices et du tonus musculaire. Dans la maladie de Huntington, la protéine mutante huntingtine perturbe les mécanismes d'acheminement des nouvelles mitochondries vers les synapses, ce qui entraîne une « famine énergétique » de ces dernières, une vulnérabilité accrue des neurones et une activation excessive. Tout cela peut provoquer une perturbation supplémentaire de la fonction neuronale, entraînant une atrophie du striatum et du cortex cérébral. Dans la maladie d'Alzheimer, un dysfonctionnement mitochondrial (parallèle à une diminution du nombre de synapses) se produit en raison du dépôt de plaques amyloïdes. L'effet de ces derniers sur les mitochondries entraîne un stress oxydatif, ainsi que l'apoptose - la mort cellulaire des neurones.

Encore une fois sur tout

À la fin du XXe siècle, une approche de l'étude du cerveau est apparue dans laquelle deux caractéristiques importantes: combien de neurones (ou réseau neuronal, ou synapse) codent et transmettent des informations utiles et combien d'énergie il dépense, . Leur rapport est une sorte de critère d'efficacité énergétique des neurones, des réseaux de neurones et des synapses.

L'utilisation de ce critère en neurobiologie computationnelle a permis une augmentation significative des connaissances sur le rôle de certains phénomènes, processus, . En particulier, la faible probabilité de libération d'un neurotransmetteur au niveau de la synapse, un certain équilibre entre l'inhibition et l'excitation d'un neurone, la sélection d'un seul type d'informations entrantes en raison d'une certaine combinaison de récepteurs - tout cela permet d'économiser de précieuses ressources énergétiques. .

De plus, la détermination même de la consommation énergétique des processus de signalisation (par exemple génération, conduction des potentiels d'action, transmission synaptique) permet de savoir lequel d'entre eux souffrira en premier en cas de perturbation pathologique de l'apport de nutriments. Comme le fonctionnement des synapses nécessite le plus d'énergie, elles sont les premières à échouer dans des pathologies telles que l'ischémie, la maladie d'Alzheimer et la maladie de Huntington. De la même manière, déterminer la consommation énergétique de différents types de neurones permet de déterminer lesquels d’entre eux mourront avant les autres en cas de pathologie. Par exemple, avec la même ischémie, les interneurones du cortex tomberont en panne en premier. Ces mêmes neurones, de par leur métabolisme intense, sont les cellules les plus vulnérables lors du vieillissement, de la maladie d'Alzheimer et de la schizophrénie.

Remerciements

Je remercie sincèrement mes parents Olga Natalevich et Alexander Zhukov, mes sœurs Lyuba et Alena, mon superviseur scientifique Alexey Brazhe et mes merveilleuses amies de laboratoire Evelina Nikelsparg et Olga Slatinskaya pour leur soutien et leur inspiration, leurs précieux commentaires formulés lors de la lecture de l'article. Je suis également très reconnaissant à la rédactrice en chef de l'article, Anna Petrenko, et au rédacteur en chef de Biomolecules, Anton Chugunov, pour leurs notes, suggestions et commentaires.

Littérature

  1. Cerveau vorace ;
  2. SEYMOUR S. KETY. (1957). LE MÉTABOLISME GÉNÉRAL DU CERVEAU IN VIVO. Métabolisme du système nerveux. 221-237;
  3. L. Sokoloff, M. Reivich, C. Kennedy, MH Des Rosiers, CS Patlak, et. al. (1977). LA MÉTHODE DÉSOXYGLUCOSE POUR LA MESURE DE L'UTILISATION LOCALE DU GLUCOSE CÉRÉBRAL : THÉORIE, PROCÉDURE ET VALEURS NORMALES CHEZ LE RAT ALBINOS CONSCIENT ET ANESTHÉTISÉ. J Neurochem. 28 , 897-916;
  4. Magistretti P.J. (2008). Métabolisme énergétique cérébral. Dans Neurosciences fondamentales // Ed by. Squire L.R., Berg D., Bloom FE, du Lac S., Ghosh A., Spitzer N. San Diego : Academic Press, 2008. P. 271-297 ;
  5. Pierre J. Magistretti, Igor Allaman. (2015). Une perspective cellulaire sur le métabolisme énergétique cérébral et l'imagerie fonctionnelle. Neurone. 86 , 883-901;
  6. William B. Levy, Robert A. Baxter. (1996). Codes neuronaux économes en énergie. Calcul neuronal. 8 , 531-543;
  7. P.E. pointu et Green C. (1994). Corrélats spatiaux des modèles de tir de cellules individuelles dans le subiculum du rat en mouvement libre. J. Neurosci. 14 , 2339–2356;
  8. H. Hu, J. Gan, P. Jonas. (2014). Interneurones parvalbumine+ GABAergiques à pointe rapide : de la conception cellulaire au fonctionnement des microcircuits. Science. 345 , 1255263-1255263;
  9. Oliver Kann, Ismini et Papageorgiou, Andreas Draguhn. (2014). Les interneurones inhibiteurs hautement énergétiques sont un élément central du traitement de l’information dans les réseaux corticaux. Métab du flux sanguin J Cereb. 34 , 1270-1282;
  10. David Attwell, Simon B. Laughlin. (2001). Un budget énergétique pour la signalisation dans la matière grise du cerveau. Métab du flux sanguin J Cereb. 21 , 1133-1145;
  11. Henry Markram, Maria Toledo-Rodriguez, Yun Wang, Anirudh Gupta, Gilad Silberberg, Caizhi Wu. (2004).

Intelligence artificielle, réseaux de neurones, apprentissage automatique : que signifient réellement tous ces concepts actuellement populaires ? Pour la plupart des non-initiés, dont je suis moi-même, ils ont toujours semblé fantastiques, mais en réalité, leur essence réside en surface. J'ai depuis longtemps l'idée d'écrire dans un langage simple sur les réseaux de neurones artificiels. Découvrez par vous-même et dites aux autres ce qu'est cette technologie, comment elle fonctionne, réfléchissez à son histoire et à ses perspectives. Dans cet article, j'ai essayé de ne pas entrer dans le vif du sujet, mais d'en parler simplement et populairement. direction prometteuse dans le monde de la haute technologie.

Un peu d'histoire

Pour la première fois, le concept de réseaux de neurones artificiels (ANN) est apparu dans le but de simuler les processus cérébraux. La première avancée majeure dans ce domaine peut être considérée comme la création du modèle de réseau neuronal McCulloch-Pitts en 1943. Les scientifiques ont développé pour la première fois un modèle de neurone artificiel. Ils ont également proposé la conception d'un réseau de ces éléments pour effectuer des opérations logiques. Mais surtout, les scientifiques ont prouvé qu’un tel réseau est capable d’apprendre.

La prochaine étape importante fut le développement par Donald Hebb du premier algorithme de calcul de l'ANN en 1949, qui devint fondamental pendant plusieurs décennies suivantes. En 1958, Frank Rosenblatt a développé le parceptron, un système qui imite les processus cérébraux. À une certaine époque, cette technologie n’avait pas d’équivalent et reste aujourd’hui fondamentale dans les réseaux de neurones. En 1986, presque simultanément, indépendamment les uns des autres, des scientifiques américains et soviétiques ont considérablement amélioré la méthode fondamentale de formation d'un perceptron multicouche. En 2007, les réseaux de neurones connaissent une renaissance. L'informaticien britannique Geoffrey Hinton a été le premier à développer un algorithme d'apprentissage profond pour les réseaux neuronaux multicouches, qui est désormais utilisé, par exemple, pour faire fonctionner des voitures autonomes.

En bref sur l'essentiel

DANS dans un sens général En d’autres termes, les réseaux neuronaux sont des modèles mathématiques qui fonctionnent sur le principe des réseaux de cellules nerveuses dans un organisme animal. Les ANN peuvent être implémentés dans des solutions programmables et matérielles. Pour faciliter la compréhension, un neurone peut être considéré comme une cellule possédant de nombreux trous d’entrée et un trou de sortie. La manière dont plusieurs signaux entrants sont transformés en un signal de sortie est déterminée par l'algorithme de calcul. Des valeurs efficaces sont fournies à chaque entrée neuronale, qui sont ensuite distribuées le long des connexions interneurones (synopsis). Les synapses ont un paramètre - le poids, grâce auquel les informations d'entrée changent lors du passage d'un neurone à un autre. La façon la plus simple d'imaginer le principe de fonctionnement des réseaux de neurones est de mélanger les couleurs. Les neurones bleus, verts et rouges ont des poids différents. L’information du neurone dont le poids est le plus élevé sera dominante dans le neurone suivant.

Le réseau neuronal lui-même est un système composé de nombreux neurones (processeurs). Individuellement, ces processeurs sont assez simples (beaucoup plus simples qu'un ordinateur personnel), mais lorsqu’ils sont connectés à un grand système, les neurones sont capables d’effectuer des tâches très complexes.

Selon le domaine d'application, un réseau de neurones peut être interprété de différentes manières. Par exemple, du point de vue de l'apprentissage automatique, un ANN est une méthode de reconnaissance de formes. D'un point de vue mathématique, il s'agit d'un problème multiparamétrique. Du point de vue de la cybernétique - un modèle de contrôle adaptatif de la robotique. Pour l’intelligence artificielle, l’ANN est un composant fondamental pour modéliser l’intelligence naturelle à l’aide d’algorithmes informatiques.

Le principal avantage des réseaux de neurones par rapport aux algorithmes informatiques conventionnels réside dans leur capacité à apprendre. Au sens général du terme, l'apprentissage consiste à trouver les coefficients de couplage corrects entre les neurones, ainsi qu'à résumer les données et à identifier les dépendances complexes entre les signaux d'entrée et de sortie. En fait, une formation réussie d'un réseau neuronal signifie que le système sera capable d'identifier le résultat correct sur la base de données qui ne figurent pas dans l'ensemble de formation.

Situation actuelle

Et aussi prometteuse que puisse être cette technologie, les ANN sont encore très loin des capacités du cerveau et de la pensée humains. Pourtant, les réseaux de neurones sont déjà utilisés dans de nombreux domaines de l’activité humaine. Jusqu'à présent, ils ne sont pas capables de prendre des décisions très intelligentes, mais ils sont capables de remplacer une personne là où elle était auparavant nécessaire. Parmi les nombreux domaines d'application d'ANN, on peut noter : la création de systèmes de processus de production auto-apprenants, de véhicules sans pilote, de systèmes de reconnaissance d'images, de systèmes de sécurité intelligents, de robotique, de systèmes de contrôle de la qualité, d'interfaces d'interaction vocale, de systèmes d'analyse et bien plus encore. Cette utilisation généralisée des réseaux de neurones est, entre autres, due à l'émergence de de diverses façons accélérer la formation ANN.

Aujourd'hui, le marché des réseaux de neurones est énorme : il se chiffre en milliards et en milliards de dollars. Comme le montre la pratique, la plupart des technologies de réseaux neuronaux dans le monde diffèrent peu les unes des autres. Cependant, l’utilisation des réseaux de neurones est une activité très coûteuse, qui, dans la plupart des cas, ne peut être financée que par les grandes entreprises. Le développement, la formation et les tests de réseaux neuronaux nécessitent une grande puissance de calcul, et il est évident que les grands acteurs du marché informatique en disposent en abondance. Parmi les principales entreprises à la pointe des développements dans ce domaine figurent la division Google DeepMind, la division Microsoft Research, IBM, Facebook et Baidu.

Bien sûr, tout cela est bien : les réseaux de neurones se développent, le marché se développe, mais jusqu'à présent le principal problème n'est pas résolu. L’humanité n’a pas réussi à créer une technologie approchant même les capacités du cerveau humain. Examinons les principales différences entre le cerveau humain et les réseaux de neurones artificiels.

Pourquoi les réseaux de neurones sont-ils encore loin du cerveau humain ?

La différence la plus importante, qui change radicalement le principe et l'efficacité du système, réside dans la transmission différente des signaux dans les réseaux de neurones artificiels et dans un réseau biologique de neurones. Le fait est que dans un ANN, les neurones transmettent des valeurs qui sont des valeurs réelles, c'est-à-dire des nombres. Dans le cerveau humain, les impulsions sont transmises avec une amplitude fixe et ces impulsions sont presque instantanées. Cela conduit à un certain nombre d’avantages du réseau de neurones humain.

Premièrement, les lignes de communication dans le cerveau sont beaucoup plus efficaces et économiques que celles du RNA. Deuxièmement, le circuit d'impulsions assure la facilité de mise en œuvre de la technologie : il suffit d'utiliser des circuits analogiques au lieu de mécanismes informatiques complexes. En fin de compte, les réseaux pulsés sont insensibles aux interférences audio. Les nombres réels sont sujets au bruit, ce qui augmente le risque d'erreurs.

Conclusion

Bien entendu, au cours de la dernière décennie, le développement des réseaux de neurones a connu un véritable essor. Cela est principalement dû au fait que le processus de formation ANN est devenu beaucoup plus rapide et plus simple. Les réseaux neuronaux dits « pré-entraînés » ont également commencé à être activement développés, ce qui peut accélérer considérablement le processus d'introduction de la technologie. Et s'il est trop tôt pour dire si les réseaux de neurones seront un jour capables de reproduire pleinement les capacités du cerveau humain, la probabilité que dans la prochaine décennie les ANN soient capables de remplacer les humains dans un quart des métiers existants se confirme de plus en plus. .

Pour ceux qui veulent en savoir plus

  • La grande guerre neuronale : ce que Google prépare réellement
  • Comment les ordinateurs cognitifs pourraient changer notre avenir

Un réseau neuronal artificiel est un modèle qui imite le travail des cellules nerveuses d'un organisme vivant et constitue un système de neurones artificiels connectés et interagissant. Un neurone artificiel simplifie le fonctionnement d'un neurone biologique. Chaque neurone artificiel possède un ensemble d'entrées qui transmettent des signaux d'entrée d'intensité différente, un corps constitué d'un additionneur et d'une fonction d'activation, et une sortie unique dont l'intensité du signal est le résultat du traitement des signaux d'entrée.

Généralement, les réseaux de neurones artificiels sont modélisés couche par couche : la première couche de neurones reçoit les données d'entrée, puis une ou plusieurs couches cachées sont utilisées, et enfin la couche de sortie affiche le résultat. Revenant à l'exemple avec la reconnaissance de chiffres : si l'on prend le nombre de caractéristiques de l'ordre de 100, alors la couche d'entrée sera composée de 100 neurones, puis plusieurs couches cachées du réseau neuronal suivront, et la couche de sortie pourra contenir 10 neurones. . Cet agencement simple et élégant d'unités de calcul assez primitives, associé à des méthodes de formation spéciales, ouvre de grandes possibilités pour le traitement des données.

Comment sont-ils formés ?

Formation avec un professeur. Dans ce cas, le réseau est alimenté en entrée par les données d’un certain ensemble de formation. Dans notre exemple, ce sont des caractéristiques d'objets qui sont converties en intensité du signal des neurones d'entrée. Les signaux sont ensuite résumés et activent les neurones cachés. Ce processus est répété couche par couche jusqu'à ce que la couche de sortie du réseau neuronal soit atteinte. Les signaux neuronaux peuvent être interprétés comme une réponse à une certaine question, par exemple celle de savoir si une image appartient à une certaine classe. Si cette réponse est correcte, passez à l'échantillon suivant, sinon le processus de rétropropagation de l'erreur se produit. Cela peut être interprété comme suit : le professeur a donné sa note pour cette réponse, et vous devez apprendre une nouvelle règle. Si les paramètres du réseau neuronal sont sélectionnés correctement, alors, après avoir traité un nombre suffisant d'échantillons d'apprentissage en entrée, le réseau neuronal devient capable de classer des objets inconnus. Dans notre exemple, nous pouvons collecter des images de nombres de 0 à 9, écrits plusieurs fois et personnes différentes. Ce sera un ensemble de formation. Il est divisé en deux parties : l'une est utilisée pour former le classificateur et la seconde - l'ensemble de contrôle - pour vérifier la qualité du travail du classificateur et calculer les erreurs.

Apprendre sans professeur. Lorsqu'un nouvel échantillon de données arrive, le réseau neuronal essaie de trouver l'échantillon le plus « similaire » parmi ceux traités précédemment et « unifie » son idée de l'ensemble du groupe d'échantillons. Si quelque chose de vraiment unique est rencontré, cela peut être interprété comme le réseau sélectionnant un nouveau cluster. Personne ne contrôle le résultat ici. Ceci est utilisé pour faire une estimation approximative de la structure des données. Autrement dit, nous avons montré au réseau 10 000 images de nombres manuscrits, et il a déclaré qu'il pouvait les diviser grossièrement en 20 à 30 types d'objets différents. Est-ce vrai? Peut-être à juste titre, elle a saisi les modèles d’écriture manuscrite et les particularités de l’écriture des chiffres. Pouvons-nous utiliser cela en pratique ? Pas toujours, après tout, pour reconnaître les nombres, nous devons limiter l’imagination du classificateur à 10 classes de nombres. L'apprentissage non supervisé est utilisé pour trouver des dépendances dans de grands volumes de données brutes et non systématiques. Par exemple, en médecine. Il existe un grand nombre de caractéristiques de chaque patient : taux de sucre dans le sang, tension artérielle, taille, poids, âge, mauvaises habitudes, maladies héréditaires. L'identification manuelle des modèles est très difficile et prend du temps. L'analyse des données suggère donc que les maladies cardiovasculaires peuvent être associées à la prise de certains médicaments, etc.

Les connexions neuronales dans le cerveau entraînent des comportements complexes. Les neurones sont de petites machines informatiques qui ne peuvent exercer une influence que lorsqu’elles sont mises en réseau.

Le contrôle des éléments les plus simples du comportement (par exemple, les réflexes) ne nécessite pas un grand nombre de neurones, mais même les réflexes s'accompagnent souvent de la conscience qu'a une personne du déclenchement du réflexe. La perception consciente des stimuli sensoriels (et de toutes les fonctions supérieures du système nerveux) dépend d'un grand nombre de connexions entre les neurones.

Les connexions neuronales font de nous ce que nous sommes. Leur qualité affecte le fonctionnement des organes internes, les capacités intellectuelles et la stabilité émotionnelle.

"Câblage"

Les connexions neuronales du cerveau constituent le câblage du système nerveux. Le fonctionnement du système nerveux repose sur la capacité d’un neurone à percevoir, traiter et transmettre des informations à d’autres cellules.

L'information est transmise à travers le comportement humain et le fonctionnement de son corps dépend entièrement de la transmission et de la réception d'impulsions par les neurones à travers des processus.

Un neurone possède deux types de processus : l’axone et la dendrite. Un neurone a toujours un axone ; c'est à travers lui qu'il transmet les impulsions aux autres cellules. Il reçoit une impulsion via les dendrites, qui peuvent être plusieurs.

De nombreux (parfois des dizaines de milliers) axones d’autres neurones sont « connectés » aux dendrites. La dendrite et l'axone entrent en contact via une synapse.

Neurone et synapses

L'espace entre la dendrite et l'axone est une synapse. Parce que l'axone est la « source » de l'influx, la dendrite est le « récepteur », et la fente synaptique est le lieu d'interaction : le neurone d'où provient l'axone est dit présynaptique ; le neurone d'où provient la dendrite est postsynaptique.

Des synapses peuvent se former entre un axone et un corps neuronal, ainsi qu'entre deux axones ou deux dendrites. De nombreuses connexions synaptiques sont formées par l’épine dendritique et l’axone. Les épines sont très plastiques, ont de nombreuses formes et peuvent rapidement disparaître et se former. Ils sont sensibles aux influences chimiques et physiques (blessures, maladies infectieuses).

Dans les synapses, les informations sont le plus souvent transmises via des médiateurs ( substances chimiques). Les molécules émettrices sont libérées sur la cellule présynaptique, traversent la fente synaptique et se lient aux récepteurs membranaires de la cellule post-synaptique. Les médiateurs peuvent transmettre un signal excitateur ou inhibiteur (inhibiteur).

Les connexions neuronales dans le cerveau sont la connexion des neurones via des connexions synaptiques. Les synapses sont les unités fonctionnelles et structurelles du système nerveux. Le nombre de connexions synaptiques est un indicateur clé du fonctionnement cérébral.

Récepteurs

On se souvient des récepteurs à chaque fois qu'ils parlent de toxicomanie ou d'alcoolisme. Pourquoi une personne doit-elle être guidée par le principe de modération ?

Un récepteur sur la membrane postsynaptique est une protéine adaptée aux molécules émettrices. Lorsqu'une personne stimule artificiellement (avec des médicaments par exemple) la libération de transmetteurs dans la fente synaptique, la synapse tente de rétablir l'équilibre : elle réduit le nombre de récepteurs ou leur sensibilité. De ce fait, les niveaux naturels de concentration de transmetteurs dans la synapse cessent d’avoir un effet sur les structures neuronales.

Par exemple, les personnes qui fument de la nicotine modifient la sensibilité des récepteurs à l'acétylcholine, ce qui entraîne une désensibilisation (diminution de la sensibilité) des récepteurs. Le niveau naturel d'acétylcholine est insuffisant pour les récepteurs à sensibilité réduite. Parce que L'acétylcholine est impliquée dans de nombreux processus, notamment ceux liés à la concentration et à la sensation de confort ; un fumeur ne peut obtenir les effets bénéfiques du système nerveux sans nicotine.

Cependant, la sensibilité des récepteurs est progressivement restaurée. Même si cela peut prendre pendant longtemps, la synapse revient à la normale et la personne n'a plus besoin de stimulants tiers.

Développement de réseaux de neurones

Des modifications à long terme des connexions neuronales se produisent dans diverses maladies (mentales et neurologiques - schizophrénie, autisme, épilepsie, maladies de Huntington, d'Alzheimer et de Parkinson). Les connexions synaptiques et les propriétés internes des neurones changent, ce qui entraîne une perturbation du système nerveux.

L'activité des neurones est responsable du développement des connexions synaptiques. « Utilisez-le ou perdez-le » est le principe qui se cache derrière le cerveau. Plus les neurones « agissent » souvent, plus il y a de connexions entre eux ; moins fréquemment, moins il y a de connexions. Lorsqu’un neurone perd toutes ses connexions, il meurt.

Quand niveau moyen l'activité neuronale diminue (par exemple, en raison d'une blessure), les neurones établissent de nouveaux contacts et l'activité neuronale augmente avec le nombre de synapses. L'inverse est également vrai : dès que le niveau d'activité devient supérieur au niveau habituel, le nombre de connexions synaptiques diminue. Des formes similaires d’homéostasie se retrouvent souvent dans la nature, par exemple dans la régulation de la température corporelle et du taux de sucre dans le sang.

M. Butz M. Butz a noté :

La formation de nouvelles synapses est due à la volonté des neurones de maintenir un niveau d'activité électrique donné...

Henry Markram, impliqué dans un projet de simulation du cerveau neuronal, souligne les perspectives de l'industrie en matière d'étude de la perturbation, de la réparation et du développement des connexions neuronales. Une équipe de chercheurs a déjà numérisé 31 000 neurones de rat. Les connexions neuronales du cerveau d'un rat sont présentées dans la vidéo ci-dessous.

Neuroplasticité

Le développement des connexions neuronales dans le cerveau est associé à la création de nouvelles synapses et à la modification de celles existantes. La possibilité de modifications est due à la plasticité synaptique - un changement dans la « puissance » de la synapse en réponse à l'activation des récepteurs sur la cellule post-synaptique.

Une personne peut mémoriser des informations et apprendre grâce à la plasticité du cerveau. En raison de la neuroplasticité, la perturbation des connexions neuronales dans le cerveau due à un traumatisme crânien et à une maladie neurodégénérative ne devient pas mortelle.

La neuroplasticité est motivée par le besoin de changement en réponse à de nouvelles conditions de vie, mais elle peut à la fois résoudre les problèmes d'une personne et les créer. Un changement dans la puissance des synapses, par exemple en fumant, est également un reflet : les drogues et les troubles obsessionnels compulsifs sont si difficiles à éliminer précisément à cause des changements non adaptatifs des synapses dans les réseaux neuronaux.

La neuroplasticité est fortement influencée par des facteurs neurotrophiques. N.V. Gulyaeva souligne que divers troubles des connexions neuronales se produisent dans le contexte d'une diminution des niveaux de neurotrophines. La normalisation du niveau de neurotrophines conduit à la restauration des connexions neuronales dans le cerveau.

Tous les médicaments efficaces utilisés pour traiter les maladies cérébrales, quelle que soit leur structure, s'ils sont efficaces, normalisent les niveaux locaux de facteurs neurotrophiques par un mécanisme ou un autre.

L'optimisation des niveaux de neurotrophines ne peut pas encore être obtenue par administration directe au cerveau. Mais une personne peut influencer indirectement les niveaux de neurotrophines par le biais d’un stress physique et cognitif.

Exercice physique

Les revues de recherche montrent que l’exercice améliore l’humeur et la cognition. Les preuves suggèrent que ces effets sont dus à des changements dans les niveaux de BDNF et à une meilleure santé cardiovasculaire.

Des niveaux élevés de BDNF étaient associés à de meilleures capacités spatiales, des niveaux épisodiques et faibles de BDNF, en particulier chez les personnes âgées, étaient corrélés à une atrophie hippocampique et à des troubles de la mémoire, qui peuvent être associés à des problèmes cognitifs survenant dans la maladie d'Alzheimer.

Lorsqu'ils étudient les possibilités de traitement et de prévention de la maladie d'Alzheimer, les chercheurs parlent souvent du caractère indispensable de l'exercice physique pour l'homme. Ainsi, des études montrent que la marche régulière affecte la taille de l’hippocampe et améliore la mémoire.

L'activité physique augmente le taux de neurogenèse. L’apparition de nouveaux neurones est une condition importante pour le réapprentissage (acquérir de nouvelles expériences et effacer les anciennes).

Charge cognitive

Les connexions neuronales dans le cerveau se développent lorsqu’une personne se trouve dans un environnement enrichi en stimuli. Les nouvelles expériences sont la clé pour augmenter les connexions neuronales.

Une nouvelle expérience est un conflit lorsque le problème n’est pas résolu par les moyens dont dispose déjà le cerveau. Par conséquent, il doit créer de nouvelles connexions, de nouveaux modèles de comportement, associés à une augmentation de la densité des épines, du nombre de dendrites et de synapses.

L’apprentissage de nouvelles compétences conduit à la formation de nouvelles épines et à la déstabilisation des anciennes connexions colonne vertébrale-axone. Une personne développe de nouvelles habitudes et les anciennes disparaissent. Certaines études ont établi un lien entre les troubles cognitifs (TDAH, autisme, retard mental) et les anomalies de la colonne vertébrale.

Les épines sont très plastiques. Le nombre, la forme et la taille des épines sont associés à la motivation, à l’apprentissage et à la mémoire.

Le temps nécessaire pour changer de forme et de taille se mesure littéralement en heures. Mais cela signifie également que les nouvelles connexions peuvent disparaître tout aussi rapidement. Il est donc préférable de privilégier les charges cognitives courtes mais fréquentes plutôt que les charges longues et rares.

Mode de vie

Le régime peut améliorer les performances cognitives et protéger les connexions neuronales du cerveau contre les dommages, favoriser la guérison après une maladie et contrecarrer les effets du vieillissement. La santé cérébrale semble avoir un effet positif sur :

- des oméga-3 (poisson, graines de lin, kiwi, fruits à coque) ;

- la curcumine (curry) ;

— flavonoïdes (cacao, thé vert, agrumes, chocolat noir) ;

— vitamines B;

— vitamine E (avocat, noix, cacahuètes, épinards, farine de blé) ;

- choline (viande de poulet, veau, jaunes d'œufs).

La plupart des produits répertoriés affectent indirectement les neurotrophines. Les effets positifs de l’alimentation sont renforcés par l’exercice physique. De plus, une restriction calorique modérée dans l’alimentation stimule l’expression des neurotrophines.

Pour restaurer et développer les connexions neuronales, l’élimination des graisses saturées et du sucre raffiné est bénéfique. Les aliments contenant des sucres ajoutés réduisent les niveaux de neurotrophines, ce qui affecte négativement la neuroplasticité. Et la teneur élevée en graisses saturées des aliments inhibe même la récupération cérébrale après un traumatisme crânien.

Parmi les facteurs négatifs affectant les connexions neuronales : le tabagisme et le stress. Fumer et stress à long terme V Dernièrement associée à des changements neurodégénératifs. Bien que le stress à court terme puisse être un catalyseur de neuroplasticité.

Le fonctionnement des connexions neuronales dépend également du sommeil. Peut-être même plus que tous les autres facteurs énumérés. Parce que le sommeil lui-même est « le prix que nous payons pour la plasticité cérébrale » (Le sommeil est le prix que nous payons pour la plasticité cérébrale. Ch. Cirelli - Ch. Cirelli).

Résumé

Comment améliorer les connexions neuronales dans le cerveau ? Influence positive fournir:

  • exercice physique;
  • défis et difficultés;
  • bon sommeil;
  • régime équilibré.

Affecte négativement :

  • les aliments gras et le sucre ;
  • fumeur;
  • stress à long terme.

Le cerveau est extrêmement plastique, mais il est très difficile d’en « sculpter » quelque chose. Il n'aime pas gaspiller son énergie pour des choses inutiles. Le développement le plus rapide de nouvelles connexions se produit dans une situation de conflit, lorsqu'une personne n'est pas en mesure de résoudre un problème en utilisant des méthodes connues.

Un neurone biologique est constitué d'un corps d'un diamètre de 3 à 100 microns, contenant un noyau et des processus. Il existe deux types de processus. Axone il s'agit généralement d'un long processus adapté pour conduire l'excitation du corps neuronal. Dendrites- en règle générale, des processus courts et hautement ramifiés qui servent de site principal de formation de synapses excitatrices et inhibitrices influençant le neurone (différents neurones ont des rapports différents de longueurs d'axones et de dendrites).

Un neurone peut avoir plusieurs dendrites et généralement un seul axone. Un neurone peut avoir des connexions avec 20 000 autres neurones. Le cortex cérébral humain contient des dizaines de milliards de neurones.

Neurone biologique est un élément essentiel des cellules du système nerveux et du matériau de construction du cerveau. Les neurones existent sous plusieurs formes, en fonction de leur fonction et de leur emplacement, mais en général, leur structure est similaire.

Riz. 12.4 Circuit neuronal

Chaque neurone est un dispositif de traitement de l'information qui reçoit des signaux d'autres neurones via une structure d'entrée spéciale constituée de dendrites. Si le signal d'entrée total dépasse un niveau seuil, la cellule transmet le signal plus loin dans l'axone, puis dans la structure de sortie du signal, à partir de laquelle il est transmis à d'autres neurones. Les signaux sont transmis à l'aide d'ondes électriques. (Au cours de la vie d’une personne, le nombre de neurones n’augmente pas, mais le nombre de connexions entre eux augmente, grâce à l’apprentissage).

Organes sensoriels humains constitué d'un grand nombre de neurones interconnectés par de nombreuses connexions. L'organe des sens comprend des récepteurs et des voies. Des signaux électrochimiques se forment dans les récepteurs et se propagent à des vitesses de 5 à 125 mètres par seconde. Les récepteurs codent différentes sortes signaux dans un seul code universel de fréquence d'impulsion.

Le nombre d'influx nerveux par unité de temps est proportionnel à l'intensité de l'impact. Les organes sensoriels ont des limites inférieures et supérieures de sensibilité. La réaction (E) des organes sensoriels humains à l'intensité (P) de stimulation peut être représentée approximativement par la loi de Weber-Fechner :

Évidemment, si l’on prend en compte l’influence du bruit, on peut arriver à la formule de Shannon, qui permet d’évaluer la capacité informationnelle d’un tel organe sensoriel. Grâce à l'éducation et à la formation, la résolution des sens peut être augmentée. En plus une personne peut distinguer une combinaison de fréquences et d'amplitudes, dans une mesure inaccessible aux appareils techniques modernes. Mais les sens opèrent dans une gamme limitée de fréquences et d’amplitudes.

Lors du passage à un état excité, une impulsion d'excitation est générée dans le processus de sortie (axone), se propageant le long de celui-ci à une vitesse de 1 à 100 m/s ; Le processus de propagation repose sur une modification de la conductivité locale de la membrane axonale par rapport aux ions sodium et potassium. Il n'y a pas de connexions électriques directes entre les neurones. Le transfert d'un signal d'un axone au processus d'entrée (dendrite) d'un autre neurone s'effectue chimiquement dans une zone spéciale - la synapse, où les terminaisons de deux cellules nerveuses se rapprochent. Certaines synapses sont spéciales et produisent des signaux de polarité inversée pour amortir les signaux d’excitation.

Actuellement, les aspects globaux de l'activité cérébrale sont étudiés de manière intensive - sa spécialisation grandes surfaces, les connexions fonctionnelles entre eux, etc. Dans le même temps, on sait peu de choses sur la manière dont les informations sont traitées au niveau intermédiaire, dans des sections d'un réseau neuronal ne contenant que des dizaines de milliers de cellules nerveuses.

Parfois, le cerveau est assimilé à une machine informatique colossale, qui ne diffère que de manière significative des ordinateurs conventionnels. un grand nombreéléments constitutifs. On pense que chaque impulsion d'excitation transporte une unité d'information et que les neurones jouent le rôle de commutateurs logiques par analogie avec un ordinateur. Ce point de vue est faux. Le travail du cerveau repose sur des principes complètement différents. Il n’a pas de structure rigide de connexions entre neurones, qui serait similaire au circuit électrique d’un ordinateur. La fiabilité de ses éléments individuels (neurones) est bien inférieure à celle des éléments utilisés pour créer des ordinateurs modernes. La destruction même de zones contenant un assez grand nombre de neurones a souvent peu d’effet sur l’efficacité du traitement de l’information dans cette zone du cerveau. Certains neurones meurent à mesure que le corps vieillit. Aucun ordinateur construit selon des principes traditionnels ne peut fonctionner sous des dommages aussi importants.

Les ordinateurs modernes effectuent des opérations de manière séquentielle, une opération par cycle. Le numéro est extrait de mémoire, placé dans CPU, où une action est effectuée sur lui conformément à la dictée programme instructions, et le résultat est à nouveau stocké en mémoire. D'une manière générale, lors de l'exécution d'une opération distincte, un signal électrique doit parcourir une certaine distance le long des fils de connexion, ce qui peut limiter la vitesse de l'ordinateur.

Par exemple, si un signal parcourt une distance de 30 cm, le taux de répétition du signal ne doit pas dépasser 1 GHz. Si les opérations sont effectuées de manière séquentielle, la limite de vitesse d'un tel ordinateur ne dépassera pas un milliard d'opérations par seconde. En réalité, les performances sont également limitées par la vitesse de fonctionnement des différents éléments informatiques. La vitesse des ordinateurs modernes est donc déjà très proche de sa limite théorique. Mais cette rapidité est totalement insuffisante pour organiser la gestion de systèmes complexes, résoudre des problèmes d’« intelligence artificielle », etc.

Si nous étendons le raisonnement ci-dessus au cerveau humain, les résultats seront absurdes. Après tout, la vitesse de propagation du signal le long des fibres nerveuses est des dizaines et des centaines de millions de fois inférieure à celle d'un ordinateur. Si le cerveau fonctionnait selon le principe des ordinateurs modernes, la limite théorique de sa vitesse ne serait que de milliers d'opérations par seconde. Mais cela ne suffit clairement pas à expliquer l’efficacité nettement supérieure du fonctionnement cérébral.

De toute évidence, l’activité cérébrale est associée au traitement parallèle de l’information.À ce jour, l'organisation traitement en parallèle est déjà utilisé dans les ordinateurs, par exemple avec des processeurs matriciels, qui sont un réseau de processeurs plus simples dotés de leur propre mémoire. La technique du calcul parallèle est qu'un processeur élémentaire « connaît » uniquement l'état de son petit élément de l'environnement. Sur la base de ces informations, chaque processeur calcule l'état de son élément à la prochaine fois. Dans ce cas, il n'y a aucune limitation de performances associée à la vitesse de propagation du signal. Le fonctionnement du processeur matriciel résiste aux dommages locaux.

L'étape suivante dans le développement de l'idée de l'informatique parallèle a été la création de réseaux informatiques. Ce type de « communauté » d’ordinateurs ressemble à un organisme multicellulaire qui « vit sa propre vie ». Dans le même temps, le fonctionnement d'un réseau informatique en tant que communauté d'ordinateurs ne dépend pas exactement de la manière dont chaque ordinateur individuel est structuré ni des processus qui assurent le traitement de l'information. On peut imaginer un réseau constitué d'un très grand nombre d'ordinateurs primitifs, capables d'effectuer seulement quelques opérations et de stocker dans leur mémoire les valeurs instantanées de plusieurs grandeurs.

D'un point de vue mathématique, de tels réseaux, constitués d'éléments ayant un répertoire de réactions simple, sont généralement considérés comme automates cellulaires. Le cerveau est beaucoup plus proche, dans son principe et sa structure, d'un processeur matriciel que d'un ordinateur traditionnel avec exécution séquentielle d'opérations. Cependant, il existe une différence fondamentale entre le cerveau humain et tout ordinateur parallèle. Le fait est que les réseaux neuronaux du cerveau ne sont engagés dans aucun calcul. Pensée abstraite (gestion des chiffres et symboles mathématiques) est secondaire par rapport aux mécanismes fondamentaux du fonctionnement cérébral. Il est difficile d'imaginer que lorsque, par exemple, un chat dépasse un oiseau lors d'un saut, son cerveau résout en quelques secondes un système d'équations différentielles non linéaires qui décrivent la trajectoire du saut et d'autres actions.

La déclaration suivante d'A. Einstein peut être citée à ce sujet : « Les mots et le langage, apparemment, ne jouent aucun rôle dans mon mécanisme de pensée. Les entités physiques, qui en réalité sont apparemment des éléments de la pensée, sont certains signes et images plus ou moins claires qui peuvent être arbitrairement reproduits et combinés... Mots ordinaires vous ne devez sélectionner qu’à la deuxième étape… »

Le cerveau fonctionne comme une colossale machine « analogique », où le monde se reflète dans les modèles spatio-temporels de l’activité neuronale. Un mécanisme similaire de fonctionnement cérébral pourrait se produire naturellement au cours de l’évolution biologique.

Pour l’animal le plus simple, la fonction principale du système nerveux est de transformer les sensations provoquées par le monde extérieur en activité motrice spécifique. Sur étapes préliminaires Au cours de l'évolution, la connexion entre image-sensation et image-mouvement est directe, sans ambiguïté et héréditairement fixée dans la structure originelle des connexions entre neurones. Aux stades ultérieurs, cette connexion devient plus complexe et la capacité d'apprendre apparaît. La sensation-image n'est plus strictement liée au plan d'action. Tout d’abord, elles sont traitées de manière intermédiaire et comparées aux images stockées en mémoire. Le traitement d’images intermédiaire devient de plus en plus complexe à mesure que nous gravissons les échelons de l’évolution. En fin de compte, après un long développement, un processus se forme que nous appelons réflexion.

Le principe d’un « automate cellulaire » peut être utilisé pour la reconnaissance de formes. Un système dispose d'une mémoire associative si, lorsqu'une image est transmise à son entrée, il sélectionne et sort automatiquement l'image la plus proche stockée en mémoire.