Aller au contenu

« Principe de l'énergie libre » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Framabot (discuter | contributions)
m Bot: nettoyage traduction: espace superflu
 
(41 versions intermédiaires par 15 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
{{autre4|||Énergie libre (homonymie)}}
{{Traduction à revoir|date=décembre 2018}}
Le '''principe d'énergie libre''' est un [[Cadriciel|cadre]] utilisé pour décrire comment le cerveau prend des décisions et s'adapte à des circonstances changeantes. Il repose sur l'idée que le cerveau essaie constamment de minimiser son énergie libre, qui est une mesure de la surprise que le cerveau ressent face aux informations sensorielles qu'il reçoit.
{{À wikifier|date=décembre 2018}}
{{orphelin|date=décembre 2018}}


Le principe de l'énergie libre tente d'expliquer comment les systèmes (biologiques) maintiennent leur ordre ([[Thermodynamique hors équilibre|état d'équilibre non équilibré]]) en se limitant à un nombre limité d'états<ref>Ashby, W. R. (1962). [http://csis.pace.edu/~marchese/CS396x/Computing/Ashby.pdf Principles of the self-organizing system].in Principles of Self-Organization: Transactions of the University of Illinois Symposium, H. Von Foerster and G. W. Zopf, Jr. (eds.), Pergamon Press: London, UK, pp. 255–278.</ref>. Ce principe dit que les systèmes biologiques minimisent une énergie libre fonctionnelle de leurs états internes, ce qui implique des croyances sur les états cachés dans leur environnement. La minimisation implicite de l'énergie libre variationnelle est formellement liée aux méthodes bayésiennes variationnelles et a été introduite à l'origine par Karl Friston comme explication de la perception incarnée dans [[Neurosciences|les neurosciences]]<ref>Friston, K., Kilner, J., & Harrison, L. (2006). [http://www.fil.ion.ucl.ac.uk/~karl/A%20free%20energy%20principle%20for%20the%20brain.pdf A free energy principle for the brain]. J Physiol Paris. , 100 (1–3), 70–87.</ref>, où elle est également connue sous le nom d''''inférence active'''.
En minimisant son énergie libre, le cerveau peut faire des prédictions sur le monde qui l'entoure et prendre les actions appropriées. La minimisation implicite de l'énergie libre variationnelle est formellement liée aux méthodes bayésiennes variationnelles et a été introduite à l'origine par [[Karl J. Friston|Karl Friston]] comme explication de la perception incarnée dans les [[neurosciences]]<ref>{{Article|langue=en|prénom1=Karl|nom1=Friston|prénom2=James|nom2=Kilner|prénom3=Lee|nom3=Harrison|titre=A free energy principle for the brain|périodique=Journal of Physiology-Paris|volume=100|numéro=1-3|date=2006-07|doi=10.1016/j.jphysparis.2006.10.001|lire en ligne=https://linkinghub.elsevier.com/retrieve/pii/S092842570600060X|consulté le=2022-12-09|pages=70–87}}</ref>, où elle est aussi connue sous le nom d'inférence active ou de codage prédictif.


En termes généraux, le principe de l'énergie libre est utilisé pour décrire le principe selon lequel tout système - tel que défini comme étant enfermé dans une [[couverture de Markov]] - essaie de minimiser la différence entre son [[Cosmologie physique|modèle du monde]] et la [[perception]] de ses capteurs. Cette différence peut être qualifiée de "surprise" et minimisée par une mise à jour constante du modèle du monde. En tant que tel, le principe est basé sur l'idée bayésienne du cerveau comme "moteur d'inférence". Friston a ajouté une deuxième voie à la minimisation : l'action. En changeant activement le monde dans l'état attendu, les systèmes peuvent aussi minimiser l'énergie libre du système. Friston suppose que c'est le principe de toute réaction biologique<ref name="wired20181112">Shaun Raviv: [https://www.wired.com/story/karl-friston-free-energy-principle-artificial-intelligence/ The Genius Neuroscientist Who Might Hold the Key to True AI]. In: Wired, 13. November 2018</ref>.
En termes généraux, le principe de l'énergie libre est utilisé pour décrire un système tel que défini comme étant enfermé dans une [[couverture de Markov]] - essaie de minimiser la différence entre son [[Cosmologie physique|modèle du monde]] et la [[perception]] de ses capteurs. Cette différence peut être qualifiée de « surprise » et minimisée par une mise à jour constante du modèle du monde. En tant que tel, le principe est basé sur l'idée bayésienne du cerveau comme « [[moteur d'inférence]] ». Friston a ajouté une deuxième voie à la minimisation : l'action. En changeant activement le monde dans l'état attendu, les systèmes peuvent aussi minimiser l'énergie libre du système. Friston suppose que c'est le principe de toute réaction biologique.


Friston considère que son principe s'applique aussi bien aux [[troubles mentaux]] qu'à l'[[intelligence artificielle]]. Les implémentations de l'IA basées sur le principe de l'inférence active ont montré des avantages par rapport à d'autres méthodes.
Friston considère que son principe s'applique aussi bien aux [[troubles mentaux]] qu'à l'[[intelligence artificielle]]. Les implémentations de l'IA basées sur le principe de l'inférence active ont montré des avantages par rapport à d'autres méthodes. Il est également utilisé pour expliquer comment les systèmes biologiques se maintiennent en [[Thermodynamique hors équilibre|état de non-équilibre quasi-stationnaire]] en se limitant à un nombre limité d'états<ref>{{Chapitre|langue=en|prénom1=W. Ross|nom1=Ashby|titre chapitre=Principles of the Self-Organizing System|titre ouvrage=Facets of Systems Science|éditeur=Springer US|date=1991|isbn=978-1-4899-0718-9|doi=10.1007/978-1-4899-0718-9_38|lire en ligne=https://doi.org/10.1007/978-1-4899-0718-9_38|consulté le=2022-12-09|passage=521–536}}</ref>


== Contexte ==
== Définitions ==
L'idée que les systèmes biologiques [[Auto-organisation|auto-organisés]] - comme une cellule ou un cerveau - peuvent être compris comme minimisant l'énergie libre variationnelle est basée sur les observations de [[Helmholtz]] sur l'[[inférence inconsciente]]<ref name="Helmholtz">Helmholtz, H. (1866/1962). Concerning the perceptions in general. In Treatise on physiological optics (J. Southall, Trans., 3rd ed., Vol. III). New York: Dover.</ref> et les traitements ultérieurs en psychologie <ref>Gregory, R. L. (1980). [https://www.jstor.org/stable/2395424 Perceptions as hypotheses]. Phil Trans R Soc Lond B. , 290, 181–197.</ref> et en apprentissage automatique<ref name="Dayan">Dayan, P., Hinton, G. E., & Neal, R. (1995). [http://www.gatsby.ucl.ac.uk/~dayan/papers/hm95.pdf The Helmholtz machine]. Neural Computation , 7, 889–904.</ref>. L'énergie libre variationnelle est fonction de certains résultats et d'une densité de probabilité sur leurs causes (cachées). Cette [[Calcul des variations|densité variationnelle]] est définie par rapport à un modèle probabiliste qui génère des résultats à partir des causes. Dans ce contexte, l'énergie libre fournit une approximation (limite supérieure) des données probantes du modèle bayésien<ref>Beal, M. J. (2003). [http://www.cse.buffalo.edu/faculty/mbeal/papers/beal03.pdf Variational Algorithms for Approximate Bayesian Inference]. PhD. Thesis, University College London.</ref>. Sa minimisation peut donc être utilisée pour expliquer l'inférence et l'apprentissage bayésiens. Lorsqu'un système échantillonne activement les résultats pour minimiser l'énergie libre, il effectue implicitement une inférence active et maximise les preuves pour son modèle (génératif).


=== Codage prédictif ===
Cependant, l'énergie libre est aussi une limite supérieure sur l'auto-information (ou surprise) des résultats, où la moyenne à long terme de la surprise est l'entropie. Cela signifie que si un système agit pour minimiser l'énergie libre, il placera implicitement une limite supérieure sur l'entropie des résultats - ou états sensoriels - qu'il échantillonne<ref name="Friston">Friston, K. (2012). [http://www.fil.ion.ucl.ac.uk/~karl/A%20Free%20Energy%20Principle%20for%20Biological%20Systems.pdf A Free Energy Principle for Biological Systems]. Entropy , 14, 2100–2121.</ref>.
Le codage prédictif est une théorie de [[neurosciences]] sur la manière dont le cerveau traite les informations sensorielles. Elle propose que le cerveau génère constamment des prévisions sur les entrées sensorielles qu'il est susceptible de recevoir, en fonction de son expérience passée et de son contexte actuel. Lorsque de nouvelles entrées sensorielles sont reçues, elles sont comparées à ces prévisions, et toutes les différences sont utilisées pour mettre à jour le modèle interne du cerveau à propos du monde. Ce processus permet au cerveau de traiter rapidement et efficacement les informations sensorielles, ce qui nous permet d'interagir avec notre environnement en temps réel.


=== Relation avec d'autres théories ===
=== Inférence active ===
L'inférence active est le cadre [[Computationnalisme|computationnel]] qui décrit comment un agent (comme une personne ou une intelligence artificielle) peut interagir avec son environnement pour atteindre un résultat souhaité. Il repose sur l'idée qu'un agent peut maximiser ses chances de réussite en recherchant activement des informations sur son environnement et en utilisant ces informations pour faire des prévisions sur les événements futurs. Ces prévisions peuvent alors être utilisées pour orienter les actions de l'agent de manière cohérente avec ses objectifs et ses préférences.
L'inférence active est étroitement liée au théorème du bon régulateur <ref>Conant, R. C., & Ashby, R. W. (1970). Every Good Regulator of a system must be a model of that system. Int. J. Systems Sci. , 1 (2), 89–97.</ref> et aux comptes-rendus connexes de [[Auto-organisation|l'auto-organisation]]<ref>Kauffman, S. (1993). The Origins of Order: Self-Organization and Selection in Evolution. Oxford: Oxford University Press.</ref>{{,}}<ref>Nicolis, G., & Prigogine, I. (1977). Self-organization in non-equilibrium systems. New York: John Wiley.</ref>, tels que l'[[auto-assemblage]], la formation de motifs, [[Autopoïèse|l'autopoïèse]]<ref>Maturana, H. R., & Varela, F. (1980). [http://topologicalmedialab.net/xinwei/classes/readings/Maturana/autopoesis_and_cognition.pdf Autopoiesis: the organization of the living]. In V. F. Maturana HR (Ed.), Autopoiesis and Cognition. Dordrecht, Netherlands: Reidel.</ref> et la practopoièse<ref>Nikolić, D. (2015). Practopoiesis: Or how life fosters a mind. Journal of theoretical biology, 373, 40-61.
</ref>. Elle aborde les thèmes de [[Cybernétique|la cybernétique]], la synergétique <ref>Haken, H. (1983). Synergetics: An introduction. Non-equilibrium phase transition and self-organisation in physics, chemistry and biology (3rd ed.). Berlin: Springer Verlag.</ref> et [[Embodiment|l'embodiment]]. Puisque l'énergie libre peut être exprimée comme l'énergie attendue (des résultats) sous la densité variationnelle moins son entropie, elle est également liée au [[principe d'entropie maximale]]<ref>Jaynes, E. T. (1957). [http://bayes.wustl.edu/etj/articles/theory.1.pdf Information Theory and Statistical Mechanics]. Physical Review Series II , 106 (4), 620–30.</ref>. Enfin, parce que la moyenne temporelle de l'énergie est l'action, le principe de l'énergie libre variationnelle minimale est un [[principe de moindre action]].


== Définition ==
=== Energie libre ===
L'énergie libre est une mesure de l'incertitude ou de la surprise dans un système. Elle est définie comme la différence entre l'énergie attendue du système et l'énergie réelle du système.

Dans la théorie de Karl Friston, le but d'un système intelligent, tel que le cerveau, est de minimiser son énergie libre en réduisant l'incertitude et la surprise. Cela est réalisé en faisant des prédictions sur l'état futur du système, puis en utilisant les informations sensorielles pour mettre à jour ces prédictions et réduire l'erreur ou la discordance entre les états prédits et réels.

En d'autres termes est une mesure de l'écart ou de l'erreur entre les prédictions du système et les entrées sensorielles réelles qu'il reçoit. En minimisant son énergie libre le système peut réduire l'incertitude et la surprise, et s'adapter à son environnement de manière plus efficace.

== Formalisme ==

=== Formulation continue ===
[[Fichier:MarokovBlanketFreeEnergyFigure.jpg|droite|500x500px|Ces schémas illustrent la partition des états en états internes et en états cachés ou externes séparés par une couverture de Markov - comprenant des états sensoriels et actifs. Le panneau inférieur montre cette partition telle qu'elle serait appliquée à l'action et à la perception dans le cerveau, où les états actifs et internes minimisent une énergie libre fonctionnelle des états sensoriels. L'auto-organisation des états internes qui s'ensuit correspond alors à la perception, tandis que l'action couple les états du cerveau aux états externes. Le panneau supérieur montre exactement les mêmes dépendances mais réarrangées de sorte que les états internes sont associés aux états intracellulaires d'une cellule, tandis que les états sensoriels deviennent les états de surface de la membrane cellulaire recouvrant les états actifs (par exemple, les filaments d'actine du cytosquelette).|alt=]]
[[Fichier:MarokovBlanketFreeEnergyFigure.jpg|droite|500x500px|Ces schémas illustrent la partition des états en états internes et en états cachés ou externes séparés par une couverture de Markov - comprenant des états sensoriels et actifs. Le panneau inférieur montre cette partition telle qu'elle serait appliquée à l'action et à la perception dans le cerveau, où les états actifs et internes minimisent une énergie libre fonctionnelle des états sensoriels. L'auto-organisation des états internes qui s'ensuit correspond alors à la perception, tandis que l'action couple les états du cerveau aux états externes. Le panneau supérieur montre exactement les mêmes dépendances mais réarrangées de sorte que les états internes sont associés aux états intracellulaires d'une cellule, tandis que les états sensoriels deviennent les états de surface de la membrane cellulaire recouvrant les états actifs (par exemple, les filaments d'actine du cytosquelette).|alt=]]
'''Définition''' (formulation continue): L'inférence active repose sur le tuple <math>(\Omega,\Psi,S,A,R,q,p)</math>,


* ''Un échantillon de l'espace'' <math>\Omega</math>– à partir de laquelle les fluctuations aléatoires <math>\omega \in \Omega</math>sont tirées
L'inférence active repose sur le tuple <math>(\Omega,\Psi,S,A,R,q,p)</math>,
* ''Un échantillon de l'espace'' <math>\Omega</math> – à partir de laquelle les fluctuations aléatoires <math>\omega \in \Omega</math> sont tirées
* ''États cachés ou externes'' <math>\Psi:\Psi\times A \times \Omega \to \mathbb{R}</math> – qui provoquent des états sensoriels et dépendent de l'action
* ''États cachés ou externes'' <math>\Psi:\Psi\times A \times \Omega \to \mathbb{R}</math> – qui provoquent des états sensoriels et dépendent de l'action
* ''États sensoriels'' <math>S:\Psi \times A \times \Omega \to \mathbb{R}</math> – une cartographie probabiliste à partir de l'action et des états cachés
* ''États sensoriels'' <math>S:\Psi \times A \times \Omega \to \mathbb{R}</math> – une cartographie probabiliste à partir de l'action et des états cachés
* ''Action'' <math>A:S\times R \to \mathbb{R}</math> – qui dépend des états sensoriels et internes
* ''Action'' <math>A:S\times R \to \mathbb{R}</math> – qui dépend des états sensoriels et internes
* '' États internes'' <math>R:R\times S \to \mathbb{R}</math> – qui provoquent l'action et dépendent des états sensoriels
* ''États internes'' <math>R:R\times S \to \mathbb{R}</math> – qui provoquent l'action et dépendent des états sensoriels
* ''Densité générative'' <math>p(s, \psi | m)</math> – sur des états sensoriels et cachés sous un modèle génératif <math>m</math>
* ''Densité générative'' <math>p(s, \psi | m)</math> – sur des états sensoriels et cachés sous un modèle génératif <math>m</math>
* ''Densité variationnelle'' <math>q(\psi | \mu)</math> – sur des états cachés <math>\psi \in \Psi</math> paramétrée par des états internes <math>\mu \in R</math>
* ''Densité variationnelle'' <math>q(\psi | \mu)</math> – sur des états cachés <math>\psi \in \Psi</math> paramétrée par des états internes <math>\mu \in R</math>


=== Action et perception ===
=== Action et perception ===
Ligne 35 : Ligne 42 :
:<math> a(t) = \underset{a}{\operatorname{arg\,min}} \{ F(s(t),\mu(t)) \}</math>
:<math> a(t) = \underset{a}{\operatorname{arg\,min}} \{ F(s(t),\mu(t)) \}</math>
:<math>\mu(t) = \underset{\mu}{\operatorname{arg\,min}} \{ F(s(t),\mu)) \} </math>
:<math>\mu(t) = \underset{\mu}{\operatorname{arg\,min}} \{ F(s(t),\mu)) \} </math>
:<math>\underset{\mathrm{free-energy}} {\underbrace{F(s,\mu)}} = \underset{\mathrm{energy}} {\underbrace{ E_q[-\log p(s,\psi \mid m)]}} - \underset{\mathrm{entropy}} {\underbrace{ H[q(\psi | \mu)]}}
:<math>\underset{\mathrm{energie-libre}} {\underbrace{F(s,\mu)}} = \underset{\mathrm{energie}} {\underbrace{ E_q[-\log p(s,\psi \mid m)]}} - \underset{\mathrm{entropie}} {\underbrace{ H[q(\psi | \mu)]}}
= \underset{\mathrm{surprise}} {\underbrace{ -\log p(s | m)}} + \underset{\mathrm{divergence}} {\underbrace{ D_{\mathrm{KL}}[q(\psi | \mu) \| p(\psi \mid s,m)]}}
= \underset{\mathrm{surprise}} {\underbrace{ -\log p(s | m)}} + \underset{\mathrm{divergence}} {\underbrace{ D_{\mathrm{KL}}[q(\psi | \mu) \| p(\psi \mid s,m)]}}
\geq \underset{\mathrm{surprise}} {\underbrace{ -\log p(s | m)}}</math>
\geq \underset{\mathrm{surprise}} {\underbrace{ -\log p(s | m)}}</math>


Ceci induit une double minimisation par rapport à l'action et aux états internes qui correspondent respectivement à l'action et à la perception.
Ceci induit une double minimisation par rapport à l'action et aux états internes qui correspondent respectivement à l'action et à la perception.


== Comparaison avec d'autres cadres ==
== La minimisation de l'énergie libre ==

L'idée que les systèmes biologiques [[Auto-organisation|auto-organisés]] - comme une cellule ou un cerveau - peuvent être compris comme minimisant l'énergie libre variationnelle est basée sur les observations de [[Hermann von Helmholtz|Helmholtz]] sur l'[[inférence inconsciente]]<ref name="Helmholtz">G. Helmholtz, ''Concerning the perceptions in general'' In : ''Treatise on physiological optics'' (J. Southall, Trans., {{3e}} ed., Vol. III), New York: Dover, {{refinc}}</ref> et les traitements ultérieurs en psychologie<ref>{{Article|prénom1=R. L.|nom1=Gregory|titre=Perceptions as Hypotheses|périodique=Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences|volume=290|numéro=1038|date=1980|issn=0080-4622|lire en ligne=https://www.jstor.org/stable/2395424|consulté le=2022-12-09|pages=181–197}}</ref> et en apprentissage automatique<ref name="Dayan">P. Dayan, G.E. Hinton, R. Neal, ''[http://www.gatsby.ucl.ac.uk/~dayan/papers/hm95.pdf The Helmholtz machine]'', ''Neural Computation'', 7, 1995 : 889–904.</ref>.

L'énergie libre variationnelle est fonction de certains résultats et d'une densité de probabilité sur leurs causes (cachées). Cette [[Calcul des variations|densité variationnelle]] est définie par rapport à un modèle probabiliste qui génère des résultats à partir des causes. Dans ce contexte, l'énergie libre fournit une approximation (limite supérieure) des données probantes du modèle bayésien<ref>{{Lien web |titre=Matthew J. Beal - Thesis: Matthew J. Beal, Variational Algorithms for Approximate Bayesian Inference |url=https://cse.buffalo.edu/faculty/mbeal/thesis/ |site=cse.buffalo.edu |consulté le=2022-12-09}}</ref>. Sa minimisation peut donc être utilisée pour expliquer l'inférence et l'apprentissage bayésiens. Lorsqu'un système échantillonne activement les résultats pour minimiser l'énergie libre, il effectue implicitement une inférence active et maximise les preuves pour son modèle (génératif).

=== Entropie ===
Cependant, l'énergie libre est aussi une limite supérieure sur l'auto-information (ou surprise) des résultats, où la moyenne à long terme de la surprise est l'[[Entropie (thermodynamique)|entropie]]. Cela signifie que si un système agit pour minimiser l'énergie libre, il placera implicitement une limite supérieure sur l'entropie des résultats - ou états sensoriels - qu'il échantillonne<ref name="Friston">{{Article|langue=en|prénom1=Karl|nom1=Friston|titre=A Free Energy Principle for Biological Systems|périodique=Entropy|volume=14|numéro=11|date=2012-10-31|issn=1099-4300|pmid=23204829|pmcid=PMC3510653|doi=10.3390/e14112100|lire en ligne=http://www.mdpi.com/1099-4300/14/11/2100|consulté le=2022-12-09|pages=2100–2121}}</ref>.


=== Minimisation de l'énergie libre et auto-organisation ===
=== Minimisation de l'énergie libre et auto-organisation ===
La minimisation de l'énergie libre a été proposée comme caractéristique des systèmes auto-organisés, lorsqu'elle est présentée comme des [[systèmes dynamiques aléatoires]]<ref>Crauel, H., & Flandoli, F. (1994). Attractors for random dynamical systems. Probab Theory Relat Fields , 100, 365–393.</ref>. Cette formulation repose sur une [[couverture de Markov]] (comprenant des états d'action et des états sensoriels) qui sépare les états internes et externes. Si les états internes et l'action minimisent l'énergie libre, alors ils placent une limite supérieure sur l'entropie des états sensoriels
La minimisation de l'énergie libre a été proposée comme caractéristique des systèmes auto-organisés, lorsqu'elle est présentée comme des [[systèmes dynamiques aléatoires]]<ref>H. Crauel, F. Flandoli, ''Attractors for random dynamical systems. Probab Theory Relat Fields'', 100, 1994 : 365–393.</ref>. Cette formulation repose sur une [[couverture de Markov]] (comprenant des états d'action et des états sensoriels) qui sépare les états internes et externes. Si les états internes et l'action minimisent l'énergie libre, alors ils placent une limite supérieure sur l'entropie des états sensoriels


<math> \lim_{T\to\infty} \frac{1}{T} \underset{\mathrm{free-action}} {\underbrace{\int_0^T F(s(t),\mu (t))dt}} \ge
<math> \lim_{T\to\infty} \frac{1}{T} \underset{\mathrm{free-action}} {\underbrace{\int_0^T F(s(t),\mu (t))dt}} \ge
Ligne 52 : Ligne 66 :


=== Minimisation de l'énergie libre et inférence bayésienne ===
=== Minimisation de l'énergie libre et inférence bayésienne ===
Toutes les inférences bayésiennes peuvent être exprimées en termes de minimisation de l'énergie libre, par exemple<ref>Roweis, S., & [[:en:Zoubin Ghahramani|Ghahramani, Z.]] (1999). [http://authors.library.caltech.edu/13697/1/ROWnc99.pdf A unifying review of linear Gaussian models]. Neural Computat. , 11 (2), 305–45. {{doi|10.1162/089976699300016674}}</ref> lorsque l'énergie libre est minimisée par rapport aux états internes, la [[divergence de Kullback-Leibler]] entre la densité variationnelle et la densité postérieure sur les états cachés est minimisée. Cela correspond à une [[inférence bayésienne]] approximative - lorsque la forme de la densité variationnelle est fixe - et à une inférence bayésienne exacte sinon. La minimisation de l'énergie libre fournit donc une description générique de l'inférence et du filtrage bayésiens (p. ex. [[filtre de Kalman]]). Elle est également utilisée dans la [[sélection de modèles]] bayésiens, où l'énergie libre peut être utilement décomposée en complexité et précision :
Toutes les [[inférence bayésienne|inférences bayésiennes]] peuvent être exprimées en termes de minimisation de l'énergie libre, par exemple<ref>S. Roweis, [[:en:Zoubin Ghahramani]], ''[http://authors.library.caltech.edu/13697/1/ROWnc99.pdf A unifying review of linear Gaussian models]'', ''Neural Computat'', 11 (2), 1999 : 305–345. {{doi|10.1162/089976699300016674}}</ref> lorsque l'énergie libre est minimisée par rapport aux états internes, la [[divergence de Kullback-Leibler]] entre la densité variationnelle et la densité postérieure sur les états cachés est minimisée. Cela correspond à une [[inférence bayésienne]] approximative - lorsque la forme de la densité variationnelle est fixe - et à une inférence bayésienne exacte sinon. La minimisation de l'énergie libre fournit donc une description générique de l'inférence et du filtrage bayésiens (p. ex. [[filtre de Kalman]]). Elle est également utilisée dans la [[sélection de modèles]] bayésiens, où l'énergie libre peut être utilement décomposée en complexité et précision :


:<math>\underset{\mathrm{free-energy}} {\underbrace{ F(s,\mu)}} = \underset{\mathrm{complexity}} {\underbrace{ D_\mathrm{KL}[q(\psi|\mu)\| p(\psi|m)]}} - \underset{\mathrm{accuracy}} {\underbrace{E_q[\log p(s|\psi,m)]}}</math>
:<math>\underset{\mathrm{energie-libre}} {\underbrace{ F(s,\mu)}} = \underset{\mathrm{complexite}} {\underbrace{ D_\mathrm{KL}[q(\psi|\mu)\| p(\psi|m)]}} - \underset{\mathrm{precision}} {\underbrace{E_q[\log p(s|\psi,m)]}}</math>


Les modèles avec un minimum d'énergie libre fournissent une explication précise des données, sous les coûts de complexité (c.f., le [[Rasoir d'Occam|rasoir d'Ockham]] et les traitements plus formels des coûts de calcul)<ref>Ortega, P. A., & Braun, D. A. (2012). [http://rspa.royalsocietypublishing.org/content/469/2153/20120683 Thermodynamics as a theory of decision-making with information processing costs]. Proceedings of the Royal Society A, vol. 469, no. 2153 (20120683) .</ref>). Ici, la complexité est la divergence entre la densité variationnelle et les croyances antérieures sur les états cachés (c'est-à-dire les degrés effectifs de liberté utilisés pour expliquer les données).
Les modèles avec un minimum d'énergie libre fournissent une explication précise des données, sous les coûts de complexité (c.f., le [[Rasoir d'Occam|rasoir d'Ockham]] et les traitements plus formels des coûts de calcul)<ref>{{Article|prénom1=Pedro A.|nom1=Ortega|prénom2=Daniel A.|nom2=Braun|titre=Thermodynamics as a theory of decision-making with information-processing costs|périodique=Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences|volume=469|numéro=2153|date=2013-05-08|doi=10.1098/rspa.2012.0683|lire en ligne=https://royalsocietypublishing.org/doi/10.1098/rspa.2012.0683|consulté le=2022-12-09|pages=20120683}}</ref>). Ici, la complexité est la divergence entre la densité variationnelle et les croyances antérieures sur les états cachés (c'est-à-dire les degrés effectifs de liberté utilisés pour expliquer les données).


=== Minimisation de l'énergie libre et thermodynamique ===
=== Minimisation de l'énergie libre et thermodynamique ===

L'énergie libre variationnelle est une information théorique fonctionnelle et se distingue de l'[[énergie libre]] thermodynamique (Helmholtz)<ref>Evans, D. J. (2003). [http://rscweb.anu.edu.au/~evans/papers/NEFET.pdf A non-equilibrium free energy theorem for deterministic systems]. Molecular Physics , 101, 15551–4.</ref>. Cependant, le terme de complexité de l'énergie libre variationnelle partage le même point fixe que l'énergie libre de Helmholtz (dans l'hypothèse où le système est fermé thermodynamiquement mais non isolé). En effet, si les perturbations sensorielles sont suspendues (pour une période de temps suffisamment longue), la complexité est minimisée (car la précision peut être négligée). À ce stade, le système est en équilibre et les états internes minimisent l'énergie libre de Helmholtz, par le [[principe de l'énergie minimale]]<ref>Jarzynski, C. (1997). [https://arxiv.org/pdf/cond-mat/9610209.pdf Nonequilibrium equality for free energy differences]. Phys. Rev. Lett., 78, 2690.</ref>.
L'énergie libre variationnelle est une information théorique fonctionnelle et se distingue de l'[[énergie libre]] thermodynamique (Helmholtz)<ref>{{Article|langue=en|prénom1=Denis J.|nom1=Evans|titre=A non-equilibrium free energy theorem for deterministic systems|périodique=Molecular Physics|volume=101|numéro=10|date=2003-05-20|issn=0026-8976|issn2=1362-3028|doi=10.1080/0026897031000085173|lire en ligne=http://www.tandfonline.com/doi/abs/10.1080/0026897031000085173|consulté le=2022-12-09|pages=1551–1554}}</ref>. Cependant, le terme de complexité de l'énergie libre variationnelle partage le même point fixe que l'énergie libre de Helmholtz (dans l'hypothèse où le système est fermé thermodynamiquement mais non isolé). En effet, si les perturbations sensorielles sont suspendues (pour une période de temps suffisamment longue), la complexité est minimisée (car la précision peut être négligée). À ce stade, le système est en équilibre et les états internes minimisent l'énergie libre de Helmholtz, par le [[principe de l'énergie minimale]]<ref>{{Article|prénom1=C.|nom1=Jarzynski|titre=Nonequilibrium Equality for Free Energy Differences|périodique=Physical Review Letters|volume=78|numéro=14|date=1997-04-07|issn=0031-9007|issn2=1079-7114|doi=10.1103/physrevlett.78.2690|lire en ligne=http://dx.doi.org/10.1103/physrevlett.78.2690|consulté le=2022-12-09|pages=2690–2693}}</ref>.


=== Minimisation de l'énergie libre et théorie de l'information ===
=== Minimisation de l'énergie libre et théorie de l'information ===
La minimisation de l'énergie libre équivaut à maximiser l'[[information mutuelle]] entre les états sensoriels et les états internes qui paramètrent la densité variationnelle (pour une densité variationnelle à entropie fixe). Ceci relie la minimisation de l'énergie libre au principe de la redondance minimale <ref>Barlow, H. (1961). [http://www.trin.cam.ac.uk/horacebarlow/21.pdf Possible principles underlying the transformations of sensory messages]. In W. Rosenblith (Ed.), Sensory Communication (pp. 217-34). Cambridge, MA: MIT Press.</ref> et aux traitements connexes utilisant la théorie de l'information pour décrire le comportement optimal<ref>Linsker, R. (1990). [http://psych.stanford.edu/~jlm/pdfs/LinskerAnnRev90.pdf Perceptual neural organization: some approaches based on network models and information theory]. Annu Rev Neurosci. , 13, 257–81.</ref>{{,}}<ref>Bialek, W., Nemenman, I., & Tishby, N. (2001). [http://www.princeton.edu/~wbialek/our_papers/bnt_01a.pdf Predictability, complexity, and learning]. Neural Computat., 13 (11), 2409–63.</ref>.


La minimisation de l'énergie libre équivaut à maximiser l'[[information mutuelle]] entre les états sensoriels et les états internes qui paramètrent la densité variationnelle (pour une densité variationnelle à entropie fixe). Ceci relie la minimisation de l'énergie libre au principe de la redondance minimale<ref>{{Chapitre|prénom1=H. B.|nom1=Barlow|titre chapitre=Possible Principles Underlying the Transformations of Sensory Messages|titre ouvrage=Sensory Communication|éditeur=The MIT Press|date=2012-09-28|isbn=978-0-262-51842-0|doi=10.7551/mitpress/9780262518420.003.0013|lire en ligne=https://academic.oup.com/mit-press-scholarship-online/book/20714/chapter/180090664|consulté le=2022-12-09|passage=216–234}}</ref> et aux traitements connexes utilisant la théorie de l'information pour décrire le comportement optimal<ref>{{Article|langue=en|prénom1=R.|nom1=Linsker|titre=Perceptual Neural Organization: Some Approaches Based on Network Models and Information Theory|périodique=Annual Review of Neuroscience|volume=13|numéro=1|date=1990-03|issn=0147-006X|issn2=1545-4126|doi=10.1146/annurev.ne.13.030190.001353|lire en ligne=https://www.annualreviews.org/doi/10.1146/annurev.ne.13.030190.001353|consulté le=2022-12-09|pages=257–281}}</ref>{{,}}<ref>{{Article|prénom1=William|nom1=Bialek|prénom2=Ilya|nom2=Nemenman|prénom3=Naftali|nom3=Tishby|titre=Predictability, complexity and learning|périodique=arXiv:physics/0007070|date=2001-01-23|lire en ligne=http://arxiv.org/abs/physics/0007070|consulté le=2022-12-09}}</ref>.
== Minimisation de l'énergie libre en neurosciences ==

La minimisation de l'énergie libre fournit un moyen utile de formuler des modèles normatifs (optimaux de Bayes) d'inférence neuronale et d'apprentissage sous incertitude <ref>Friston, K. (2010). [http://www.fil.ion.ucl.ac.uk/~karl/The%20free-energy%20principle%20A%20unified%20brain%20theory.pdf The free-energy principle: a unified brain theory?] Nat Rev Neurosci. , 11 (2), 127–38.</ref> et souscrit donc à l'hypothèse bayésienne du cerveau<ref>Knill, D. C., & Pouget, A. (2004). [http://mrl.isr.uc.pt/pub/bscw.cgi/d27540/ReviewKnillPouget2.pdf The Bayesian brain: the role of uncertainty in neural coding and computation]. Trends Neurosci. , 27 (12), 712–9.</ref>. Les processus neuronaux décrits par la minimisation de l'énergie libre dépendent de la nature des états cachés : <math>\Psi = X \times \Theta \times \Pi</math> qui peuvent comprendre des variables dépendantes du temps, des paramètres invariants dans le temps et la précision (variance inverse ou température) des fluctuations aléatoires. La minimisation des variables, des paramètres et de la précision correspond respectivement à l'inférence, à l'apprentissage et au codage de l'incertitude.
== Dans d'autres domaines ==
L'inférence active est étroitement liée au théorème du bon régulateur<ref>R.C. Conant, R. W. Ashby, ''Every Good Regulator of a system must be a model of that system'', ''Int. J. Systems Sci.'', 1 (2), 1970 : 89–97.</ref> et aux comptes-rendus connexes de [[Auto-organisation|l'auto-organisation]]<ref>S. Kauffman, ''The Origins of Order: Self-Organization and Selection in Evolution'', Oxford: Oxford University Press, 1993.</ref>{{,}}<ref>[[Grégoire Nicolis]], [[Ilya Prigogine]], ''Self-organization in non-equilibrium systems'', New York: John Wiley, 1977.</ref>, tels que l'[[auto-assemblage]], la formation de motifs, l'[[autopoïèse]]<ref>{{Lien web |titre=ᏟᎬᏢᎪ Constructivist E-Paper Archive » Publication 546 |url=https://cepa.info/abs/546 |site=cepa.info |consulté le=2022-12-09}}</ref> et la practopoièse<ref>D. Nikolić, ''Practopoiesis: Or how life fosters a mind. Journal of theoretical biology'' {{n°|373}}, 2015, {{p.|40-61}}.</ref>. Elle aborde les thèmes de [[Cybernétique|la cybernétique]], la [[synergétique]]<ref>H. Haken, ''Synergetics: An introduction. Non-equilibrium phase transition and self-organisation in physics, chemistry and biology'' ({{3e}} ed.), Berlin: Springer Verlag, 1983.</ref> et l'[[embodiment]]. Puisque l'énergie libre peut être exprimée comme l'énergie attendue (des résultats) sous la densité variationnelle moins son entropie, elle est également liée au [[principe d'entropie maximale]]<ref>{{Article|prénom1=E. T.|nom1=Jaynes|titre=Information Theory and Statistical Mechanics|périodique=Physical Review|volume=106|numéro=4|date=1957-05-15|doi=10.1103/PhysRev.106.620|lire en ligne=https://link.aps.org/doi/10.1103/PhysRev.106.620|consulté le=2022-12-09|pages=620–630}}</ref>. Enfin, parce que la moyenne temporelle de l'énergie est l'action, le principe de l'énergie libre variationnelle minimale est un [[principe de moindre action]].

=== En neurosciences computationelles ===
La minimisation de l'énergie libre fournit un moyen utile de formuler des modèles normatifs (optimaux de Bayes) d'inférence neuronale et d'apprentissage sous incertitude <ref>{{Article|langue=en|prénom1=Karl|nom1=Friston|titre=The free-energy principle: a unified brain theory?|périodique=Nature Reviews Neuroscience|volume=11|numéro=2|date=2010-02|issn=1471-003X|issn2=1471-0048|doi=10.1038/nrn2787|lire en ligne=https://www.nature.com/articles/nrn2787|consulté le=2022-12-09|pages=127–138}}</ref> et souscrit donc à l'hypothèse bayésienne du cerveau<ref>{{Article|langue=en|prénom1=David C.|nom1=Knill|prénom2=Alexandre|nom2=Pouget|titre=The Bayesian brain: the role of uncertainty in neural coding and computation|périodique=Trends in Neurosciences|volume=27|numéro=12|date=2004-12|doi=10.1016/j.tins.2004.10.007|lire en ligne=https://linkinghub.elsevier.com/retrieve/pii/S0166223604003352|consulté le=2022-12-09|pages=712–719}}</ref>. Les processus neuronaux décrits par la minimisation de l'énergie libre dépendent de la nature des états cachés : <math>\Psi = X \times \Theta \times \Pi</math> qui peuvent comprendre des variables dépendantes du temps, des paramètres invariants dans le temps et la précision (variance inverse ou température) des fluctuations aléatoires. La minimisation des variables, des paramètres et de la précision correspond respectivement à l'inférence, à l'apprentissage et au codage de l'incertitude.


=== Inférence perceptuelle et catégorisation ===
==== Inférence perceptuelle et catégorisation ====
La minimisation de l'énergie libre formalise la notion d'[[inférence inconsciente]] dans la perception  et fournit une théorie normative (bayésienne) du traitement neuronal. La théorie des processus associés de la dynamique neuronale est basée sur la minimisation de l'énergie libre par la descente de gradient. Ceci correspond au filtrage bayésien généralisé (où ~ désigne une variable en coordonnées de mouvement généralisées et <math>D</math> est un opérateur de matrice dérivée)<ref>Friston, K., Stephan, K., Li, B., & Daunizeau, J. (2010). [http://www.fil.ion.ucl.ac.uk/~karl/Generalised%20Filtering.pdf Generalised Filtering]. Mathematical Problems in Engineering , vol., 2010, 621670</ref>
La minimisation de l'énergie libre formalise la notion d'[[inférence inconsciente]] dans la perception et fournit une théorie normative (bayésienne) du traitement neuronal. La théorie des processus associés de la dynamique neuronale est basée sur la minimisation de l'énergie libre par la descente de gradient. Ceci correspond au filtrage bayésien généralisé (où ~ désigne une variable en coordonnées de mouvement généralisées et <math>D</math> est un opérateur de matrice dérivée)<ref>{{Article|langue=en|prénom1=Karl|nom1=Friston|prénom2=Klaas|nom2=Stephan|prénom3=Baojuan|nom3=Li|prénom4=Jean|nom4=Daunizeau|titre=Generalised Filtering|périodique=Mathematical Problems in Engineering|volume=2010|date=2010|issn=1024-123X|issn2=1563-5147|doi=10.1155/2010/621670|lire en ligne=http://www.hindawi.com/journals/mpe/2010/621670/|consulté le=2022-12-09|pages=1–34}}</ref> :


:<math>\dot{\tilde{\mu}} = D \tilde{\mu} - \partial_{\tilde{\mu}} F(s,\tilde{\mu})</math>
:<math>\dot{\tilde{\mu}} = D \tilde{\mu} - \partial_{\tilde{\mu}} F(s,\tilde{\mu})</math>


Habituellement, les modèles génératifs qui définissent l'énergie libre sont non linéaires et hiérarchiques (comme les hiérarchies corticales dans le cerveau). Parmi les cas particuliers de filtrage généralisé, on peut citer le [[Filtre de Kalman|filtrage de Kalman]], qui est formellement équivalent au [[codage prédictif]] <ref>Rao, R. P., & Ballard, D. H. (1999). Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects. Nat Neurosci. , 2 (1), 79–87.</ref> – une métaphore populaire pour le message qui passe dans le cerveau. Dans les modèles hiérarchiques, le codage prédictif implique l'échange récurrent d'erreurs de prédiction ascendantes (bottom-up) et descendantes (top-down) <ref name="Mumford">Mumford, D. (1992). [http://cs.brown.edu/people/tld/projects/cortex/course/suggested_reading_list/supplements/documents/MumfordBC-92.pdf On the computational architecture of the neocortex]. II. Biol. Cybern. , 66, 241–51.</ref> qui est compatible avec l'anatomie et la physiologie des systèmes sensoriel <ref>Bastos, A. M., Usrey, W. M., Adams, R. A., Mangun, G. R., Fries, P., & Friston, K. J. (2012). [http://www.fil.ion.ucl.ac.uk/~karl/Canonical%20Microcircuits%20for%20Predictive%20Coding.pdf Canonical microcircuits for predictive coding]. Neuron , 76 (4), 695–711.</ref> et moteur<ref>Adams, R. A., Shipp, S., & Friston, K. J. (2013). [http://www.fil.ion.ucl.ac.uk/~karl/Predictions%20not%20commands%20-%20active%20inference%20in%20the%20motor%20system.pdf Predictions not commands: active inference in the motor system]. Brain Struct Funct. , 218 (3), 611–43</ref>.
Habituellement, les modèles génératifs qui définissent l'énergie libre sont non linéaires et hiérarchiques (comme les hiérarchies corticales dans le cerveau). Parmi les cas particuliers de filtrage généralisé, on peut citer le [[Filtre de Kalman|filtrage de Kalman]], qui est formellement équivalent au [[codage prédictif]]<ref>R.P. Rao, D.H. Ballard, ''Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects'', ''Nat Neurosci.'', 2 (1), 1999 : 79–87.</ref> – une métaphore populaire pour le message qui passe dans le cerveau. Dans les modèles hiérarchiques, le codage prédictif implique l'échange récurrent d'erreurs de prédiction ascendantes (bottom-up) et descendantes (top-down)<ref name="Mumford">{{Article|langue=en|prénom1=D.|nom1=Mumford|titre=On the computational architecture of the neocortex: II The role of cortico-cortical loops|périodique=Biological Cybernetics|volume=66|numéro=3|date=1992-01|issn=0340-1200|issn2=1432-0770|doi=10.1007/BF00198477|lire en ligne=http://link.springer.com/10.1007/BF00198477|consulté le=2022-12-09|pages=241–251}}</ref> qui est compatible avec l'anatomie et la physiologie des systèmes sensoriel<ref>{{Article|langue=en|prénom1=Andre M.|nom1=Bastos|prénom2=W. Martin|nom2=Usrey|prénom3=Rick A.|nom3=Adams|prénom4=George R.|nom4=Mangun|titre=Canonical Microcircuits for Predictive Coding|périodique=Neuron|volume=76|numéro=4|date=2012-11|pmid=23177956|pmcid=PMC3777738|doi=10.1016/j.neuron.2012.10.038|lire en ligne=https://linkinghub.elsevier.com/retrieve/pii/S0896627312009592|consulté le=2022-12-09|pages=695–711}}</ref> et moteur<ref>{{Article|langue=en|prénom1=Rick A.|nom1=Adams|prénom2=Stewart|nom2=Shipp|prénom3=Karl J.|nom3=Friston|titre=Predictions not commands: active inference in the motor system|périodique=Brain Structure and Function|volume=218|numéro=3|date=2013-05|issn=1863-2653|issn2=1863-2661|pmid=23129312|pmcid=PMC3637647|doi=10.1007/s00429-012-0475-5|lire en ligne=http://link.springer.com/10.1007/s00429-012-0475-5|consulté le=2022-12-09|pages=611–643}}</ref>.


=== Apprentissage perceptif et mémoire ===
==== Apprentissage perceptif et mémoire ====
Dans le codage prédictif, l'optimisation des paramètres du modèle par une montée en gradient sur l'intégrale temporelle de l'énergie libre (action libre) se réduit à une plasticité associative ou [[Règle de Hebb|Hebbienne]] et est associée à une [[plasticité synaptique]] dans le cerveau.
Dans le codage prédictif, l'optimisation des paramètres du modèle par une montée en gradient sur l'intégrale temporelle de l'énergie libre (action libre) se réduit à une [[Plasticité neuronale|plasticité]] associative ou [[Règle de Hebb|Hebbienne]] et est associée à une [[plasticité synaptique]] dans le cerveau.


=== Précision perceptuelle, attention et prépondérance ===
==== Précision perceptuelle, attention et prépondérance ====
L'optimisation des paramètres de précision correspond à l'optimisation du gain des erreurs de prédiction (c.f. gain de Kalman). Dans les implémentations neuronalement plausibles du codage prédictif, cela correspond à l'optimisation de l'excitabilité des cellules pyramidales superficielles et a été interprété en termes de gain attentionnel<ref name="Feldman">Feldman, H., & Friston, K. J. (2010). [http://www.fil.ion.ucl.ac.uk/~karl/Attention%20uncertainty%20and%20free-energy.pdf Attention, uncertainty, and free-energy]. Frontiers in Human Neuroscience , 4, 215.</ref>.
L'optimisation des paramètres de précision correspond à l'optimisation du gain des erreurs de prédiction (c.f. gain de Kalman). Dans les implémentations neuronalement plausibles du codage prédictif, cela correspond à l'optimisation de l'excitabilité des cellules pyramidales superficielles et a été interprété en termes de gain attentionnel<ref name="Feldman">{{Article|prénom1=Harriet|nom1=Feldman|prénom2=Karl J.|nom2=Friston|titre=Attention, Uncertainty, and Free-Energy|périodique=Frontiers in Human Neuroscience|volume=4|date=2010|issn=1662-5161|pmid=21160551|pmcid=PMC3001758|doi=10.3389/fnhum.2010.00215|lire en ligne=http://journal.frontiersin.org/article/10.3389/fnhum.2010.00215/abstract|consulté le=2022-12-09}}</ref>.


== Inférence active ==
=== En psychiatrie ===
Lorsque la descente en pente est appliquée à l'action <math>\dot{a} = -\partial_aF(s,\tilde{\mu})</math> le contrôle moteur peut être compris en termes d'arcs réflexes classiques qui sont engagés par des prédictions descendantes (corticospinales). Ceci fournit un formalisme qui généralise la solution du point d'équilibre - au problème des degrés de liberté <ref>Feldman, A. G., & Levin, M. F. (1995). [http://e.guigon.free.fr/rsc/article/FeldmanLevin95.pdf The origin and use of positional frames of reference in motor control]. Behav Brain Sci. , 18, 723–806.</ref> - aux trajectoires de mouvement.


L'inférence active a été utilisée pour aborder un éventail de questions en [[neuropsychiatrie]], notamment l'observation de l'action<ref>{{Article|langue=en|prénom1=Karl|nom1=Friston|prénom2=Jérémie|nom2=Mattout|prénom3=James|nom3=Kilner|titre=Action understanding and active inference|périodique=Biological Cybernetics|volume=104|numéro=1-2|date=2011-02|issn=0340-1200|issn2=1432-0770|pmid=21327826|pmcid=PMC3491875|doi=10.1007/s00422-011-0424-z|lire en ligne=http://link.springer.com/10.1007/s00422-011-0424-z|consulté le=2022-12-09|pages=137–160}}</ref>, les [[neurones miroirs]]<ref name=kilner>{{Article|langue=en|prénom1=James M.|nom1=Kilner|prénom2=Karl J.|nom2=Friston|prénom3=Chris D.|nom3=Frith|titre=Predictive coding: an account of the mirror neuron system|périodique=Cognitive Processing|volume=8|numéro=3|date=2007-09|issn=1612-4790|pmid=17429704|pmcid=PMC2649419|doi=10.1007/s10339-007-0170-2|lire en ligne=http://link.springer.com/10.1007/s10339-007-0170-2|consulté le=2022-12-09|pages=159–166}}.</ref>, les saccades et la recherche visuelle<ref>{{Article|prénom1=Karl|nom1=Friston|prénom2=Rick A.|nom2=Adams|prénom3=Laurent|nom3=Perrinet|prénom4=Michael|nom4=Breakspear|titre=Perceptions as Hypotheses: Saccades as Experiments|périodique=Frontiers in Psychology|volume=3|date=2012|issn=1664-1078|pmid=22654776|pmcid=PMC3361132|doi=10.3389/fpsyg.2012.00151|lire en ligne=http://journal.frontiersin.org/article/10.3389/fpsyg.2012.00151/abstract|consulté le=2022-12-09}}</ref>, les [[mouvement oculaire|mouvements oculaires]]<ref>{{Article|prénom1=J.|nom1=Lachmajer|titre=Symposium on malaria research|périodique=Bulletin of the Institute of Maritime and Tropical Medicine in Gdynia|volume=26|numéro=1|date=1975|issn=0324-8542|pmid=108|lire en ligne=https://pubmed.ncbi.nlm.nih.gov/108|consulté le=2022-12-09|pages=53–58}}</ref>, le sommeil<ref>Hobson, J. A. & Friston, K. J., (2012). Waking and dreaming consciousness: Neurobiological and functional considerations. Prog Neurobiol, 98(1), pp. 82–98.</ref>, les illusions<ref>{{Article|prénom1=Harriet|nom1=Brown|prénom2=Karl|nom2=Friston|titre=Free-Energy and Illusions: The Cornsweet Effect|périodique=Frontiers in Psychology|volume=3|date=2012|issn=1664-1078|doi=10.3389/fpsyg.2012.00043/full|lire en ligne=https://www.frontiersin.org/articles/10.3389/fpsyg.2012.00043|consulté le=2022-12-09}}</ref>, l'[[attention]], la sélection des actions, l'[[hystérie]]<ref>{{Article|langue=en|prénom1=M. J.|nom1=Edwards|prénom2=R. A.|nom2=Adams|prénom3=H.|nom3=Brown|prénom4=I.|nom4=Parees|titre=A Bayesian account of 'hysteria'|périodique=Brain|volume=135|numéro=11|date=2012-11-01|issn=0006-8950|issn2=1460-2156|pmid=22641838|pmcid=PMC3501967|doi=10.1093/brain/aws129|lire en ligne=https://academic.oup.com/brain/article-lookup/doi/10.1093/brain/aws129|consulté le=2022-12-09|pages=3495–3512}}</ref> et la [[psychose]]<ref>R.A. Adams, L. U. Perrinet, K. Friston, ''Smooth pursuit and visual occlusion: active inference and oculomotor control in schizophrenia'', ''PLoS One'', 12;7(10), 2012 :e47502</ref>
=== Inférence et contrôle optimal ===
L'inférence active est liée au [[contrôle optimal]] en remplaçant les fonctions de valeur ou de coût à emporter par des croyances préalables sur les transitions d'état ou le débit<ref>Friston, K., (2011). [http://www.fil.ion.ucl.ac.uk/~karl/What%20Is%20Optimal%20about%20Motor%20Control.pdf What is optimal about motor control?]. Neuron, 72(3), 488–98.</ref>. Ceci exploite le lien étroit entre le filtrage bayésien et la solution à [[l'équation de Bellman]]. Cependant, l'inférence active commence par (prend le pas sur) le débit <math>f = \Gamma \cdot \nabla V + \nabla \times W</math> qui sont spécifiés par des fonctions de valeur scalaire <math>V(x)</math> et vectorielle <math>W(x)</math> de l'espace d'état (c.f. la [[Théorème de Helmholtz-Hodge|décomposition de Helmholtz]]). Ici, <math>\Gamma</math> est l'amplitude des fluctuations aléatoires et le coût est <math>c(x) = f \cdot \nabla V + \nabla \cdot \Gamma \cdot V</math>. Les antécédents de dépassement du flux <math>p(\tilde{x}|m)</math> induisent une priorité sur les états <math>p(x|m) = \exp (V(x))</math> qui est la solution aux [[équations de Kolmogorov]] avancées appropriées<ref>Friston, K., & Ao, P. (2012). [http://www.fil.ion.ucl.ac.uk/~karl/Free%20Energy%20Value%20and%20Attractors.pdf Free-energy, value and attractors]. Computational and mathematical methods in medicine, 2012, 937860.</ref>. En revanche, la régulation optimale optimise le débit, compte tenu d'une fonction de coût, en supposant que <math>W = 0</math> (c'est-à-dire que le débit n'est pas bouclé ou qu'il présente un bilan détaillé). Habituellement, il s'agit de résoudre les équations de Kolmogorov rétrogrades<ref>Kappen, H., (2005). [https://arxiv.org/pdf/physics/0505066v4.pdf Path integrals and symmetry breaking for optimal control theory]. Journal of Statistical Mechanics: Theory and Experiment, 11, p. P11011.</ref>.


=== Inférence active et théorie (des jeux) de la décision optimale ===
=== Inférence active et théorie (des jeux) de la décision optimale ===
Les problèmes de [[décision optimale]] (habituellement formulés comme des [[Processus de décision markovien partiellement observable|processus de décision de Markov partiellement observables]]) sont traités par inférence active en absorbant les fonctions d'[[Utilité (économie)|utilité]] dans des croyances antérieures. Dans ce paramètre, les états qui ont une utilité élevée (faible coût) sont les états qu'un agent s'attend à occuper. En équipant le modèle générateur d'états cachés qui contrôlent le modèle, les politiques (séquences de contrôle) qui minimisent l'énergie libre variationnelle conduisent à des états d'utilité élevée<ref>Friston, K., Samothrakis, S. & Montague, R., (2012). [http://www.fil.ion.ucl.ac.uk/~karl/Active%20inference%20and%20agency%20optimal%20control%20without%20cost%20functions.pdf Active inference and agency: optimal control without cost functions]. Biol. Cybernetics, 106(8–9), 523–41.</ref>.


Les problèmes de [[décision optimale]] (habituellement formulés comme des [[Processus de décision markovien partiellement observable|processus de décision de Markov partiellement observables]]) sont traités par inférence active en absorbant les fonctions d'[[Utilité (économie)|utilité]] dans des croyances antérieures. Dans ce paramètre, les états qui ont une utilité élevée (faible coût) sont les états qu'un agent s'attend à occuper. En équipant le modèle générateur d'états cachés qui contrôlent le modèle, les politiques (séquences de contrôle) qui minimisent l'énergie libre variationnelle conduisent à des états d'utilité élevée<ref name=kilner/>.
Neurobiologiquement, les neuromodulateurs comme la [[dopamine]] sont considérés pour rapporter la précision des erreurs de prédiction en modulant le gain des cellules principales codant l'erreur de prédiction<ref name="Friston_a">Friston, K. J. Shiner T, FitzGerald T, Galea JM, Adams R, Brown H, Dolan RJ, Moran R, Stephan KE, Bestmann S. (2012). [http://www.fil.ion.ucl.ac.uk/~karl/Dopamine%20Affordance%20and%20Active%20Inference.pdf Dopamine, affordance and active inference]. PLoS Comput. Biol., 8(1), p. e1002327.</ref>. Cela est étroitement lié au rôle de la dopamine dans la déclaration des erreurs de prévision en soi, mais en est formellement distinct <ref>Fiorillo, C. D., Tobler, P. N. & Schultz, W., (2003). [http://e.guigon.free.fr/rsc/article/FiorilloEtAl03.pdf Discrete coding of reward probability and uncertainty by dopamine neurons]. Science, 299(5614), 1898–902.</ref> et dans les comptes rendus informatiques connexes<ref>Frank, M. J., (2005). [http://ski.cog.brown.edu/papers/Frank_JOCN.pdf Dynamic dopamine modulation in the basal ganglia: a neurocomputational account of cognitive deficits in medicated and nonmedicated Parkinsonism]. J Cogn Neurosci., Jan, 1, 51–72.</ref>.


Neurobiologiquement, les neuromodulateurs comme la [[dopamine]] sont considérés pour rapporter la précision des erreurs de prédiction en modulant le gain des cellules principales codant l'erreur de prédiction<ref name="Friston_a">{{Article|prénom1=Karl J.|nom1=Friston|prénom2=Tamara|nom2=Shiner|prénom3=Thomas|nom3=FitzGerald|prénom4=Joseph M.|nom4=Galea|titre=Dopamine, Affordance and Active Inference|périodique=PLoS Computational Biology|volume=8|numéro=1|date=2012-01-05|issn=1553-7358|doi=10.1371/journal.pcbi.1002327|lire en ligne=http://dx.doi.org/10.1371/journal.pcbi.1002327|consulté le=2022-12-09|pages=e1002327}}</ref>. Cela est étroitement lié au rôle de la dopamine dans la déclaration des erreurs de prévision en soi, mais en est formellement distinct<ref>Fiorillo, C. D., Tobler, P. N. & Schultz, W., (2003). [http://e.guigon.free.fr/rsc/article/FiorilloEtAl03.pdf Discrete coding of reward probability and uncertainty by dopamine neurons]. Science, 299(5614), 1898–902.</ref> et dans les comptes rendus informatiques connexes<ref>{{Article|prénom1=Michael J.|nom1=Frank|titre=Dynamic Dopamine Modulation in the Basal Ganglia: A Neurocomputational Account of Cognitive Deficits in Medicated and Nonmedicated Parkinsonism|périodique=Journal of Cognitive Neuroscience|volume=17|numéro=1|date=2005-01-01|issn=0898-929X|issn2=1530-8898|doi=10.1162/0898929052880093|lire en ligne=http://dx.doi.org/10.1162/0898929052880093|consulté le=2022-12-09|pages=51–72}}</ref>.
=== Inférence active et neurosciences cognitives ===

L'inférence active a été utilisée pour aborder un éventail de questions dans les [[neurosciences cognitives]], la fonction cérébrale et la neuropsychiatrie, notamment l'observation de l'action<ref>Friston, K., Mattout, J. & Kilner, J., (2011). [http://www.fil.ion.ucl.ac.uk/~karl/Action%20understanding%20and%20active%20inference.pdf Action understanding and active inference]. Biol Cybern., 104, 137–160.</ref>, les neurones miroirs<ref>Kilner, J. M., Friston, K. J. & Frith, C. D., (2007). [http://www.fil.ion.ucl.ac.uk/~karl/Predictive%20coding%20an%20account%20of%20the%20mirror%20neuron%20system.pdf Predictive coding: an account of the mirror neuron system]. Cogn Process., 8(3), pp. 159–66.</ref>, les saccades et la recherche visuelle<ref>Friston, K., Adams, R. A., Perrinet, L. & Breakspear, M., (2012). [http://www.fil.ion.ucl.ac.uk/~karl/Perceptions%20as%20hypotheses%20saccades%20as%20experiments.pdf Perceptions as hypotheses: saccades as experiments]. Front Psychol., 3, 151.</ref>, les mouvements oculaires<ref>Perrinet L, Adams R, Friston, K. [https://link.springer.com/content/pdf/10.1007%2Fs00422-014-0620-8.pdf Active inference, eye movements and oculomotor delays]. Biological Cybernetics, 108(6):777-801, 2014.</ref>, le sommeil<ref>Hobson, J. A. & Friston, K. J., (2012). Waking and dreaming consciousness: Neurobiological and functional considerations. Prog Neurobiol, 98(1), pp. 82–98.</ref>, les illusions<ref>Brown, H., & Friston, K. J. (2012). [http://www.fil.ion.ucl.ac.uk/~karl/Free-energy%20and%20illusions%20the%20Cornsweet%20effect.pdf Free-energy and illusions: the cornsweet effect]. Front Psychol , 3, 43.</ref>, l'attention, la sélection des actions, l'hystérie <ref>Edwards, M. J., Adams, R. A., Brown, H., Pareés, I., & Friston, K. J. (2012). [http://www.fil.ion.ucl.ac.uk/~karl/A%20Bayesian%20account%20of%20hysteria.pdf A Bayesian account of 'hysteria']. Brain , 135(Pt 11):3495–512.</ref> et la psychose<ref>Adams RA, Perrinet LU, Friston K. (2012). Smooth pursuit and visual occlusion: active inference and oculomotor control in schizophrenia. PLoS One. , 12;7(10):e47502</ref>.
=== Mathématiques ===
Lorsque la descente de gradient est appliquée à l'action <math>\dot{a} = -\partial_aF(s,\tilde{\mu})</math> le contrôle moteur peut être compris en termes d'arcs réflexes classiques qui sont engagés par des prédictions descendantes (corticospinales). Ceci fournit un formalisme qui généralise la solution du point d'équilibre - au problème des degrés de liberté<ref>Feldman, A. G., & Levin, M. F. (1995). [http://e.guigon.free.fr/rsc/article/FeldmanLevin95.pdf The origin and use of positional frames of reference in motor control]. Behav Brain Sci., 18, 723–806.</ref> - aux trajectoires de mouvement.

==== Inférence et contrôle optimal ====
L'inférence active est liée au [[contrôle optimal]] en remplaçant les fonctions de valeur ou de coût à emporter par des croyances préalables sur les transitions d'état ou le débit<ref>{{Article|prénom1=Karl|nom1=Friston|titre=What Is Optimal about Motor Control?|périodique=Neuron|volume=72|numéro=3|date=2011-11|issn=0896-6273|doi=10.1016/j.neuron.2011.10.018|lire en ligne=http://dx.doi.org/10.1016/j.neuron.2011.10.018|consulté le=2022-12-09|pages=488–498}}</ref>. Ceci exploite le lien étroit entre le filtrage bayésien et la solution à [[l'équation de Bellman]]. Cependant, l'inférence active commence par (prend le pas sur) le débit <math>f = \Gamma \cdot \nabla V + \nabla \times W</math> qui sont spécifiés par des fonctions de valeur scalaire <math>V(x)</math> et vectorielle <math>W(x)</math> de l'espace d'état (c.f. la [[Théorème de Helmholtz-Hodge|décomposition de Helmholtz]]). Ici, <math>\Gamma</math> est l'amplitude des fluctuations aléatoires et le coût est <math>c(x) = f \cdot \nabla V + \nabla \cdot \Gamma \cdot V</math>. Les antécédents de dépassement du flux <math>p(\tilde{x}|m)</math> induisent une priorité sur les états <math>p(x|m) = \exp (V(x))</math> qui est la solution aux [[équations de Kolmogorov]] avancées appropriées<ref>{{Article|langue=en|prénom1=Karl|nom1=Friston|prénom2=Ping|nom2=Ao|titre=Free Energy, Value, and Attractors|périodique=Computational and Mathematical Methods in Medicine|volume=2012|date=2012|issn=1748-670X|issn2=1748-6718|pmid=22229042|pmcid=PMC3249597|doi=10.1155/2012/937860|lire en ligne=http://www.hindawi.com/journals/cmmm/2012/937860/|consulté le=2022-12-09|pages=1–27}}</ref>. En revanche, la régulation optimale optimise le débit, compte tenu d'une fonction de coût, en supposant que <math>W = 0</math> (c'est-à-dire que le débit n'est pas bouclé ou qu'il présente un bilan détaillé). Habituellement, il s'agit de résoudre les équations de Kolmogorov rétrogrades<ref>Kappen, H., (2005). [https://arxiv.org/pdf/physics/0505066v4.pdf Path integrals and symmetry breaking for optimal control theory]. Journal of Statistical Mechanics: Theory and Experiment, 11, p. P11011.</ref>

== Références ==
{{section à wikifier|date=décembre 2022}}
{{Références}}


== Voir aussi ==
== Voir aussi ==
=== Bibliographie ===
* {{Article| langue=en| titre=The free energy principle made simpler but not too simple| auteur1=Karl Friston| auteur2=Lancelot Da Costa| auteur3=Noor Sajid| auteur4=Conor Heins| auteur5=Kai Ueltzhöffer| et al.=oui| périodique=[[Physics Reports]]| volume=1024| numéro=| date=19 juin 2023| pages=1-29| doi=10.1016/j.physrep.2023.07.001| accès doi=libre| consulté le=5 août 2023}}


=== Articles connexes ===
* Perception spécifique à l'action
* [[Affordance]]
* [[Affordance]]
* [[Autopoïèse]]
* [[Autopoïèse]]
* Approches bayésiennes de la fonction cérébrale
* [[Théorie de la décision]]
* [[Théorie de la décision]]
* [[Embodiment]]
* [[Embodiment]]
* [[Énergie libre]]
* [[Énergie libre]]
* [[Commande optimale]]
* [[Commande optimale]]
* Practopoïèse
* Codage prédictif
* [[Auto-organisation]]
* [[Auto-organisation]]
* Synergétique (Haken)
* Méthodes bayésiennes variationnelles

== Références ==
{{Reflist|3}}

== Liens externes ==


=== Liens externes ===
* [http://journals.cambridge.org/action/displayAbstract?fromPage=online&aid=8918803 Sciences du comportement et du cerveau (Andy Clark)]
* [http://journals.cambridge.org/action/displayAbstract?fromPage=online&aid=8918803 Sciences du comportement et du cerveau (Andy Clark)]
{{Portail|énergie|biologie}}
{{Portail|énergie|biologie|neurosciences}}


[[Catégorie:Système]]
[[Catégorie:Système]]
[[Catégorie:Systémique]]
[[Catégorie:Systémique]]
[[Catégorie:Thermodynamique]]

Dernière version du 5 août 2023 à 15:36

Le principe d'énergie libre est un cadre utilisé pour décrire comment le cerveau prend des décisions et s'adapte à des circonstances changeantes. Il repose sur l'idée que le cerveau essaie constamment de minimiser son énergie libre, qui est une mesure de la surprise que le cerveau ressent face aux informations sensorielles qu'il reçoit.

En minimisant son énergie libre, le cerveau peut faire des prédictions sur le monde qui l'entoure et prendre les actions appropriées. La minimisation implicite de l'énergie libre variationnelle est formellement liée aux méthodes bayésiennes variationnelles et a été introduite à l'origine par Karl Friston comme explication de la perception incarnée dans les neurosciences[1], où elle est aussi connue sous le nom d'inférence active ou de codage prédictif.

En termes généraux, le principe de l'énergie libre est utilisé pour décrire un système tel que défini comme étant enfermé dans une couverture de Markov - essaie de minimiser la différence entre son modèle du monde et la perception de ses capteurs. Cette différence peut être qualifiée de « surprise » et minimisée par une mise à jour constante du modèle du monde. En tant que tel, le principe est basé sur l'idée bayésienne du cerveau comme « moteur d'inférence ». Friston a ajouté une deuxième voie à la minimisation : l'action. En changeant activement le monde dans l'état attendu, les systèmes peuvent aussi minimiser l'énergie libre du système. Friston suppose que c'est le principe de toute réaction biologique.

Friston considère que son principe s'applique aussi bien aux troubles mentaux qu'à l'intelligence artificielle. Les implémentations de l'IA basées sur le principe de l'inférence active ont montré des avantages par rapport à d'autres méthodes. Il est également utilisé pour expliquer comment les systèmes biologiques se maintiennent en état de non-équilibre quasi-stationnaire en se limitant à un nombre limité d'états[2]

Définitions

[modifier | modifier le code]

Codage prédictif

[modifier | modifier le code]

Le codage prédictif est une théorie de neurosciences sur la manière dont le cerveau traite les informations sensorielles. Elle propose que le cerveau génère constamment des prévisions sur les entrées sensorielles qu'il est susceptible de recevoir, en fonction de son expérience passée et de son contexte actuel. Lorsque de nouvelles entrées sensorielles sont reçues, elles sont comparées à ces prévisions, et toutes les différences sont utilisées pour mettre à jour le modèle interne du cerveau à propos du monde. Ce processus permet au cerveau de traiter rapidement et efficacement les informations sensorielles, ce qui nous permet d'interagir avec notre environnement en temps réel.

Inférence active

[modifier | modifier le code]

L'inférence active est le cadre computationnel qui décrit comment un agent (comme une personne ou une intelligence artificielle) peut interagir avec son environnement pour atteindre un résultat souhaité. Il repose sur l'idée qu'un agent peut maximiser ses chances de réussite en recherchant activement des informations sur son environnement et en utilisant ces informations pour faire des prévisions sur les événements futurs. Ces prévisions peuvent alors être utilisées pour orienter les actions de l'agent de manière cohérente avec ses objectifs et ses préférences.

Energie libre

[modifier | modifier le code]

L'énergie libre est une mesure de l'incertitude ou de la surprise dans un système. Elle est définie comme la différence entre l'énergie attendue du système et l'énergie réelle du système.

Dans la théorie de Karl Friston, le but d'un système intelligent, tel que le cerveau, est de minimiser son énergie libre en réduisant l'incertitude et la surprise. Cela est réalisé en faisant des prédictions sur l'état futur du système, puis en utilisant les informations sensorielles pour mettre à jour ces prédictions et réduire l'erreur ou la discordance entre les états prédits et réels.

En d'autres termes est une mesure de l'écart ou de l'erreur entre les prédictions du système et les entrées sensorielles réelles qu'il reçoit. En minimisant son énergie libre le système peut réduire l'incertitude et la surprise, et s'adapter à son environnement de manière plus efficace.

Formulation continue

[modifier | modifier le code]
Ces schémas illustrent la partition des états en états internes et en états cachés ou externes séparés par une couverture de Markov - comprenant des états sensoriels et actifs. Le panneau inférieur montre cette partition telle qu'elle serait appliquée à l'action et à la perception dans le cerveau, où les états actifs et internes minimisent une énergie libre fonctionnelle des états sensoriels. L'auto-organisation des états internes qui s'ensuit correspond alors à la perception, tandis que l'action couple les états du cerveau aux états externes. Le panneau supérieur montre exactement les mêmes dépendances mais réarrangées de sorte que les états internes sont associés aux états intracellulaires d'une cellule, tandis que les états sensoriels deviennent les états de surface de la membrane cellulaire recouvrant les états actifs (par exemple, les filaments d'actine du cytosquelette).

L'inférence active repose sur le tuple ,

  • Un échantillon de l'espace – à partir de laquelle les fluctuations aléatoires sont tirées
  • États cachés ou externes – qui provoquent des états sensoriels et dépendent de l'action
  • États sensoriels – une cartographie probabiliste à partir de l'action et des états cachés
  • Action – qui dépend des états sensoriels et internes
  • États internes – qui provoquent l'action et dépendent des états sensoriels
  • Densité générative – sur des états sensoriels et cachés sous un modèle génératif
  • Densité variationnelle – sur des états cachés paramétrée par des états internes

Action et perception

[modifier | modifier le code]

L'objectif est de maximiser la preuve du modèle ou de minimiser la surprise . Il s'agit généralement d'une marginalisation insoluble sur les états cachés, donc la surprise est remplacée par une énergie libre variationnelle supérieure liée. Cependant, cela signifie que les états internes doivent également minimiser l'énergie libre, car l'énergie libre est une fonction des états sensoriels et internes :

Ceci induit une double minimisation par rapport à l'action et aux états internes qui correspondent respectivement à l'action et à la perception.

Comparaison avec d'autres cadres

[modifier | modifier le code]

L'idée que les systèmes biologiques auto-organisés - comme une cellule ou un cerveau - peuvent être compris comme minimisant l'énergie libre variationnelle est basée sur les observations de Helmholtz sur l'inférence inconsciente[3] et les traitements ultérieurs en psychologie[4] et en apprentissage automatique[5].

L'énergie libre variationnelle est fonction de certains résultats et d'une densité de probabilité sur leurs causes (cachées). Cette densité variationnelle est définie par rapport à un modèle probabiliste qui génère des résultats à partir des causes. Dans ce contexte, l'énergie libre fournit une approximation (limite supérieure) des données probantes du modèle bayésien[6]. Sa minimisation peut donc être utilisée pour expliquer l'inférence et l'apprentissage bayésiens. Lorsqu'un système échantillonne activement les résultats pour minimiser l'énergie libre, il effectue implicitement une inférence active et maximise les preuves pour son modèle (génératif).

Cependant, l'énergie libre est aussi une limite supérieure sur l'auto-information (ou surprise) des résultats, où la moyenne à long terme de la surprise est l'entropie. Cela signifie que si un système agit pour minimiser l'énergie libre, il placera implicitement une limite supérieure sur l'entropie des résultats - ou états sensoriels - qu'il échantillonne[7].

Minimisation de l'énergie libre et auto-organisation

[modifier | modifier le code]

La minimisation de l'énergie libre a été proposée comme caractéristique des systèmes auto-organisés, lorsqu'elle est présentée comme des systèmes dynamiques aléatoires[8]. Cette formulation repose sur une couverture de Markov (comprenant des états d'action et des états sensoriels) qui sépare les états internes et externes. Si les états internes et l'action minimisent l'énergie libre, alors ils placent une limite supérieure sur l'entropie des états sensoriels

En effet, dans les hypothèses ergodiques, la moyenne à long terme des surprises est l'entropie. Cette limite résiste à une tendance naturelle au désordre - du type associé à la deuxième loi de la thermodynamique et au théorème de fluctuation.

Minimisation de l'énergie libre et inférence bayésienne

[modifier | modifier le code]

Toutes les inférences bayésiennes peuvent être exprimées en termes de minimisation de l'énergie libre, par exemple[9] lorsque l'énergie libre est minimisée par rapport aux états internes, la divergence de Kullback-Leibler entre la densité variationnelle et la densité postérieure sur les états cachés est minimisée. Cela correspond à une inférence bayésienne approximative - lorsque la forme de la densité variationnelle est fixe - et à une inférence bayésienne exacte sinon. La minimisation de l'énergie libre fournit donc une description générique de l'inférence et du filtrage bayésiens (p. ex. filtre de Kalman). Elle est également utilisée dans la sélection de modèles bayésiens, où l'énergie libre peut être utilement décomposée en complexité et précision :

Les modèles avec un minimum d'énergie libre fournissent une explication précise des données, sous les coûts de complexité (c.f., le rasoir d'Ockham et les traitements plus formels des coûts de calcul)[10]). Ici, la complexité est la divergence entre la densité variationnelle et les croyances antérieures sur les états cachés (c'est-à-dire les degrés effectifs de liberté utilisés pour expliquer les données).

Minimisation de l'énergie libre et thermodynamique

[modifier | modifier le code]

L'énergie libre variationnelle est une information théorique fonctionnelle et se distingue de l'énergie libre thermodynamique (Helmholtz)[11]. Cependant, le terme de complexité de l'énergie libre variationnelle partage le même point fixe que l'énergie libre de Helmholtz (dans l'hypothèse où le système est fermé thermodynamiquement mais non isolé). En effet, si les perturbations sensorielles sont suspendues (pour une période de temps suffisamment longue), la complexité est minimisée (car la précision peut être négligée). À ce stade, le système est en équilibre et les états internes minimisent l'énergie libre de Helmholtz, par le principe de l'énergie minimale[12].

Minimisation de l'énergie libre et théorie de l'information

[modifier | modifier le code]

La minimisation de l'énergie libre équivaut à maximiser l'information mutuelle entre les états sensoriels et les états internes qui paramètrent la densité variationnelle (pour une densité variationnelle à entropie fixe). Ceci relie la minimisation de l'énergie libre au principe de la redondance minimale[13] et aux traitements connexes utilisant la théorie de l'information pour décrire le comportement optimal[14],[15].

Dans d'autres domaines

[modifier | modifier le code]

L'inférence active est étroitement liée au théorème du bon régulateur[16] et aux comptes-rendus connexes de l'auto-organisation[17],[18], tels que l'auto-assemblage, la formation de motifs, l'autopoïèse[19] et la practopoièse[20]. Elle aborde les thèmes de la cybernétique, la synergétique[21] et l'embodiment. Puisque l'énergie libre peut être exprimée comme l'énergie attendue (des résultats) sous la densité variationnelle moins son entropie, elle est également liée au principe d'entropie maximale[22]. Enfin, parce que la moyenne temporelle de l'énergie est l'action, le principe de l'énergie libre variationnelle minimale est un principe de moindre action.

En neurosciences computationelles

[modifier | modifier le code]

La minimisation de l'énergie libre fournit un moyen utile de formuler des modèles normatifs (optimaux de Bayes) d'inférence neuronale et d'apprentissage sous incertitude [23] et souscrit donc à l'hypothèse bayésienne du cerveau[24]. Les processus neuronaux décrits par la minimisation de l'énergie libre dépendent de la nature des états cachés : qui peuvent comprendre des variables dépendantes du temps, des paramètres invariants dans le temps et la précision (variance inverse ou température) des fluctuations aléatoires. La minimisation des variables, des paramètres et de la précision correspond respectivement à l'inférence, à l'apprentissage et au codage de l'incertitude.

Inférence perceptuelle et catégorisation

[modifier | modifier le code]

La minimisation de l'énergie libre formalise la notion d'inférence inconsciente dans la perception et fournit une théorie normative (bayésienne) du traitement neuronal. La théorie des processus associés de la dynamique neuronale est basée sur la minimisation de l'énergie libre par la descente de gradient. Ceci correspond au filtrage bayésien généralisé (où ~ désigne une variable en coordonnées de mouvement généralisées et est un opérateur de matrice dérivée)[25] :

Habituellement, les modèles génératifs qui définissent l'énergie libre sont non linéaires et hiérarchiques (comme les hiérarchies corticales dans le cerveau). Parmi les cas particuliers de filtrage généralisé, on peut citer le filtrage de Kalman, qui est formellement équivalent au codage prédictif[26] – une métaphore populaire pour le message qui passe dans le cerveau. Dans les modèles hiérarchiques, le codage prédictif implique l'échange récurrent d'erreurs de prédiction ascendantes (bottom-up) et descendantes (top-down)[27] qui est compatible avec l'anatomie et la physiologie des systèmes sensoriel[28] et moteur[29].

Apprentissage perceptif et mémoire

[modifier | modifier le code]

Dans le codage prédictif, l'optimisation des paramètres du modèle par une montée en gradient sur l'intégrale temporelle de l'énergie libre (action libre) se réduit à une plasticité associative ou Hebbienne et est associée à une plasticité synaptique dans le cerveau.

Précision perceptuelle, attention et prépondérance

[modifier | modifier le code]

L'optimisation des paramètres de précision correspond à l'optimisation du gain des erreurs de prédiction (c.f. gain de Kalman). Dans les implémentations neuronalement plausibles du codage prédictif, cela correspond à l'optimisation de l'excitabilité des cellules pyramidales superficielles et a été interprété en termes de gain attentionnel[30].

En psychiatrie

[modifier | modifier le code]

L'inférence active a été utilisée pour aborder un éventail de questions en neuropsychiatrie, notamment l'observation de l'action[31], les neurones miroirs[32], les saccades et la recherche visuelle[33], les mouvements oculaires[34], le sommeil[35], les illusions[36], l'attention, la sélection des actions, l'hystérie[37] et la psychose[38]

Inférence active et théorie (des jeux) de la décision optimale

[modifier | modifier le code]

Les problèmes de décision optimale (habituellement formulés comme des processus de décision de Markov partiellement observables) sont traités par inférence active en absorbant les fonctions d'utilité dans des croyances antérieures. Dans ce paramètre, les états qui ont une utilité élevée (faible coût) sont les états qu'un agent s'attend à occuper. En équipant le modèle générateur d'états cachés qui contrôlent le modèle, les politiques (séquences de contrôle) qui minimisent l'énergie libre variationnelle conduisent à des états d'utilité élevée[32].

Neurobiologiquement, les neuromodulateurs comme la dopamine sont considérés pour rapporter la précision des erreurs de prédiction en modulant le gain des cellules principales codant l'erreur de prédiction[39]. Cela est étroitement lié au rôle de la dopamine dans la déclaration des erreurs de prévision en soi, mais en est formellement distinct[40] et dans les comptes rendus informatiques connexes[41].

Mathématiques

[modifier | modifier le code]

Lorsque la descente de gradient est appliquée à l'action le contrôle moteur peut être compris en termes d'arcs réflexes classiques qui sont engagés par des prédictions descendantes (corticospinales). Ceci fournit un formalisme qui généralise la solution du point d'équilibre - au problème des degrés de liberté[42] - aux trajectoires de mouvement.

Inférence et contrôle optimal

[modifier | modifier le code]

L'inférence active est liée au contrôle optimal en remplaçant les fonctions de valeur ou de coût à emporter par des croyances préalables sur les transitions d'état ou le débit[43]. Ceci exploite le lien étroit entre le filtrage bayésien et la solution à l'équation de Bellman. Cependant, l'inférence active commence par (prend le pas sur) le débit qui sont spécifiés par des fonctions de valeur scalaire et vectorielle de l'espace d'état (c.f. la décomposition de Helmholtz). Ici, est l'amplitude des fluctuations aléatoires et le coût est . Les antécédents de dépassement du flux induisent une priorité sur les états qui est la solution aux équations de Kolmogorov avancées appropriées[44]. En revanche, la régulation optimale optimise le débit, compte tenu d'une fonction de coût, en supposant que (c'est-à-dire que le débit n'est pas bouclé ou qu'il présente un bilan détaillé). Habituellement, il s'agit de résoudre les équations de Kolmogorov rétrogrades[45]

Références

[modifier | modifier le code]
  1. (en) Karl Friston, James Kilner et Lee Harrison, « A free energy principle for the brain », Journal of Physiology-Paris, vol. 100, nos 1-3,‎ , p. 70–87 (DOI 10.1016/j.jphysparis.2006.10.001, lire en ligne, consulté le )
  2. (en) W. Ross Ashby, « Principles of the Self-Organizing System », dans Facets of Systems Science, Springer US, (ISBN 978-1-4899-0718-9, DOI 10.1007/978-1-4899-0718-9_38, lire en ligne), p. 521–536
  3. G. Helmholtz, Concerning the perceptions in general In : Treatise on physiological optics (J. Southall, Trans., 3e ed., Vol. III), New York: Dover, [réf. incomplète]
  4. R. L. Gregory, « Perceptions as Hypotheses », Philosophical Transactions of the Royal Society of London. Series B, Biological Sciences, vol. 290, no 1038,‎ , p. 181–197 (ISSN 0080-4622, lire en ligne, consulté le )
  5. P. Dayan, G.E. Hinton, R. Neal, The Helmholtz machine, Neural Computation, 7, 1995 : 889–904.
  6. « Matthew J. Beal - Thesis: Matthew J. Beal, Variational Algorithms for Approximate Bayesian Inference », sur cse.buffalo.edu (consulté le )
  7. (en) Karl Friston, « A Free Energy Principle for Biological Systems », Entropy, vol. 14, no 11,‎ , p. 2100–2121 (ISSN 1099-4300, PMID 23204829, PMCID PMC3510653, DOI 10.3390/e14112100, lire en ligne, consulté le )
  8. H. Crauel, F. Flandoli, Attractors for random dynamical systems. Probab Theory Relat Fields, 100, 1994 : 365–393.
  9. S. Roweis, en:Zoubin Ghahramani, A unifying review of linear Gaussian models, Neural Computat, 11 (2), 1999 : 305–345. DOI 10.1162/089976699300016674
  10. Pedro A. Ortega et Daniel A. Braun, « Thermodynamics as a theory of decision-making with information-processing costs », Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences, vol. 469, no 2153,‎ , p. 20120683 (DOI 10.1098/rspa.2012.0683, lire en ligne, consulté le )
  11. (en) Denis J. Evans, « A non-equilibrium free energy theorem for deterministic systems », Molecular Physics, vol. 101, no 10,‎ , p. 1551–1554 (ISSN 0026-8976 et 1362-3028, DOI 10.1080/0026897031000085173, lire en ligne, consulté le )
  12. C. Jarzynski, « Nonequilibrium Equality for Free Energy Differences », Physical Review Letters, vol. 78, no 14,‎ , p. 2690–2693 (ISSN 0031-9007 et 1079-7114, DOI 10.1103/physrevlett.78.2690, lire en ligne, consulté le )
  13. H. B. Barlow, « Possible Principles Underlying the Transformations of Sensory Messages », dans Sensory Communication, The MIT Press, (ISBN 978-0-262-51842-0, DOI 10.7551/mitpress/9780262518420.003.0013, lire en ligne), p. 216–234
  14. (en) R. Linsker, « Perceptual Neural Organization: Some Approaches Based on Network Models and Information Theory », Annual Review of Neuroscience, vol. 13, no 1,‎ , p. 257–281 (ISSN 0147-006X et 1545-4126, DOI 10.1146/annurev.ne.13.030190.001353, lire en ligne, consulté le )
  15. William Bialek, Ilya Nemenman et Naftali Tishby, « Predictability, complexity and learning », arXiv:physics/0007070,‎ (lire en ligne, consulté le )
  16. R.C. Conant, R. W. Ashby, Every Good Regulator of a system must be a model of that system, Int. J. Systems Sci., 1 (2), 1970 : 89–97.
  17. S. Kauffman, The Origins of Order: Self-Organization and Selection in Evolution, Oxford: Oxford University Press, 1993.
  18. Grégoire Nicolis, Ilya Prigogine, Self-organization in non-equilibrium systems, New York: John Wiley, 1977.
  19. « ᏟᎬᏢᎪ Constructivist E-Paper Archive » Publication 546 », sur cepa.info (consulté le )
  20. D. Nikolić, Practopoiesis: Or how life fosters a mind. Journal of theoretical biology no 373, 2015, p. 40-61.
  21. H. Haken, Synergetics: An introduction. Non-equilibrium phase transition and self-organisation in physics, chemistry and biology (3e ed.), Berlin: Springer Verlag, 1983.
  22. E. T. Jaynes, « Information Theory and Statistical Mechanics », Physical Review, vol. 106, no 4,‎ , p. 620–630 (DOI 10.1103/PhysRev.106.620, lire en ligne, consulté le )
  23. (en) Karl Friston, « The free-energy principle: a unified brain theory? », Nature Reviews Neuroscience, vol. 11, no 2,‎ , p. 127–138 (ISSN 1471-003X et 1471-0048, DOI 10.1038/nrn2787, lire en ligne, consulté le )
  24. (en) David C. Knill et Alexandre Pouget, « The Bayesian brain: the role of uncertainty in neural coding and computation », Trends in Neurosciences, vol. 27, no 12,‎ , p. 712–719 (DOI 10.1016/j.tins.2004.10.007, lire en ligne, consulté le )
  25. (en) Karl Friston, Klaas Stephan, Baojuan Li et Jean Daunizeau, « Generalised Filtering », Mathematical Problems in Engineering, vol. 2010,‎ , p. 1–34 (ISSN 1024-123X et 1563-5147, DOI 10.1155/2010/621670, lire en ligne, consulté le )
  26. R.P. Rao, D.H. Ballard, Predictive coding in the visual cortex: a functional interpretation of some extra-classical receptive-field effects, Nat Neurosci., 2 (1), 1999 : 79–87.
  27. (en) D. Mumford, « On the computational architecture of the neocortex: II The role of cortico-cortical loops », Biological Cybernetics, vol. 66, no 3,‎ , p. 241–251 (ISSN 0340-1200 et 1432-0770, DOI 10.1007/BF00198477, lire en ligne, consulté le )
  28. (en) Andre M. Bastos, W. Martin Usrey, Rick A. Adams et George R. Mangun, « Canonical Microcircuits for Predictive Coding », Neuron, vol. 76, no 4,‎ , p. 695–711 (PMID 23177956, PMCID PMC3777738, DOI 10.1016/j.neuron.2012.10.038, lire en ligne, consulté le )
  29. (en) Rick A. Adams, Stewart Shipp et Karl J. Friston, « Predictions not commands: active inference in the motor system », Brain Structure and Function, vol. 218, no 3,‎ , p. 611–643 (ISSN 1863-2653 et 1863-2661, PMID 23129312, PMCID PMC3637647, DOI 10.1007/s00429-012-0475-5, lire en ligne, consulté le )
  30. Harriet Feldman et Karl J. Friston, « Attention, Uncertainty, and Free-Energy », Frontiers in Human Neuroscience, vol. 4,‎ (ISSN 1662-5161, PMID 21160551, PMCID PMC3001758, DOI 10.3389/fnhum.2010.00215, lire en ligne, consulté le )
  31. (en) Karl Friston, Jérémie Mattout et James Kilner, « Action understanding and active inference », Biological Cybernetics, vol. 104, nos 1-2,‎ , p. 137–160 (ISSN 0340-1200 et 1432-0770, PMID 21327826, PMCID PMC3491875, DOI 10.1007/s00422-011-0424-z, lire en ligne, consulté le )
  32. a et b (en) James M. Kilner, Karl J. Friston et Chris D. Frith, « Predictive coding: an account of the mirror neuron system », Cognitive Processing, vol. 8, no 3,‎ , p. 159–166 (ISSN 1612-4790, PMID 17429704, PMCID PMC2649419, DOI 10.1007/s10339-007-0170-2, lire en ligne, consulté le ).
  33. Karl Friston, Rick A. Adams, Laurent Perrinet et Michael Breakspear, « Perceptions as Hypotheses: Saccades as Experiments », Frontiers in Psychology, vol. 3,‎ (ISSN 1664-1078, PMID 22654776, PMCID PMC3361132, DOI 10.3389/fpsyg.2012.00151, lire en ligne, consulté le )
  34. J. Lachmajer, « Symposium on malaria research », Bulletin of the Institute of Maritime and Tropical Medicine in Gdynia, vol. 26, no 1,‎ , p. 53–58 (ISSN 0324-8542, PMID 108, lire en ligne, consulté le )
  35. Hobson, J. A. & Friston, K. J., (2012). Waking and dreaming consciousness: Neurobiological and functional considerations. Prog Neurobiol, 98(1), pp. 82–98.
  36. Harriet Brown et Karl Friston, « Free-Energy and Illusions: The Cornsweet Effect », Frontiers in Psychology, vol. 3,‎ (ISSN 1664-1078, DOI 10.3389/fpsyg.2012.00043/full, lire en ligne, consulté le )
  37. (en) M. J. Edwards, R. A. Adams, H. Brown et I. Parees, « A Bayesian account of 'hysteria' », Brain, vol. 135, no 11,‎ , p. 3495–3512 (ISSN 0006-8950 et 1460-2156, PMID 22641838, PMCID PMC3501967, DOI 10.1093/brain/aws129, lire en ligne, consulté le )
  38. R.A. Adams, L. U. Perrinet, K. Friston, Smooth pursuit and visual occlusion: active inference and oculomotor control in schizophrenia, PLoS One, 12;7(10), 2012 :e47502
  39. Karl J. Friston, Tamara Shiner, Thomas FitzGerald et Joseph M. Galea, « Dopamine, Affordance and Active Inference », PLoS Computational Biology, vol. 8, no 1,‎ , e1002327 (ISSN 1553-7358, DOI 10.1371/journal.pcbi.1002327, lire en ligne, consulté le )
  40. Fiorillo, C. D., Tobler, P. N. & Schultz, W., (2003). Discrete coding of reward probability and uncertainty by dopamine neurons. Science, 299(5614), 1898–902.
  41. Michael J. Frank, « Dynamic Dopamine Modulation in the Basal Ganglia: A Neurocomputational Account of Cognitive Deficits in Medicated and Nonmedicated Parkinsonism », Journal of Cognitive Neuroscience, vol. 17, no 1,‎ , p. 51–72 (ISSN 0898-929X et 1530-8898, DOI 10.1162/0898929052880093, lire en ligne, consulté le )
  42. Feldman, A. G., & Levin, M. F. (1995). The origin and use of positional frames of reference in motor control. Behav Brain Sci., 18, 723–806.
  43. Karl Friston, « What Is Optimal about Motor Control? », Neuron, vol. 72, no 3,‎ , p. 488–498 (ISSN 0896-6273, DOI 10.1016/j.neuron.2011.10.018, lire en ligne, consulté le )
  44. (en) Karl Friston et Ping Ao, « Free Energy, Value, and Attractors », Computational and Mathematical Methods in Medicine, vol. 2012,‎ , p. 1–27 (ISSN 1748-670X et 1748-6718, PMID 22229042, PMCID PMC3249597, DOI 10.1155/2012/937860, lire en ligne, consulté le )
  45. Kappen, H., (2005). Path integrals and symmetry breaking for optimal control theory. Journal of Statistical Mechanics: Theory and Experiment, 11, p. P11011.

Bibliographie

[modifier | modifier le code]
  • (en) Karl Friston, Lancelot Da Costa, Noor Sajid, Conor Heins, Kai Ueltzhöffer et al., « The free energy principle made simpler but not too simple », Physics Reports, vol. 1024,‎ , p. 1-29 (DOI 10.1016/j.physrep.2023.07.001 Accès libre)

Articles connexes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]