„Wahrscheinlichkeitsdichtefunktion“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
→‎Definition: Klammer korrigiert
form
 
(139 dazwischenliegende Versionen von 44 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
[[Datei:Integral as region under curve.svg|hochkant=1.2|mini| Die Wahrscheinlichkeit, dass eine [[Zufallsvariable]] einen Wert zwischen <math>a</math> und <math>b</math> annimmt, entspricht dem Inhalt der Fläche <math>S</math> unter dem Graph der Wahrscheinlichkeits&shy;dichtefunktion <math>f</math>.]]
{{Dieser Artikel| behandelt die Wahrscheinlichkeitsdichte. Zu physikalischen Dichtefunktionen siehe [[Dichtekurve]] und [[Massenverteilung]].}}


In der [[Wahrscheinlichkeitstheorie]] ist die '''Wahrscheinlichkeitsdichtefunktion''', oft kurz '''Dichtefunktion''', '''Wahrscheinlichkeitsdichte''' oder nur '''Dichte''' (abgekürzt ''WDF'' oder ''pdf'' von engl. ''probability density function'') ein Hilfsmittel zur Beschreibung einer stetigen [[Wahrscheinlichkeitsverteilung]]. Die [[Integralrechnung|Integration]] der Wahrscheinlichkeitsdichte über ein Intervall <math>[a,b]</math> ergibt die Wahrscheinlichkeit dafür, dass eine [[Zufallsvariable]] mit dieser Dichte einen Wert zwischen <math>a</math> und <math>b</math> annimmt. Die Wahrscheinlichkeitsdichte kann Werte größer als 1 annehmen und sollte nicht mit der [[Wahrscheinlichkeit]] selbst verwechselt werden.
Eine '''Wahrscheinlichkeitsdichtefunktion''', oft kurz '''Dichtefunktion, Wahrscheinlichkeitsdichte, Verteilungsdichte''' oder nur '''Dichte''' genannt und mit '''WDF''' oder englisch '''PDF''' (''probability density function'') abgekürzt, ist eine spezielle [[reellwertige Funktion]] in der [[Stochastik]]. Dort dienen die Wahrscheinlichkeitsdichtefunktionen zur Konstruktion von [[Wahrscheinlichkeitsverteilung]]en mithilfe von Integralen sowie zur Untersuchung und Klassifikation von Wahrscheinlichkeitsverteilungen.


Im Gegensatz zu Wahrscheinlichkeiten können Wahrscheinlichkeitsdichtefunktionen auch Werte über eins annehmen. Die Konstruktion von Wahrscheinlichkeitsverteilungen über Wahrscheinlichkeitsdichtefunktionen beruht auf der Idee, dass die Fläche zwischen der Wahrscheinlichkeitsdichtefunktion und der x-Achse von einem Punkt <math> a </math> bis zu einem Punkt <math> b </math> der Wahrscheinlichkeit entspricht, einen Wert zwischen <math> a </math> und <math> b </math> zu erhalten. Nicht der Funktionswert der Wahrscheinlichkeitsdichtefunktion ist somit relevant, sondern die Fläche unter ihrem [[Funktionsgraph|Funktionsgraphen]], also das Integral.
Formal handelt es sich um eine [[Satz von Radon-Nikodym|Dichte]] bezüglich des [[Lebesgue-Maß]]es.


In einem allgemeineren Kontext handelt es sich bei Wahrscheinlichkeitsdichtefunktionen um [[Dichtefunktion]]en (im Sinne der Maßtheorie) bezüglich des [[Lebesgue-Maß]]es.
Während man im diskreten Fall Wahrscheinlichkeiten von Ereignissen durch Aufsummieren der Wahrscheinlichkeiten der einzelnen Elementarereignisse berechnen kann (ein idealer Würfel zeigt beispielsweise jede Zahl mit einer Wahrscheinlichkeit von <math>\tfrac 1 6</math>), so gilt dies nicht mehr für den kontinuierlichen Fall. Beispielsweise sind zwei Menschen kaum ''exakt'' gleich groß, sondern nur bis auf Haaresbreite oder weniger. In solchen Fällen sind Wahrscheinlichkeitsdichtefunktionen nützlich. Mit Hilfe dieser Funktionen lässt sich die Wahrscheinlichkeit für ein beliebiges Intervall – beispielsweise eine Körpergröße zwischen 1,80&nbsp;m und 1,81&nbsp;m – bestimmen, obwohl unendlich viele Werte in diesem Intervall liegen, von denen jeder einzelne die Wahrscheinlichkeit <math>0</math> hat.

Während im diskreten Fall Wahrscheinlichkeiten von Ereignissen durch Aufsummieren der Wahrscheinlichkeiten der einzelnen Elementarereignisse berechnet werden können (ein idealer Würfel zeigt beispielsweise jede Zahl mit einer Wahrscheinlichkeit von <math>\tfrac 1 6</math>), gilt dies nicht mehr für den stetigen Fall. Beispielsweise sind zwei Menschen kaum ''exakt'' gleich groß, sondern nur bis auf Haaresbreite oder weniger. In solchen Fällen sind Wahrscheinlichkeitsdichtefunktionen nützlich. Mit Hilfe dieser Funktionen lässt sich die Wahrscheinlichkeit für ein beliebiges Intervall –&nbsp;beispielsweise eine Körpergröße zwischen 1,80&nbsp;m und 1,81&nbsp;m&nbsp;– bestimmen, obwohl unendlich viele Werte in diesem Intervall liegen, von denen jeder einzelne die Wahrscheinlichkeit <math>0</math> hat.


== Definition ==
== Definition ==
Wahrscheinlichkeitsdichten können auf zwei Arten definiert werden: einmal als Funktion, aus der sich eine [[Wahrscheinlichkeitsverteilung]] konstruieren lässt, das andere Mal als Funktion, die aus einer Wahrscheinlichkeitsverteilung abgeleitet wird. Der Unterschied ist also die Richtung der Herangehensweise.
Es sei <math>P</math> ein [[Wahrscheinlichkeitsmaß]] und <math>X</math> sei eine reellwertige [[Zufallsvariable]]. Eine Funktion <math>f\colon\R\rightarrow [0,\infty]</math> heißt ''Wahrscheinlichkeitsdichte'' der Zufallsvariable <math>X</math> (oder genauer: der [[Wahrscheinlichkeitsverteilung|Verteilung]] <math>\mu</math> von <math>X</math>), falls gilt

:<math>P(a\leq X\leq b)=\int_a^bf(x)\,\mathrm dx</math>&nbsp;&nbsp;&nbsp;&nbsp; bzw. &nbsp;&nbsp;&nbsp;&nbsp; <math>\mu([a,b])=\int_a^bf(x)\,\mathrm dx</math>
=== Zur Konstruktion von Wahrscheinlichkeitsmaßen ===
für alle reellen Zahlen <math>a<b</math>.
Gegeben sei eine [[reelle Funktion]]
:<math> f \colon \R \to \R </math>, für die gilt:
* <math> f </math> ist nichtnegativ, das heißt, <math> f(x) \geq 0 </math> für alle <math> x \in \R </math>.
* <math> f </math> ist [[Integrierbare Funktion|integrierbar]].
* <math> f </math> ist normiert in dem Sinne, dass
::<math> \int_{-\infty}^\infty f(x) \,\mathrm dx =1 </math>.

Dann heißt <math> f </math> eine Wahrscheinlichkeitsdichtefunktion und definiert durch
:<math> P([a,b]):= \int_{a}^b f(x) \,\mathrm dx </math>

eine [[Wahrscheinlichkeitsverteilung]] auf den reellen Zahlen.

=== Aus Wahrscheinlichkeitsmaßen abgeleitet ===
Gegeben sei eine Wahrscheinlichkeitsverteilung <math> P </math> oder eine reellwertige [[Zufallsvariable]] <math> X </math>.

Existiert eine reelle Funktion <math> f </math>, sodass für alle <math> a \in \R </math>
:<math> P((-\infty, a])= \int_{-\infty}^a f(x) \, \mathrm d x </math>

bzw.
:<math> P(X \leq a)= \int_{-\infty}^a f(x) \,\mathrm d x </math>

gilt, so heißt <math> f </math> die Wahrscheinlichkeitsdichtefunktion von <math> P </math> bzw. von <math> X </math>.


== Beispiele ==
== Beispiele ==
[[Datei:Exponential pdf.svg|mini|Wahrscheinlichkeitsdichtefunktionen der Exponentialverteilung für verschiedene Parameter.]]
Beispiele für Wahrscheinlichkeitsdichten sind in der [[Liste univariater Wahrscheinlichkeitsverteilungen#Stetige_Verteilungen|Liste univariater Wahrscheinlichkeitsverteilungen]] zu finden.
Eine Wahrscheinlichkeitsverteilung, die über eine Wahrscheinlichkeitsdichtefunktion definiert werden kann, ist die [[Exponentialverteilung]]. Sie besitzt die Wahrscheinlichkeitsdichtefunktion
:<math>f_{\lambda}(x) = \begin{cases}\displaystyle
\lambda \mathrm{e}^{-\lambda x} & x\geq 0, \\
0 & x < 0.
\end{cases}</math>


Hierbei ist <math> \lambda > 0 </math> ein reeller Parameter. Insbesondere überschreitet die Wahrscheinlichkeitsdichtefunktion für Parameter <math> \lambda > 1 </math> an der Stelle <math> x=0 </math> den Funktionswert <math> 1 </math>, wie in der Einleitung beschrieben. Dass es sich bei <math> f_\lambda(x) </math> wirklich um eine Wahrscheinlichkeitsdichtefunktion handelt, folgt aus den elementaren Integrationsregeln für die [[Exponentialfunktion]], Positivität und Integrierbarkeit der Exponentialfunktion sind klar.
== Eigenschaften ==
=== Normierung und Eindeutigkeit ===
[[Bild:Lognormal_distribution_PDF.svg|250px|thumb|'''Wahrscheinlichkeitsdichte''' der Lognormalverteilung (mit <math>\mu=0</math>)]]
[[Bild:Lognormal distribution CDF.svg|250px|thumb|[[Verteilungsfunktion|Kumulative Verteilungsfunktion]] der Lognormalverteilung (mit <math>\mu=0</math>)]]
Die Fläche unter der Dichtefunktion hat den Inhalt 1, d.&nbsp;h.
: <math>\int_{-\infty}^\infty f(x) \, {\rm d}x = 1</math>.


Eine Wahrscheinlichkeitsverteilung, aus der eine Wahrscheinlichkeitsdichtefunktion abgeleitet werden kann, ist die [[stetige Gleichverteilung]] auf dem Intervall <math> [0,1] </math>. Sie ist definiert durch
Die Wahrscheinlichkeitsdichte ist, bis auf Abweichungen in einer [[Lebesgue-Maß#Nullmengen|Nullmenge]] eindeutig bestimmt. Sie ist stets nicht-negativ und kann (im Gegensatz zu Wahrscheinlichkeiten) beliebig große Werte annehmen, wie aus dem Bild ersichtlich ist.
:<math> P([a,b])=b-a </math> für <math> a \leq b </math> und <math> a,b \in [0,1] </math>


Außerhalb des Intervalls erhalten alle Ereignisse die Wahrscheinlichkeit null. Gesucht ist nun eine Funktion <math> f </math>, für die
Umgekehrt gilt: Jede Funktion <math>f\colon\R\to\R</math> mit <math>f(x) \geq 0</math> für alle <math>x \in \R</math> und <math>\textstyle\int_{-\infty}^\infty f(x)\,{\rm d}x = 1</math> ist die Dichtefunktion einer eindeutig bestimmten Wahrscheinlichkeitsverteilung.
:<math> \int_a^b f(x) \,\mathrm dx = P([a,b])= b-a </math>


gilt, falls <math> a,b \in [0,1] </math>. Die Funktion
=== Berechnung von Wahrscheinlichkeiten ===
:<math> f(x)= 1 </math>
Die Wahrscheinlichkeit für ein Intervall kann man
mit der Wahrscheinlichkeitsdichte <math>f</math> oder der zugehörigen [[Verteilungsfunktion|kumulativen Verteilungsfunktion]] <math>F</math> berechnen als
: <math>P(X\in [a,b]) = \int_a^b f(x)\, {\rm d}x = F(b)-F(a)</math>.
Diese Formel gilt ebenso für die Intervalle <math>(a,b)</math>, <math>(a,b]</math> und <math>[a,b)</math>, denn einzelne Punkte haben bei Zufallsvariablen mit Dichte die Wahrscheinlichkeit <math>0</math> – die Verteilungsfunktion ist stetig.


erfüllt dies. Sie wird dann außerhalb des Intervalles <math> [0,1] </math> durch die Null fortgesetzt, um problemlos über beliebige Teilmengen der reellen Zahlen integrieren zu können. Eine Wahrscheinlichkeitsdichtefunktion der stetigen Gleichverteilung wäre somit
Für komplexere Mengen kann die Wahrscheinlichkeit analog durch Integrieren über Teilintervalle ermittelt werden. Allgemein erhält man die Wahrscheinlichkeit in der Form
: <math>P(X\in A) = \int_A f(x)\, {\rm d}x</math>.
:<math>f(x)= \begin{cases}\displaystyle
1 & \text{ falls } x \in [0,1],\\
0 & \text{ sonst}.
\end{cases}</math>


Ebenso wäre die Wahrscheinlichkeitsdichtefunktion
=== Bedingung für die Existenz einer Wahrscheinlichkeitsdichte ===
:<math>f(x)= \begin{cases}\displaystyle
<math>X</math> besitzt eine Wahrscheinlichkeitsdichte <math>f</math> genau dann, wenn die Verteilung von <math>X</math> [[Absolute Stetigkeit|absolutstetig]] bezüglich des [[Lebesgue-Maß]]es ist, d.&nbsp;h. wenn
1 & \text{ falls } x \in (0,1),\\
:<math>P(X \in A) = 0</math>
0 & \text{ sonst}
für jede [[Lebesgue-Maß#Nullmengen|Lebesgue-Nullmenge]] <math>A</math> ([[Satz von Radon-Nikodým]]).
\end{cases}</math>


möglich, da sich beide nur auf einer [[Nullmenge|Lebesgue-Nullmenge]] unterscheiden und beide den Anforderungen genügen. Man könnte beliebig viele Wahrscheinlichkeitsdichtefunktionen allein durch Abwandlung des Wertes an einem Punkt erzeugen. Faktisch ändert dies nichts an den Eigenschaft der Funktion, Wahrscheinlichkeitsdichtefunktion zu sein, da das Integral diese kleinen Modifikationen ignoriert.

Weitere Beispiele für Wahrscheinlichkeitsdichten sind in der [[Liste univariater Wahrscheinlichkeitsverteilungen#Stetige Verteilungen|Liste univariater Wahrscheinlichkeitsverteilungen]] zu finden.

== Bemerkungen zur Definition ==
Streng genommen handelt es sich bei dem Integral in der Definition um ein [[Lebesgue-Integral]] bezüglich des [[Lebesgue-Maß]]es <math> \lambda </math> und es müsste dementsprechend als <math> \mathrm d \lambda (x) </math> geschrieben werden. In den meisten Fällen ist das herkömmliche [[Riemann-Integral]] aber ausreichend, weshalb hier <math> \mathrm d x </math> geschrieben wird. Nachteil des Riemann-Integrals auf struktureller Ebene ist, dass es sich nicht wie das Lebesgue-Integral in einen allgemeinen [[Maßtheorie|maßtheoretischen]] Rahmen einbetten lässt. Für Details zur Beziehung von Lebesgue- und Riemann-Integral siehe [[Lebesgue-Integral#Riemann- und Lebesgue-Integral|Riemann- und Lebesgue-Integral]].

Manche Autoren unterscheiden die beiden obigen Herangehensweisen auch namentlich. So wird die Funktion, die zur Konstruktion von Wahrscheinlichkeitsverteilungen verwendet wird, dann ''Wahrscheinlichkeitsdichte'' genannt, die aus einer Wahrscheinlichkeitsverteilung abgeleitete Funktion hingegen ''Verteilungsdichte.''<ref>Georgii: ''Stochastik.'' 2009, S. 19, 24.</ref>

== Existenz und Eindeutigkeit ==
=== Konstruktion von Wahrscheinlichkeitsverteilungen ===
Das in der Definition beschriebene <math> P </math> liefert wirklich eine Wahrscheinlichkeitsverteilung. Denn aus der Normiertheit folgt <math> P(\R)=1 </math>. Dass die Wahrscheinlichkeiten alle positiv sind, folgt aus der Positivität der Funktion. Die [[σ-Additivität]] folgt aus dem [[Satz von der majorisierten Konvergenz]] mit der Wahrscheinlichkeitsdichtefunktion als Majorante und der Funktionenfolge
:<math> f_n:= \sum_{i=1}^n f \chi_{A_i } </math>,
mit paarweise disjunkten Mengen <math> A_i </math>.

Hierbei bezeichnet <math> \chi_A </math> die [[Indikatorfunktion|charakteristische Funktion]] auf der Menge <math> A </math>.

Dass die Wahrscheinlichkeitsverteilung eindeutig ist, folgt aus dem [[Maßeindeutigkeitssatz]] und der Schnittstabilität des [[Erzeuger einer σ-Algebra|Erzeugers]] der [[Borelsche σ-Algebra|Borelschen σ-Algebra]], hier das Mengensystem der abgeschlossenen Intervalle.

=== Aus einer Wahrscheinlichkeitsdichtefunktion abgeleitet ===
Die zentrale Aussage über die Existenz einer Wahrscheinlichkeitsdichtefunktion zu einer vorgegebenen Wahrscheinlichkeitsverteilung ist der [[Satz von Radon-Nikodým]]:
: Die Wahrscheinlichkeitsverteilung <math> P </math> besitzt genau dann eine Wahrscheinlichkeitsdichtefunktion, wenn sie [[Absolut stetiges Maß|absolut stetig]] bezüglich des [[Lebesgue-Maß]]es <math> \lambda </math> ist. Das bedeutet, dass aus <math> \lambda(A)= 0 </math> immer <math> P(A)=0 </math> folgen muss.

Es kann durchaus mehr als eine solche Wahrscheinlichkeitsdichtefunktion existieren, aber diese unterscheiden sich nur auf einer Menge vom Lebesgue-Maß 0 voneinander, sind also [[fast überall]] identisch.

Somit können [[diskrete Wahrscheinlichkeitsverteilung]]en keine Wahrscheinlichkeitsdichtefunktion besitzen, denn für sie gilt immer <math> P(\{k\})> 0 </math> für ein passendes Element <math> k \in \R</math>. Solche Punktmengen besitzen aber immer das Lebesgue-Maß 0, somit sind diskrete Wahrscheinlichkeitsverteilungen nicht absolut stetig bezüglich des Lebesgue-Maßes.

== Berechnung von Wahrscheinlichkeiten ==
=== Grundlage ===
Die Wahrscheinlichkeit für ein Intervall lässt sich mit der Wahrscheinlichkeitsdichte <math>f</math> berechnen als
: <math>P(X\in [a,b]) = \int_a^b f(x)\, \mathrm{d}x</math>.
Diese Formel gilt ebenso für die Intervalle <math>(a,b)</math>, <math>(a,b]</math> und <math>[a,b)</math>, denn es liegt in der Natur stetiger Zufallsvariablen, dass die Wahrscheinlichkeit für das Annehmen eines konkreten Wertes <math>0</math> ist.
Formal ausgedrückt gilt:
:<math>\forall x \in \mathbb{R}\colon \, P(X=x)=0</math>
:<math>P(a\leq X\leq b)=P(a< X\leq b)=P(a\leq X<b)=P(a< X<b)</math>

Für komplexere Mengen kann die Wahrscheinlichkeit analog durch Integrieren über Teilintervalle ermittelt werden. Allgemein erhält die Wahrscheinlichkeit die Form
: <math>P(X\in A) = \int_A f(x)\, \mathrm{d}x</math>.

Hilfreich ist oft die [[σ-Additivität]] der Wahrscheinlichkeitsverteilung. Das bedeutet: Sind <math> A_1, A_2, A_3 \dotsc </math> [[paarweise disjunkt]]e Intervalle und ist
:<math> A = \bigcup_{i =1}^\infty A_i </math>

die Vereinigung all dieser Intervalle, so gilt
:<math> P(A) = P \left( \bigcup_{i =1}^\infty A_i\right) = \sum_{i=1}^\infty \int_{a_i}^{b_i} f(x)\, \mathrm d x </math>.

Dabei sind die Intervalle von der Form <math>A_i= (a_i, b_i)</math>. Dies gilt auch für endlich viele Intervalle. Ist somit die Wahrscheinlichkeit von disjunkten Intervallen zu berechnen, so kann man entsprechend zuerst die Wahrscheinlichkeit jedes einzelnen Intervalles berechnen und diese Wahrscheinlichkeiten dann aufsummieren.

=== Beispiel: Zeit zwischen Anrufen in einem Callcenter ===
Die Zeit zwischen zwei Anrufen in einem [[Callcenter]] ist erfahrungsgemäß ungefähr [[Exponentialverteilung|exponentialverteilt]] zu einem Parameter <math> \lambda </math> und besitzt demnach die Wahrscheinlichkeitsdichtefunktion
:<math>f_{\lambda}(x)= \begin{cases}\displaystyle
\lambda \mathrm{e}^{-\lambda x} & x\geq 0, \\
0 & x < 0
\end{cases}</math>

vergleiche auch den Abschnitt [[#Beispiele|Beispiele]] und den Artikel [[Poisson-Prozess]]. Dabei ist die x-Achse mit einer beliebigen Zeiteinheit versehen (Stunden, Minuten, Sekunden). Der Parameter <math> \lambda </math> entspricht dann der mittleren Anzahl von Anrufen pro Zeiteinheit.

Die Wahrscheinlichkeit, dass der nächste Anruf ein bis zwei Zeiteinheiten nach dem vorangegangenen eintritt, ist dann
:<math> P(X \in [1,2])= \int_1^2 \lambda \mathrm{e}^{-\lambda x} \,\mathrm dx = \left[ - \mathrm{e}^{-\lambda x}\right]_1^2 = -\mathrm{e}^{-2\lambda } + \mathrm{e}^{-\lambda }</math>.

Angenommen, eine Servicekraft im Callcenter benötigt fünf Zeiteinheiten für eine Pause. Die Wahrscheinlichkeit, dass sie keinen Anruf verpasst, ist gleich der Wahrscheinlichkeit, dass der nächste Anruf zum Zeitpunkt fünf oder später eingeht. Es ist damit
:<math> P(X \geq 5) = 1- P(X\leq 5) = 1- \int_0^5 \lambda \mathrm{e}^{-\lambda x} \,\mathrm dx = 1- \left[ - \mathrm{e}^{-\lambda x}\right]_0^5 = 1- \left(- \mathrm{e}^{-5\lambda }+1\right) = \mathrm{e}^{-5\lambda }</math>

== Eigenschaften ==
=== Zusammenhang von Verteilungsfunktion und Dichtefunktion ===
=== Zusammenhang von Verteilungsfunktion und Dichtefunktion ===
[[Datei:Lognormal distribution PDF.svg|250px|mini|'''Wahrscheinlichkeitsdichte''' der [[Logarithmische Normalverteilung|Lognormalverteilung]] (mit <math>\mu=0</math>)]]
Die [[Verteilungsfunktion|(kumulative) Verteilungsfunktion]] <math>F</math> erhält man als Integral über die Dichtefunktion:
[[Datei:CDF-log normal distributions.svg|250px|mini|[[Verteilungsfunktion|Kumulative Verteilungsfunktion]] der Lognormalverteilung (mit <math>\mu=0</math>)]]
:<math> F(x) = \int_{-\infty}^x f(t)\,\operatorname dt </math>
Umgekehrt gilt: Wenn die Verteilungsfunktion <math>F</math> [[differenzierbar]] ist, ist ihre Ableitung eine Dichtefunktion der Verteilung:
:<math> f(x) = F^\prime(x) = \frac{\operatorname{d}F(x)}{\operatorname{d}x}</math>
Das gilt auch dann noch, wenn es abzählbar viele Stellen <math>x</math> gibt, an denen <math>F</math> stetig, aber nicht differenzierbar ist; welche Werte man an diesen Stellen für <math>f(x)</math> verwendet, ist unerheblich.


Die [[Verteilungsfunktion]] einer Zufallsvariablen <math> X </math> oder einer Wahrscheinlichkeitsverteilung <math> P </math> mit Wahrscheinlichkeitsdichtefunktion <math> f_X </math> beziehungsweise <math> f_P </math> wird als Integral über die Dichtefunktion gebildet:
Allgemein existiert eine Dichtefunktion genau dann, wenn die Verteilungsfunktion <math>F</math> [[Absolute Stetigkeit|absolut stetig]] ist. Diese Bedingung impliziert unter anderem, dass <math>F</math> stetig ist und [[fast überall]] eine Ableitung besitzt, die mit der Dichte übereinstimmt.
:<math> F_X(x) =\int_{-\infty}^x f_X(t)\,\mathrm dt </math>
:<math> F_P(x) =\int_{-\infty}^x f_P(t)\,\mathrm dt </math>


Dies folgt direkt aus der Definition der Verteilungsfunktion. Die Verteilungsfunktionen von Zufallsvariablen oder Wahrscheinlichkeitsverteilungen mit Wahrscheinlichkeitsdichtefunktion sind somit immer [[Stetige Funktion|stetig]].
Man beachte jedoch, dass es Verteilungen wie die [[Cantor-Verteilung]] gibt, die eine stetige, fast überall differenzierbare Verteilungsfunktion besitzen, aber dennoch keine Wahrscheinlichkeitsdichte. Fast überall differenzierbar sind Verteilungsfunktionen immer, aber die entsprechende Ableitung erfasst generell nur den [[Zerlegungssatz von Lebesgue|absolutstetigen Anteil]] der Verteilung.

Wenn die Verteilungsfunktion <math>F</math> [[differenzierbar]] ist, ist ihre Ableitung eine Dichtefunktion der Verteilung:
:<math> F^\prime(x) = \frac{\mathrm{d}F(x)}{\mathrm{d}x}=f(x)</math>
Dieser Zusammenhang gilt auch dann noch, wenn <math>F</math> stetig ist und es höchstens abzählbar viele Stellen <math>x \in \R</math> gibt, an denen <math>F</math> nicht differenzierbar ist; welche Werte man an diesen Stellen für <math>f(x)</math> verwendet, ist unerheblich.

Allgemein existiert eine Dichtefunktion genau dann, wenn die Verteilungsfunktion <math>F</math> [[Absolut stetiges Maß|absolut stetig]] ist. Diese Bedingung impliziert unter anderem, dass <math>F</math> stetig ist und [[fast überall]] eine Ableitung besitzt, die mit der Dichte übereinstimmt.

Es ist jedoch zu beachten, dass es Verteilungen wie die [[Cantor-Verteilung]] gibt, die eine stetige, fast überall differenzierbare Verteilungsfunktion besitzen, aber dennoch keine Wahrscheinlichkeitsdichte. Fast überall differenzierbar sind Verteilungsfunktionen immer, aber die entsprechende Ableitung erfasst generell nur den [[Zerlegungssatz von Lebesgue|absolutstetigen Anteil]] der Verteilung.


=== Dichten auf Teilintervallen ===
=== Dichten auf Teilintervallen ===
Die Wahrscheinlichkeitsdichte einer Zufallsvariable <math>X</math>, die nur Werte in einem Teilintervall <math>I</math> der reellen Zahlen annimmt, kann man so wählen, dass sie außerhalb des Intervalls den Wert <math>0</math> hat. Ein Beispiel ist die [[Exponentialverteilung]] mit <math>I=[0,\infty[</math>. Alternativ kann man die Wahrscheinlichkeitsdichte als eine Funktion <math>f\colon I\to\R</math> betrachten, d.&nbsp;h. als eine Dichte der Verteilung auf <math>I</math> bezüglich des Lebesgue-Maßes auf <math>I</math>.
Die Wahrscheinlichkeitsdichte einer Zufallsvariablen <math>X</math>, die nur Werte in einem Teilintervall <math>I</math> der reellen Zahlen annimmt, kann so gewählt werden, dass sie außerhalb des Intervalls den Wert <math>0</math> hat. Ein Beispiel ist die [[Exponentialverteilung]] mit <math>I=[0,\infty[</math>. Alternativ kann die Wahrscheinlichkeitsdichte als eine Funktion <math>f\colon I\to\R</math> betrachtet werden, d.&nbsp;h. als eine Dichte der Verteilung auf <math>I</math> bezüglich des Lebesgue-Maßes auf <math>I</math>.


=== Nichtlineare Transformation ===
== Mehrdimensionale Zufallsvariable ==
Auch im Falle einer nichtlinearen Transformation <math>Y=g(X)</math> gilt für den Erwartungswert <math>E(Y)</math> der Zufallsgröße <math>Y</math>


:<math>\operatorname{E}(Y)=\operatorname{E}(g(X)) = \int_{-\infty}^{\infty} g(x) f(x) \, \mathrm dx</math>.
Wahrscheinlichkeitsdichten kann man auch für mehrdimensionale Zufallsvariablen, also für Zufallsvektoren definieren. Ist <math>X</math> eine <math>\R^n</math>-wertige [[Zufallsvariable]], so heißt eine Funktion <math>f\colon\R^n\rightarrow[0,\infty]</math> ''Wahrscheinlichkeitsdichte'' (bezüglich des Lebesgue-Maßes) der Zufallsvariable <math>X</math>, falls gilt

:<math>P(X\in A)=\int_A f(x) \mathrm d^n x</math>
Eine Berechnung der Wahrscheinlichkeitsdichtefunktion von <math>Y</math> selbst ist also gar nicht nötig.
für alle [[Borelmenge]]n <math>A\in\mathcal{B}(\R^n)</math>.

=== Faltung und Summe von Zufallsvariablen ===
Für Wahrscheinlichkeitsverteilungen mit Wahrscheinlichkeitsdichtefunktionen kann die [[Faltung (Stochastik)|Faltung (von Wahrscheinlichkeitsverteilungen)]] auf die [[Faltung (Mathematik)|Faltung (von Funktionen)]] der entsprechenden Wahrscheinlichkeitsdichtefunktionen zurückgeführt werden. Sind <math> P, Q </math> Wahrscheinlichkeitsverteilungen mit Wahrscheinlichkeitsdichtefunktionen <math> f_P </math> und <math> f_Q </math>, so ist
:<math> f_{P*Q}= f_P * f_Q </math>.

Hierbei bezeichnet <math> P*Q </math> die Faltung von <math> P </math> und <math> Q </math> und <math> f * g </math> die Faltung der Funktionen <math> f </math> und <math> g </math>. Die Wahrscheinlichkeitsdichtefunktion der Faltung zweier Wahrscheinlichkeitsverteilungen ist somit genau die Faltung der Wahrscheinlichkeitsdichtefunktionen der Wahrscheinlichkeitsverteilungen.

Diese Eigenschaft überträgt sich direkt auf die Summe von [[Stochastisch unabhängige Zufallsvariablen|stochastisch unabhängigen Zufallsvariablen]]. Sind zwei stochastisch unabhängige Zufallsvariablen <math> X, Y </math> mit Wahrscheinlichkeitsdichtefunktionen <math> f_X </math> und <math> f_Y </math> gegeben, so ist
:<math> f_{X+Y}= f_X * f_Y </math>.

Die Wahrscheinlichkeitsdichtefunktion der Summe ist somit die Faltung der Wahrscheinlichkeitsdichtefunktionen der einzelnen Zufallsvariablen.

== Bestimmung von Kennzahlen durch Wahrscheinlichkeitsdichtefunktionen ==
Viele der typischen Kennzahlen einer Zufallsvariablen beziehungsweise einer Wahrscheinlichkeitsverteilung lassen sich bei Existenz der Wahrscheinlichkeitsdichtefunktionen direkt aus dieser herleiten.

=== Modus ===
Der [[Modus (Stochastik)|Modus]] einer Wahrscheinlichkeitsverteilung bzw. Zufallsvariablen wird direkt über die Wahrscheinlichkeitsdichtefunktion definiert. Ein <math> x_{\text{mod}} \in \R </math> heißt ein Modus, wenn die Wahrscheinlichkeitsdichtefunktion <math> f </math> an der Stelle <math>x_{\text{mod}} </math> ein [[lokales Maximum]] besitzt.<ref name="EncycloMath1">{{EoM| Autor = A.V. Prokhorov| Titel = Mode| Url = https://www.encyclopediaofmath.org/index.php/Mode}}</ref> Das bedeutet, es ist
:<math> f(x) \leq f(x_{\text{mod}}) </math> für alle <math> x \in ( x_{\text{mod}}- \varepsilon; x_{\text{mod}}+ \varepsilon) </math>

für ein <math> \varepsilon > 0 </math>.

Selbstverständlich kann eine Wahrscheinlichkeitsdichtefunktion auch zwei oder mehrere lokale Maxima besitzen ([[bimodale Verteilung]]en und [[multimodale Verteilung]]en). Im Falle der Gleichverteilung im obigen Beispielabschnitt besitzt die Wahrscheinlichkeitsdichtefunktion sogar unendlich viele lokale Maxima.

=== Median ===
Der [[Median (Stochastik)|Median]] wird gewöhnlicherweise über die [[Verteilungsfunktion]] oder spezieller über die [[Quantilfunktion]] definiert. Existiert eine Wahrscheinlichkeitsdichtefunktion, so ist ''ein'' Median gegeben durch dasjenige <math> x_{\text{med}} </math>, für das
:<math> \int_{-\infty}^{ x_{\text{med}} } f(x) \,\mathrm dx = \frac 12 </math>

und
:<math> \int_{x_{\text{med}}}^{ +\infty } f(x) \,\mathrm dx = \frac 12 </math>

gilt. Aufgrund der Stetigkeit der zugehörigen Verteilungsfunktion existiert in diesem Fall <math> x_{\text{med}} </math> immer, ist aber im Allgemeinen ''nicht'' eindeutig.

=== Erwartungswert ===
Der [[Erwartungswert]] einer Zufallsvariable <math> X </math> mit Wahrscheinlichkeitsdichtefunktion <math> f_X </math> ist gegeben durch
:<math> \operatorname E(X)= \int_{-\infty}^{+\infty} x f_X(x) \,\mathrm dx </math>,

falls das Integral existiert.

=== Varianz und Standardabweichung ===
Ist eine Zufallsvariable <math> X </math> mit Wahrscheinlichkeitsdichtefunktion <math> f_X </math> gegeben, und bezeichnet
:<math> \mu= \operatorname E(X) </math>

den Erwartungswert der Zufallsvariablen, so ist die [[Varianz (Stochastik)|Varianz]] der Zufallsvariablen gegeben durch
:<math>\operatorname{Var}(X)=\operatorname{E}\left( (X-\mu)^2 \right) = \int_{-\infty}^{+\infty} (x-\mu)^2 f_X(x) \,\mathrm dx</math>.

Alternativ gilt auch nach dem [[Verschiebungssatz (Statistik)|Verschiebungssatz]]
:<math> \operatorname{Var}(X)= \operatorname{E}(X^2) - (\operatorname{E}(X))^2= \int_{-\infty}^{\infty} x^2 f_X(x) \,\mathrm dx - \mu^2 </math>.

Auch hier gelten die Aussagen wieder nur, wenn alle vorkommenden Integrale existieren. Die [[Standardabweichung (Wahrscheinlichkeitstheorie)|Standardabweichung]] lässt sich dann direkt als die Wurzel aus der Varianz berechnen.

=== Höhere Momente, Schiefe und Wölbung ===
Mittels der [[#Nichtlineare Transformation|oben angegebenen]] Vorschrift für nichtlineare Transformationen lassen sich auch höhere [[Moment (Stochastik)|Momente]] direkt berechnen. So gilt für das k-te Moment einer Zufallsvariablen mit Wahrscheinlichkeitsdichtefunktion <math> f_X </math>
:<math> m_k= \int_{-\infty}^{+\infty} x^k f_X(x) \, \mathrm dx </math>

und für das k-te absolute Moment
:<math> M_k= \int_{-\infty}^{+\infty} |x|^k f_X(x) \, \mathrm dx </math>.

Bezeichnet <math> \mu </math> den Erwartungswert von <math> X </math>, so ergibt sich für die [[Moment (Stochastik)#Zentrale Momente|zentralen Momente]]
:<math> \mu_k= \int_{-\infty}^{+\infty} (x- \mu)^k f_X(x) \, \mathrm dx </math>

und die absoluten zentralen Momente
:<math>\overline \mu_k= \int_{-\infty}^{+\infty}| x- \mu|^k f_X(x) \,\mathrm dx </math>.
Über die zentralen Momente können die [[Schiefe (Statistik)|Schiefe]] und die [[Wölbung (Statistik)|Wölbung]] der Verteilung direkt bestimmt werden, siehe die entsprechenden Hauptartikel.

=== Beispiel ===
Gegeben sei wieder die Wahrscheinlichkeitsdichtefunktion der Exponentialverteilung zum Parameter <math> \lambda > 0 </math>, also
:<math>f_{\lambda}(x)= \begin{cases}\displaystyle
\lambda \mathrm{e}^{-\lambda x} & x\geq 0, \\
0 & x < 0.
\end{cases}</math>

Ein Modus der Exponentialverteilung ist immer <math> x_{\text{mod}}=0 </math>. Denn auf dem Intervall <math> (-\infty, 0) </math> ist die Wahrscheinlichkeitsdichtefunktion konstant gleich null, und auf dem Intervall <math> [0, +\infty) </math> ist sie [[Streng monotone Funktion|streng monoton fallend]], somit ist an der Stelle 0 ein lokales Maximum. Aus der Monotonie folgt dann auch direkt, dass es sich um das einzige lokale Maximum handelt, der Modus ist also eindeutig bestimmt.

Zur Bestimmung des Medians bildet man (da die Wahrscheinlichkeitsdichtefunktion links der Null verschwindet)
:<math> \int_{0}^c \lambda \mathrm{e}^{-\lambda x } \,\mathrm dx =\left[ -\mathrm{e}^{-\lambda x } \right]_{0}^{c} = - \mathrm{e}^{-\lambda c } + 1 \; \stackrel{!} = \; \frac 12</math>.

Durch kurze Rechnung erhält man
:<math> c = \frac{\ln 2}{\lambda} </math>.

Dieses <math> c </math> erfüllt auch die zweite der beiden Gleichungen im obigen [[#Median|Abschnitt Median]] und ist somit ein Median.

Für den Erwartungswert erhält man unter Zuhilfenahme der [[Partielle Integration|partiellen Integration]]

:<math> \operatorname E(X)= \int_{0}^{+\infty} x \lambda \mathrm{e}^{-\lambda x} \,\mathrm dx = \left[ -x e^{-\lambda x} \right]_{0}^{+\infty} - \int_{0}^{+\infty} -e^{-\lambda x} \,\mathrm d x = \left[ \tfrac{1}{-\lambda} e^{-\lambda x} \right]_{0}^{+\infty} = \frac{1}{\lambda}</math>.

Analog lässt sich durch zweimaliges Anwenden der partiellen Integration die Varianz bestimmen.

== Weitere Beispiele ==
Durch <math>f(x) = 3x^2</math> für <math>x \in [0,1]</math> sowie <math>f(x) = 0</math> für <math>x < 0</math> und <math>f(x) = 0</math> für <math>x > 1</math> ist eine Dichtefunktion <math>f \colon \R \to \R</math> gegeben, denn <math>f</math> ist auf ganz <math>\R</math> nichtnegativ und es gilt
:<math>\int_{-\infty}^{\infty} f(x) \, \mathrm dx = \int_0^1 3x^2 \, \mathrm dx = 1</math>.

Für <math>x \in [0,1]</math> gilt:
:<math>F(x) = \int_{-\infty}^{x} f(t) \, \mathrm dt = \int_0^x 3t^2 \, \mathrm dt = x^3</math>

Die Verteilungsfunktion lässt sich schreiben als

:<math> F_X(x)=\begin{cases}
0 & \text{ falls } x <0, \\
x^3 & \text{ falls } 0 \leq x \leq 1, \\
1 & \text{ falls } x > 1.
\end{cases}
</math>
Ist <math>X</math> eine Zufallsvariable mit der Dichte <math>f</math>, so folgt daher beispielsweise
:<math>P\left(X \leq \tfrac{1}{2}\right) = F\left(\tfrac{1}{2}\right) = \tfrac{1}{8}</math>.

Für den Erwartungswert von <math>X</math> ergibt sich
:<math>\operatorname{E}(X) = \int_{-\infty}^{\infty} x f(x) \, \mathrm dx = \int_0^1 3x^3 \, \mathrm dx = \frac{3}{4}</math>.

== Mehrdimensionale Zufallsvariablen ==
Wahrscheinlichkeitsdichten kann man auch für mehrdimensionale Zufallsvariablen, also für [[Zufallsvektor]]en definieren. Ist <math>X</math> eine <math>\R^n</math>-wertige [[Zufallsvariable]], so heißt eine Funktion <math>f\colon\R^n\to [0,\infty)</math> ''Wahrscheinlichkeitsdichte'' (bezüglich des Lebesgue-Maßes) der Zufallsvariablen <math>X</math>, falls gilt
:<math>P(X\in A)=\int_A f(x) \, \mathrm d^n x</math>
für alle [[Borelmenge]]n <math>A\in\mathcal{B}(\R^n)</math>.


Speziell folgt dann für <math>n</math>-dimensionale Intervalle <math>I = [a_1,b_1] \times \dotsb \times [a_n,b_n]</math> mit reellen Zahlen <math>a_1<b_1,\dotsc,a_n<b_n</math>:
Speziell folgt dann für <math>n</math>-dimensionale Intervalle <math>I = [a_1,b_1] \times \dotsb \times [a_n,b_n]</math> mit reellen Zahlen <math>a_1<b_1,\dotsc,a_n<b_n</math>:
:<math>P(X \in I) = \int_{a_1}^{b_1} \dotsi \int_{a_n}^{b_n} f(x_1, \dotsc, x_n)\ \mathrm{d}x_n \dotso \mathrm{d}x_1</math>.
:<math>P(X \in I) = \int_{a_n}^{b_n} \dotsi \int_{a_1}^{b_1} f(x_1, \dotsc, x_n)\ \mathrm{d}x_1 \dotso \mathrm{d}x_n</math>.


Der Begriff der Verteilungsfunktion lässt sich ebenfalls auf mehrdimensionale Zufallsvariablen erweitern. Hier ist in der Notation
Der Begriff der Verteilungsfunktion lässt sich ebenfalls auf mehrdimensionale Zufallsvariablen erweitern. Hier ist in der Notation
<math>F(x)=P(X\leq x)</math> das <math>x</math> ein Vektor und das <math>\leq\,</math>-Zeichen komponentenweise zu lesen. <math>F</math> ist also hierbei eine Abbildung von <math>\R^n\,</math> in das Intervall [0,1]. Wenn <math>F</math> n mal stetig differenzierbar ist, erhält man eine Wahrscheinlichkeitsdichte durch partielle Differentiation:
<math>F(x)=P(X\leq x)</math> das <math>x</math> ein Vektor und das <math>\leq\,</math>-Zeichen komponentenweise zu lesen. <math>F</math> ist also hierbei eine Abbildung von <math>\R^n</math> in das Intervall [0,1] und es gilt
:<math>f(x_1,x_2, \dotsc, x_n) = \frac{\partial^n F(x_1,x_2, \dotsc, x_n)}{\partial x_1 \dotso \partial x_n}.</math>
:<math>F(x_1, \dotsc, x_n) = \int_{-\infty}^{x_n} \dotsi \int_{-\infty}^{x_1} f(t_1, \dotsc, t_n)\ \mathrm{d}t_1 \dotso \mathrm{d}t_n</math>.


Wenn <math>F</math> n-mal stetig differenzierbar ist, erhält man eine Wahrscheinlichkeitsdichte durch partielle Differentiation:
Des Weiteren gilt, ist <math>X=(X_1,\dots X_n)</math> eine <math>\R^n</math>-Wertige Zufallsvariable mit Dichte, so sind äquivalent:
:<math>f(x_1, x_2, \dotsc, x_n) = \frac{\partial^n F(x_1, x_2, \dotsc, x_n)}{\partial x_1 \dotso \partial x_n}.</math>


Die Dichten <math>f_i</math> der Komponentenvariablen <math>X_i</math> lassen sich als Dichten der [[Randverteilung]]en durch Integration über die übrigen Variablen berechnen.
1. <math>X</math> besitzt eine Dichte der Form <math>f(x_1,\dots, x_n) = f_1(x_1) \cdot \dots \cdot f_n(x_n)</math>, wobei <math>f_i</math> die reelle Wahrscheinlichkeitsdichte von <math>X_i</math> ist.


2. Die Zufallsvariablen <math>X_1,\dots, X_n</math> sind unabhängig.
Des Weiteren gilt: Ist <math>X=(X_1, \dotsc X_n)</math> eine <math>\R^n</math>-wertige Zufallsvariable mit Dichte, so sind äquivalent:

* <math>X</math> besitzt eine Dichte der Form <math>f(x_1, \dotsc, x_n) = f_1(x_1) \cdot \ldots \cdot f_n(x_n)</math>, wobei <math>f_i</math> die reelle Wahrscheinlichkeitsdichte von <math>X_i</math> ist.

* Die Zufallsvariablen <math>X_1, \dotsc, X_n</math> sind unabhängig.


== Schätzung einer Wahrscheinlichkeitsdichte anhand diskreter Daten ==
== Schätzung einer Wahrscheinlichkeitsdichte anhand diskreter Daten ==
[[Datei:Thist_german.png|thumb|Häufigkeitsdichte]]
[[Datei:Thist german.png|mini|Häufigkeitsdichte]]
Diskret erfasste, aber eigentlich stetige Daten (Beispielsweise die Körpergröße in Zentimetern) können als [[Häufigkeitsdichte]] repräsentiert werden. Das so erhaltene Histogramm ist eine unstetige Dichtefunktion.
Diskret erfasste, aber eigentlich stetige Daten (beispielsweise die Körpergröße in Zentimetern) können als [[Häufigkeitsdichte]] repräsentiert werden. Das so erhaltene [[Histogramm]] ist eine stückweise konstante Schätzung der Dichtefunktion.
Alternativ kann aus der [[Empirische Verteilungsfunktion|Empirischen Verteilungsfunktion]] mit einem [[Kerndichteschätzer]] eine stetige Dichtefunktion geschätzt werden. Der dazu verwendete Kern sollte dem erwarteten [[Messfehler]] entsprechen.
Alternativ kann beispielsweise mit sogenannten [[Kerndichteschätzer]]n die Dichtefunktion durch eine stetige Funktion geschätzt werden. Der dazu verwendete Kern sollte dem erwarteten [[Messfehler]] entsprechen.

=== Grenzübergang ===
Es sei <math>X_a</math> eine ''approximierende Zufallsvariable'' mit den Ausprägungen <math>x_i</math> und den Wahrscheinlichkeiten <math>p_i</math>. Der [[Grenzwert (Funktion)|Grenzübergang]] von einer approximierenden diskreten Zufallsvariable <math>X_a</math> zu einer stetigen Zufallsvariable <math>X</math> kann durch ein Wahrscheinlichkeitshistogramm modelliert werden. Dazu unterteilt man den Wertebereich der Zufallsvariable <math>X</math> in gleich große Intervalle <math>[c_{i-1},c_i]</math>. Diese Intervalle mit der Länge <math>\Delta x_i</math> und den entsprechenden [[Klasseneinteilung (Statistik)|Klassenmitten]] <math>x_i</math> dienen der Approximation der Dichtefunktion durch das Wahrscheinlichkeitshistogramm, das aus Rechtecken mit der Fläche <math>p_i=f(x_i)\Delta x_i</math> besteht, die sich über den Klassenmitten befinden. Für kleine <math>\Delta x_i</math> kann <math>X_a</math> als Approximation der stetigen Zufallsvariable <math>X</math> aufgefasst werden. Wenn man die Intervalllängen verkleinert, verbessert sich die Approximation von <math>X</math> durch <math>X_a</math>. Der Grenzübergang <math>\Delta x_i\rightarrow 0</math> für alle Intervalle führt im Falle der Varianz zu<ref>L. Fahrmeir, R. Künstler u.&nbsp;a.: ''Statistik. Der Weg zur Datenanalyse.'' 8. Auflage. Springer 2016, S. 262 ff.</ref>

: <math>\sum_{i}(x_i - \mu)^2 f(x_i) \Delta x_i \longrightarrow \int_{\R} (x-\mu)^2 f(x) \, \mathrm{d}x\quad</math>
und im Falle des Erwartungswertes zu
: <math>\sum_{i} x_i f(x_i) \Delta x_i\longrightarrow \int_{\R} x f(x) \, \mathrm{d}x</math>.

Aus dieser Approximation ergibt sich die Definition der Varianz bei stetigen Zufallsvariablen.


== Literatur ==
== Literatur ==
* Hans-Otto Georgii: ''Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik.'' 4. Auflage. de Gruyter Lehrbuch, Berlin 2009, ISBN 978-3-11-021526-7.
* [[Hans-Otto Georgii]]: ''Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik.'' 4. Auflage. de Gruyter Lehrbuch, Berlin 2009, ISBN 978-3-11-021526-7.
* Norbert Henze: ''Stochastik für Einsteiger.'' 7. Auflage. Vieweg Verlag, Wiesbaden 2008, ISBN 978-3-8348-0423-5.
* [[Norbert Henze]]: ''Stochastik für Einsteiger.'' 7. Auflage. Vieweg Verlag, Wiesbaden 2008, ISBN 978-3-8348-0423-5.
* Achim Klenke: ''Wahrscheinlichkeitstheorie.'' 2. Auflage. Springer-Verlag, ISBN 978-3-540-76317-8.
* [[Achim Klenke]]: ''Wahrscheinlichkeitstheorie.'' 2. Auflage. Springer-Verlag, ISBN 978-3-540-76317-8.
* Lothar Sachs, Jürgen Hedderich: ''Angewandte Statistik: Methodensammlung mit R.'' 12. Auflage. Springer-Verlag, Berlin Heidelberg 2006, ISBN 978-3-540-32160-6.
* [[Lothar Sachs]], Jürgen Hedderich: ''Angewandte Statistik: Methodensammlung mit R.'' 12. Auflage. Springer-Verlag, Berlin&nbsp;/ Heidelberg 2006, ISBN 978-3-540-32160-6.


== Weblinks ==
[[Kategorie:Stochastik]]
*{{EoM| Autor = N.G. Ushakov| Titel = Density of a probability distribution| Url = https://www.encyclopediaofmath.org/index.php/Density_of_a_probability_distribution}}
*{{MathWorld| id = ProbabilityDensityFunction| title = Probability Density Function}}


== Siehe auch ==
[[ar:دالة الكثافة الاحتمالية]]
* [[Verteilungsfunktion]]
[[ca:Funció de densitat de probabilitat]]

[[da:Sandsynlighedstæthedsfunktion]]
== Einzelnachweise ==
[[el:Συνάρτηση πυκνότητας πιθανότητας]]
<references />
[[en:Probability density function]]

[[eo:Probablodensa funkcio]]
[[Kategorie:Stochastik]]
[[es:Función de densidad de probabilidad]]
[[fa:تابع چگالی احتمال]]
[[fr:Densité de probabilité]]
[[gl:Función de densidade]]
[[he:פונקציית צפיפות]]
[[hu:Sűrűségfüggvény]]
[[id:Fungsi kepekatan probabilitas]]
[[it:Funzione di densità di probabilità]]
[[ka:ალბათური განაწილების სიმკვრივე]]
[[ko:확률 밀도 함수]]
[[nl:Kansdichtheid]]
[[nn:Sannsynstettleiksfunksjon]]
[[no:Tetthetsfunksjon]]
[[pl:Funkcja gęstości prawdopodobieństwa]]
[[pt:Função densidade]]
[[ru:Плотность вероятности]]
[[sh:Raspodjela vjerojatnosti]]
[[sl:Funkcija gostote verjetnosti]]
[[sr:Расподела вероватноће]]
[[su:Fungsi dénsitas probabilitas]]
[[sv:Täthetsfunktion]]
[[tr:Olasılık yoğunluk fonksiyonu]]
[[uk:Густина імовірності]]
[[ur:Probability density function]]
[[vi:Hàm mật độ xác suất]]
[[zh:機率密度函數]]

Aktuelle Version vom 16. Juli 2024, 12:22 Uhr

Die Wahrscheinlichkeit, dass eine Zufallsvariable einen Wert zwischen und annimmt, entspricht dem Inhalt der Fläche unter dem Graph der Wahrscheinlichkeits­dichtefunktion .

Eine Wahrscheinlichkeitsdichtefunktion, oft kurz Dichtefunktion, Wahrscheinlichkeitsdichte, Verteilungsdichte oder nur Dichte genannt und mit WDF oder englisch PDF (probability density function) abgekürzt, ist eine spezielle reellwertige Funktion in der Stochastik. Dort dienen die Wahrscheinlichkeitsdichtefunktionen zur Konstruktion von Wahrscheinlichkeitsverteilungen mithilfe von Integralen sowie zur Untersuchung und Klassifikation von Wahrscheinlichkeitsverteilungen.

Im Gegensatz zu Wahrscheinlichkeiten können Wahrscheinlichkeitsdichtefunktionen auch Werte über eins annehmen. Die Konstruktion von Wahrscheinlichkeitsverteilungen über Wahrscheinlichkeitsdichtefunktionen beruht auf der Idee, dass die Fläche zwischen der Wahrscheinlichkeitsdichtefunktion und der x-Achse von einem Punkt bis zu einem Punkt der Wahrscheinlichkeit entspricht, einen Wert zwischen und zu erhalten. Nicht der Funktionswert der Wahrscheinlichkeitsdichtefunktion ist somit relevant, sondern die Fläche unter ihrem Funktionsgraphen, also das Integral.

In einem allgemeineren Kontext handelt es sich bei Wahrscheinlichkeitsdichtefunktionen um Dichtefunktionen (im Sinne der Maßtheorie) bezüglich des Lebesgue-Maßes.

Während im diskreten Fall Wahrscheinlichkeiten von Ereignissen durch Aufsummieren der Wahrscheinlichkeiten der einzelnen Elementarereignisse berechnet werden können (ein idealer Würfel zeigt beispielsweise jede Zahl mit einer Wahrscheinlichkeit von ), gilt dies nicht mehr für den stetigen Fall. Beispielsweise sind zwei Menschen kaum exakt gleich groß, sondern nur bis auf Haaresbreite oder weniger. In solchen Fällen sind Wahrscheinlichkeitsdichtefunktionen nützlich. Mit Hilfe dieser Funktionen lässt sich die Wahrscheinlichkeit für ein beliebiges Intervall – beispielsweise eine Körpergröße zwischen 1,80 m und 1,81 m – bestimmen, obwohl unendlich viele Werte in diesem Intervall liegen, von denen jeder einzelne die Wahrscheinlichkeit hat.

Wahrscheinlichkeitsdichten können auf zwei Arten definiert werden: einmal als Funktion, aus der sich eine Wahrscheinlichkeitsverteilung konstruieren lässt, das andere Mal als Funktion, die aus einer Wahrscheinlichkeitsverteilung abgeleitet wird. Der Unterschied ist also die Richtung der Herangehensweise.

Zur Konstruktion von Wahrscheinlichkeitsmaßen

[Bearbeiten | Quelltext bearbeiten]

Gegeben sei eine reelle Funktion

, für die gilt:
  • ist nichtnegativ, das heißt, für alle .
  • ist integrierbar.
  • ist normiert in dem Sinne, dass
.

Dann heißt eine Wahrscheinlichkeitsdichtefunktion und definiert durch

eine Wahrscheinlichkeitsverteilung auf den reellen Zahlen.

Aus Wahrscheinlichkeitsmaßen abgeleitet

[Bearbeiten | Quelltext bearbeiten]

Gegeben sei eine Wahrscheinlichkeitsverteilung oder eine reellwertige Zufallsvariable .

Existiert eine reelle Funktion , sodass für alle

bzw.

gilt, so heißt die Wahrscheinlichkeitsdichtefunktion von bzw. von .

Wahrscheinlichkeitsdichtefunktionen der Exponentialverteilung für verschiedene Parameter.

Eine Wahrscheinlichkeitsverteilung, die über eine Wahrscheinlichkeitsdichtefunktion definiert werden kann, ist die Exponentialverteilung. Sie besitzt die Wahrscheinlichkeitsdichtefunktion

Hierbei ist ein reeller Parameter. Insbesondere überschreitet die Wahrscheinlichkeitsdichtefunktion für Parameter an der Stelle den Funktionswert , wie in der Einleitung beschrieben. Dass es sich bei wirklich um eine Wahrscheinlichkeitsdichtefunktion handelt, folgt aus den elementaren Integrationsregeln für die Exponentialfunktion, Positivität und Integrierbarkeit der Exponentialfunktion sind klar.

Eine Wahrscheinlichkeitsverteilung, aus der eine Wahrscheinlichkeitsdichtefunktion abgeleitet werden kann, ist die stetige Gleichverteilung auf dem Intervall . Sie ist definiert durch

für und

Außerhalb des Intervalls erhalten alle Ereignisse die Wahrscheinlichkeit null. Gesucht ist nun eine Funktion , für die

gilt, falls . Die Funktion

erfüllt dies. Sie wird dann außerhalb des Intervalles durch die Null fortgesetzt, um problemlos über beliebige Teilmengen der reellen Zahlen integrieren zu können. Eine Wahrscheinlichkeitsdichtefunktion der stetigen Gleichverteilung wäre somit

Ebenso wäre die Wahrscheinlichkeitsdichtefunktion

möglich, da sich beide nur auf einer Lebesgue-Nullmenge unterscheiden und beide den Anforderungen genügen. Man könnte beliebig viele Wahrscheinlichkeitsdichtefunktionen allein durch Abwandlung des Wertes an einem Punkt erzeugen. Faktisch ändert dies nichts an den Eigenschaft der Funktion, Wahrscheinlichkeitsdichtefunktion zu sein, da das Integral diese kleinen Modifikationen ignoriert.

Weitere Beispiele für Wahrscheinlichkeitsdichten sind in der Liste univariater Wahrscheinlichkeitsverteilungen zu finden.

Bemerkungen zur Definition

[Bearbeiten | Quelltext bearbeiten]

Streng genommen handelt es sich bei dem Integral in der Definition um ein Lebesgue-Integral bezüglich des Lebesgue-Maßes und es müsste dementsprechend als geschrieben werden. In den meisten Fällen ist das herkömmliche Riemann-Integral aber ausreichend, weshalb hier geschrieben wird. Nachteil des Riemann-Integrals auf struktureller Ebene ist, dass es sich nicht wie das Lebesgue-Integral in einen allgemeinen maßtheoretischen Rahmen einbetten lässt. Für Details zur Beziehung von Lebesgue- und Riemann-Integral siehe Riemann- und Lebesgue-Integral.

Manche Autoren unterscheiden die beiden obigen Herangehensweisen auch namentlich. So wird die Funktion, die zur Konstruktion von Wahrscheinlichkeitsverteilungen verwendet wird, dann Wahrscheinlichkeitsdichte genannt, die aus einer Wahrscheinlichkeitsverteilung abgeleitete Funktion hingegen Verteilungsdichte.[1]

Existenz und Eindeutigkeit

[Bearbeiten | Quelltext bearbeiten]

Konstruktion von Wahrscheinlichkeitsverteilungen

[Bearbeiten | Quelltext bearbeiten]

Das in der Definition beschriebene liefert wirklich eine Wahrscheinlichkeitsverteilung. Denn aus der Normiertheit folgt . Dass die Wahrscheinlichkeiten alle positiv sind, folgt aus der Positivität der Funktion. Die σ-Additivität folgt aus dem Satz von der majorisierten Konvergenz mit der Wahrscheinlichkeitsdichtefunktion als Majorante und der Funktionenfolge

,

mit paarweise disjunkten Mengen .

Hierbei bezeichnet die charakteristische Funktion auf der Menge .

Dass die Wahrscheinlichkeitsverteilung eindeutig ist, folgt aus dem Maßeindeutigkeitssatz und der Schnittstabilität des Erzeugers der Borelschen σ-Algebra, hier das Mengensystem der abgeschlossenen Intervalle.

Aus einer Wahrscheinlichkeitsdichtefunktion abgeleitet

[Bearbeiten | Quelltext bearbeiten]

Die zentrale Aussage über die Existenz einer Wahrscheinlichkeitsdichtefunktion zu einer vorgegebenen Wahrscheinlichkeitsverteilung ist der Satz von Radon-Nikodým:

Die Wahrscheinlichkeitsverteilung besitzt genau dann eine Wahrscheinlichkeitsdichtefunktion, wenn sie absolut stetig bezüglich des Lebesgue-Maßes ist. Das bedeutet, dass aus immer folgen muss.

Es kann durchaus mehr als eine solche Wahrscheinlichkeitsdichtefunktion existieren, aber diese unterscheiden sich nur auf einer Menge vom Lebesgue-Maß 0 voneinander, sind also fast überall identisch.

Somit können diskrete Wahrscheinlichkeitsverteilungen keine Wahrscheinlichkeitsdichtefunktion besitzen, denn für sie gilt immer für ein passendes Element . Solche Punktmengen besitzen aber immer das Lebesgue-Maß 0, somit sind diskrete Wahrscheinlichkeitsverteilungen nicht absolut stetig bezüglich des Lebesgue-Maßes.

Berechnung von Wahrscheinlichkeiten

[Bearbeiten | Quelltext bearbeiten]

Die Wahrscheinlichkeit für ein Intervall lässt sich mit der Wahrscheinlichkeitsdichte berechnen als

.

Diese Formel gilt ebenso für die Intervalle , und , denn es liegt in der Natur stetiger Zufallsvariablen, dass die Wahrscheinlichkeit für das Annehmen eines konkreten Wertes ist. Formal ausgedrückt gilt:

Für komplexere Mengen kann die Wahrscheinlichkeit analog durch Integrieren über Teilintervalle ermittelt werden. Allgemein erhält die Wahrscheinlichkeit die Form

.

Hilfreich ist oft die σ-Additivität der Wahrscheinlichkeitsverteilung. Das bedeutet: Sind paarweise disjunkte Intervalle und ist

die Vereinigung all dieser Intervalle, so gilt

.

Dabei sind die Intervalle von der Form . Dies gilt auch für endlich viele Intervalle. Ist somit die Wahrscheinlichkeit von disjunkten Intervallen zu berechnen, so kann man entsprechend zuerst die Wahrscheinlichkeit jedes einzelnen Intervalles berechnen und diese Wahrscheinlichkeiten dann aufsummieren.

Beispiel: Zeit zwischen Anrufen in einem Callcenter

[Bearbeiten | Quelltext bearbeiten]

Die Zeit zwischen zwei Anrufen in einem Callcenter ist erfahrungsgemäß ungefähr exponentialverteilt zu einem Parameter und besitzt demnach die Wahrscheinlichkeitsdichtefunktion

vergleiche auch den Abschnitt Beispiele und den Artikel Poisson-Prozess. Dabei ist die x-Achse mit einer beliebigen Zeiteinheit versehen (Stunden, Minuten, Sekunden). Der Parameter entspricht dann der mittleren Anzahl von Anrufen pro Zeiteinheit.

Die Wahrscheinlichkeit, dass der nächste Anruf ein bis zwei Zeiteinheiten nach dem vorangegangenen eintritt, ist dann

.

Angenommen, eine Servicekraft im Callcenter benötigt fünf Zeiteinheiten für eine Pause. Die Wahrscheinlichkeit, dass sie keinen Anruf verpasst, ist gleich der Wahrscheinlichkeit, dass der nächste Anruf zum Zeitpunkt fünf oder später eingeht. Es ist damit

Zusammenhang von Verteilungsfunktion und Dichtefunktion

[Bearbeiten | Quelltext bearbeiten]
Wahrscheinlichkeitsdichte der Lognormalverteilung (mit )
Kumulative Verteilungsfunktion der Lognormalverteilung (mit )

Die Verteilungsfunktion einer Zufallsvariablen oder einer Wahrscheinlichkeitsverteilung mit Wahrscheinlichkeitsdichtefunktion beziehungsweise wird als Integral über die Dichtefunktion gebildet:

Dies folgt direkt aus der Definition der Verteilungsfunktion. Die Verteilungsfunktionen von Zufallsvariablen oder Wahrscheinlichkeitsverteilungen mit Wahrscheinlichkeitsdichtefunktion sind somit immer stetig.

Wenn die Verteilungsfunktion differenzierbar ist, ist ihre Ableitung eine Dichtefunktion der Verteilung:

Dieser Zusammenhang gilt auch dann noch, wenn stetig ist und es höchstens abzählbar viele Stellen gibt, an denen nicht differenzierbar ist; welche Werte man an diesen Stellen für verwendet, ist unerheblich.

Allgemein existiert eine Dichtefunktion genau dann, wenn die Verteilungsfunktion absolut stetig ist. Diese Bedingung impliziert unter anderem, dass stetig ist und fast überall eine Ableitung besitzt, die mit der Dichte übereinstimmt.

Es ist jedoch zu beachten, dass es Verteilungen wie die Cantor-Verteilung gibt, die eine stetige, fast überall differenzierbare Verteilungsfunktion besitzen, aber dennoch keine Wahrscheinlichkeitsdichte. Fast überall differenzierbar sind Verteilungsfunktionen immer, aber die entsprechende Ableitung erfasst generell nur den absolutstetigen Anteil der Verteilung.

Dichten auf Teilintervallen

[Bearbeiten | Quelltext bearbeiten]

Die Wahrscheinlichkeitsdichte einer Zufallsvariablen , die nur Werte in einem Teilintervall der reellen Zahlen annimmt, kann so gewählt werden, dass sie außerhalb des Intervalls den Wert hat. Ein Beispiel ist die Exponentialverteilung mit . Alternativ kann die Wahrscheinlichkeitsdichte als eine Funktion betrachtet werden, d. h. als eine Dichte der Verteilung auf bezüglich des Lebesgue-Maßes auf .

Nichtlineare Transformation

[Bearbeiten | Quelltext bearbeiten]

Auch im Falle einer nichtlinearen Transformation gilt für den Erwartungswert der Zufallsgröße

.

Eine Berechnung der Wahrscheinlichkeitsdichtefunktion von selbst ist also gar nicht nötig.

Faltung und Summe von Zufallsvariablen

[Bearbeiten | Quelltext bearbeiten]

Für Wahrscheinlichkeitsverteilungen mit Wahrscheinlichkeitsdichtefunktionen kann die Faltung (von Wahrscheinlichkeitsverteilungen) auf die Faltung (von Funktionen) der entsprechenden Wahrscheinlichkeitsdichtefunktionen zurückgeführt werden. Sind Wahrscheinlichkeitsverteilungen mit Wahrscheinlichkeitsdichtefunktionen und , so ist

.

Hierbei bezeichnet die Faltung von und und die Faltung der Funktionen und . Die Wahrscheinlichkeitsdichtefunktion der Faltung zweier Wahrscheinlichkeitsverteilungen ist somit genau die Faltung der Wahrscheinlichkeitsdichtefunktionen der Wahrscheinlichkeitsverteilungen.

Diese Eigenschaft überträgt sich direkt auf die Summe von stochastisch unabhängigen Zufallsvariablen. Sind zwei stochastisch unabhängige Zufallsvariablen mit Wahrscheinlichkeitsdichtefunktionen und gegeben, so ist

.

Die Wahrscheinlichkeitsdichtefunktion der Summe ist somit die Faltung der Wahrscheinlichkeitsdichtefunktionen der einzelnen Zufallsvariablen.

Bestimmung von Kennzahlen durch Wahrscheinlichkeitsdichtefunktionen

[Bearbeiten | Quelltext bearbeiten]

Viele der typischen Kennzahlen einer Zufallsvariablen beziehungsweise einer Wahrscheinlichkeitsverteilung lassen sich bei Existenz der Wahrscheinlichkeitsdichtefunktionen direkt aus dieser herleiten.

Der Modus einer Wahrscheinlichkeitsverteilung bzw. Zufallsvariablen wird direkt über die Wahrscheinlichkeitsdichtefunktion definiert. Ein heißt ein Modus, wenn die Wahrscheinlichkeitsdichtefunktion an der Stelle ein lokales Maximum besitzt.[2] Das bedeutet, es ist

für alle

für ein .

Selbstverständlich kann eine Wahrscheinlichkeitsdichtefunktion auch zwei oder mehrere lokale Maxima besitzen (bimodale Verteilungen und multimodale Verteilungen). Im Falle der Gleichverteilung im obigen Beispielabschnitt besitzt die Wahrscheinlichkeitsdichtefunktion sogar unendlich viele lokale Maxima.

Der Median wird gewöhnlicherweise über die Verteilungsfunktion oder spezieller über die Quantilfunktion definiert. Existiert eine Wahrscheinlichkeitsdichtefunktion, so ist ein Median gegeben durch dasjenige , für das

und

gilt. Aufgrund der Stetigkeit der zugehörigen Verteilungsfunktion existiert in diesem Fall immer, ist aber im Allgemeinen nicht eindeutig.

Der Erwartungswert einer Zufallsvariable mit Wahrscheinlichkeitsdichtefunktion ist gegeben durch

,

falls das Integral existiert.

Varianz und Standardabweichung

[Bearbeiten | Quelltext bearbeiten]

Ist eine Zufallsvariable mit Wahrscheinlichkeitsdichtefunktion gegeben, und bezeichnet

den Erwartungswert der Zufallsvariablen, so ist die Varianz der Zufallsvariablen gegeben durch

.

Alternativ gilt auch nach dem Verschiebungssatz

.

Auch hier gelten die Aussagen wieder nur, wenn alle vorkommenden Integrale existieren. Die Standardabweichung lässt sich dann direkt als die Wurzel aus der Varianz berechnen.

Höhere Momente, Schiefe und Wölbung

[Bearbeiten | Quelltext bearbeiten]

Mittels der oben angegebenen Vorschrift für nichtlineare Transformationen lassen sich auch höhere Momente direkt berechnen. So gilt für das k-te Moment einer Zufallsvariablen mit Wahrscheinlichkeitsdichtefunktion

und für das k-te absolute Moment

.

Bezeichnet den Erwartungswert von , so ergibt sich für die zentralen Momente

und die absoluten zentralen Momente

.

Über die zentralen Momente können die Schiefe und die Wölbung der Verteilung direkt bestimmt werden, siehe die entsprechenden Hauptartikel.

Gegeben sei wieder die Wahrscheinlichkeitsdichtefunktion der Exponentialverteilung zum Parameter , also

Ein Modus der Exponentialverteilung ist immer . Denn auf dem Intervall ist die Wahrscheinlichkeitsdichtefunktion konstant gleich null, und auf dem Intervall ist sie streng monoton fallend, somit ist an der Stelle 0 ein lokales Maximum. Aus der Monotonie folgt dann auch direkt, dass es sich um das einzige lokale Maximum handelt, der Modus ist also eindeutig bestimmt.

Zur Bestimmung des Medians bildet man (da die Wahrscheinlichkeitsdichtefunktion links der Null verschwindet)

.

Durch kurze Rechnung erhält man

.

Dieses erfüllt auch die zweite der beiden Gleichungen im obigen Abschnitt Median und ist somit ein Median.

Für den Erwartungswert erhält man unter Zuhilfenahme der partiellen Integration

.

Analog lässt sich durch zweimaliges Anwenden der partiellen Integration die Varianz bestimmen.

Weitere Beispiele

[Bearbeiten | Quelltext bearbeiten]

Durch für sowie für und für ist eine Dichtefunktion gegeben, denn ist auf ganz nichtnegativ und es gilt

.

Für gilt:

Die Verteilungsfunktion lässt sich schreiben als

Ist eine Zufallsvariable mit der Dichte , so folgt daher beispielsweise

.

Für den Erwartungswert von ergibt sich

.

Mehrdimensionale Zufallsvariablen

[Bearbeiten | Quelltext bearbeiten]

Wahrscheinlichkeitsdichten kann man auch für mehrdimensionale Zufallsvariablen, also für Zufallsvektoren definieren. Ist eine -wertige Zufallsvariable, so heißt eine Funktion Wahrscheinlichkeitsdichte (bezüglich des Lebesgue-Maßes) der Zufallsvariablen , falls gilt

für alle Borelmengen .

Speziell folgt dann für -dimensionale Intervalle mit reellen Zahlen :

.

Der Begriff der Verteilungsfunktion lässt sich ebenfalls auf mehrdimensionale Zufallsvariablen erweitern. Hier ist in der Notation das ein Vektor und das -Zeichen komponentenweise zu lesen. ist also hierbei eine Abbildung von in das Intervall [0,1] und es gilt

.

Wenn n-mal stetig differenzierbar ist, erhält man eine Wahrscheinlichkeitsdichte durch partielle Differentiation:

Die Dichten der Komponentenvariablen lassen sich als Dichten der Randverteilungen durch Integration über die übrigen Variablen berechnen.

Des Weiteren gilt: Ist eine -wertige Zufallsvariable mit Dichte, so sind äquivalent:

  • besitzt eine Dichte der Form , wobei die reelle Wahrscheinlichkeitsdichte von ist.
  • Die Zufallsvariablen sind unabhängig.

Schätzung einer Wahrscheinlichkeitsdichte anhand diskreter Daten

[Bearbeiten | Quelltext bearbeiten]
Häufigkeitsdichte

Diskret erfasste, aber eigentlich stetige Daten (beispielsweise die Körpergröße in Zentimetern) können als Häufigkeitsdichte repräsentiert werden. Das so erhaltene Histogramm ist eine stückweise konstante Schätzung der Dichtefunktion. Alternativ kann beispielsweise mit sogenannten Kerndichteschätzern die Dichtefunktion durch eine stetige Funktion geschätzt werden. Der dazu verwendete Kern sollte dem erwarteten Messfehler entsprechen.

Es sei eine approximierende Zufallsvariable mit den Ausprägungen und den Wahrscheinlichkeiten . Der Grenzübergang von einer approximierenden diskreten Zufallsvariable zu einer stetigen Zufallsvariable kann durch ein Wahrscheinlichkeitshistogramm modelliert werden. Dazu unterteilt man den Wertebereich der Zufallsvariable in gleich große Intervalle . Diese Intervalle mit der Länge und den entsprechenden Klassenmitten dienen der Approximation der Dichtefunktion durch das Wahrscheinlichkeitshistogramm, das aus Rechtecken mit der Fläche besteht, die sich über den Klassenmitten befinden. Für kleine kann als Approximation der stetigen Zufallsvariable aufgefasst werden. Wenn man die Intervalllängen verkleinert, verbessert sich die Approximation von durch . Der Grenzübergang für alle Intervalle führt im Falle der Varianz zu[3]

und im Falle des Erwartungswertes zu

.

Aus dieser Approximation ergibt sich die Definition der Varianz bei stetigen Zufallsvariablen.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Georgii: Stochastik. 2009, S. 19, 24.
  2. A.V. Prokhorov: Mode. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
  3. L. Fahrmeir, R. Künstler u. a.: Statistik. Der Weg zur Datenanalyse. 8. Auflage. Springer 2016, S. 262 ff.