Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Wahrscheinlichkeitstheorie: Die Wahrscheinlichkeitstheorie ist der Zweig der Mathematik, der sich mit der Analyse von Zufallsphänomenen befasst. Sie wird verwendet, um die Unsicherheit von Zufallsereignissen zu modellieren. Die Wahrscheinlichkeit eines Ereignisses liegt zwischen 0 und 1, die Summe der Wahrscheinlichkeiten aller Ereignisse in einem Stichprobenraum ist 1. Die Wahrscheinlichkeitstheorie wird in der Mathematik, Statistik, Physik und im Ingenieurwesen verwendet. Siehe auch Wahrscheinlichkeit, Wahrscheinlichkeitsverteilung, Wahrscheinlichkeitsfunktionen, Vorhersagen, Methode, Wissen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Gerhard Schurz über Wahrscheinlichkeitstheorie – Lexikon der Argumente

I 110
Wahrscheinlichkeits-Theorie/Theoreme/Schurz:
a) unbedingte Wahrscheinlichkeit: (objektiv und subjektiv)
(T1) p(~A) = 1 – p(A) (Komplementär-Wahrscheinlichkeit)
(T2) p(A) ≤ 1 (obere Schranke)
(T3) p(A u ~A) = 0 (Kontradiktion)
(T4) p(A1 v A2) = p(A1) + p(A2) – p(A1 u A2) (allgemeines Additionsgesetz)

b) bedingte Wahrscheinlichkeit (für die Formeln X in Antezedens Position)

(TB1) Wenn B > A erschöpfend ist, gilt p(A I B) = 1. Die Umkehrung gilt nicht.
(TB2) p(A u B) = p(A I B) mal p(B)
TB3) Für jede Partition B1,...Bn gilt: p(A) = ∑ 1≤i≤n p(A I Bi) mal p(Bi) (allg. Multiplikationsgesetz)
(TB4): Def Bayes-Theorem, 1. Version:
p(A I B) = p(B I A) mal p(A)/p(B)

(TB5) Def Bayes-Theorem, 2. Version: für jede Partition A1,...An gilt:
p(Ai I B) = p(B I Ai) mal p (Ai) /∑ 1≤i≤n p(B I Ai) mal p(Ai).

(TB6) Symmetrie der probabilistischen Abhängigkeit:
p(A I B) > p(A) gdw. p(B I A) > p(B) gdw. p(B I A) > p(B I ~A) (analog für ≥).
Def Partition/Schurz: erschöpfende Disjunktion.

I 112
Wahrscheinlichkeits-Theorie/Schurz: bis heute ungelöste Probleme:
a) objektive Wahrscheinlichkeit: Definitionsprobleme.
Definition statistischer Wahrscheinlichkeit: Problem: mit einem Zufallsexperiment kann man potentiell unendlich viele unendlich anwachsende Ergebnisfolgen produzieren, Warum sollten sie alle denselben Häufigkeitsgrenzwert haben? Warum sollten sie überhaupt einen haben?
Problem: noch schlimmer: aus einer gegebenen Ergebnisfolge kann man durch willkürliche Umordnung oder Stellenauswahl jederzeit eine Folge mit beliebig abweichendem Häufigkeitsgrenzwert konstruieren.
I 113
Gesetz der großen Zahl/Schurz: („naive statistische Theorie“): soll eine Lösung für dieses Problem sein: die Behauptung „p(Fx) = r“ besagt danach nicht, dass in allen Zufallsfolgen der Häufigkeitsgrenzwert r ist, sondern nur, dass er mit Wahrscheinlichkeit 1 r ist.
StegmüllerVs/KutscheraVs: Das ist zirkulär! Im Definiens des Ausdrucks „die Wahrscheinlichkeit von Fx ist r“ kommt erneut der Ausdruck „mit Wahrscheinlichkeit 1“ vor. Damit wird die Wahrscheinlichkeit nicht auf Häufigkeitsgrenzwerte, sondern wiederum auf Wahrscheinlichkeit zurückgeführt.
>Zirkularität
.
Umstellung/Umordnung/(s): nur ein Problem bei unendlichen Mengen, nicht bei endlichen.
Mises/Lösung: „statistisches Kollektiv“.
1. jedes mögliche Ergebnis E besitzt in g einen Häufigkeitsgrenzwert, der mit der Wahrscheinlichkeit p(E) identifiziert wird und
2. dieser ist insensitiv gegenüber einer Stellenauswahl.
Daraus folgt die allgemeine
Produktregel/Statistik: die Wahrscheinlichkeit einer Summe ist gleich dem Produkt der einzelnen Wahrscheinlichkeiten: p(Fx1 u Gx2) = p(Fx1) mal p(Gx2).
Wahrscheinlichkeit /Propensität//Mises: dieses Ergebnis von Mises ist empirisch, nicht a priori! Es ist eine gehaltvolle Dispositionsaussage über die reale Natur des Zufallsexperiments. Die Misessche Wahrscheinlichkeit nennt man auch Propensität.
>Propensität.
Singuläre Propensität/Einzelfall Wahrscheinlichkeit/Einzel Wahrscheinlichkeit/Popper: viele Vs.
Wahrscheinlichkeits-Theorie/Schurz: Problem: worin liegt der empirische Gehalt einer statistischen Hypothese und wie wird sie überprüft? Es gibt keine Beobachtungsaussage, die aus dieser Hypothese logisch folgt.
>Überprüfung.
Dass eine Zufallsfolge einen bestimmten Häufigkeitsgrenzwert r besitzt, ist für jedes noch so große n mit jedem beliebigen bis dahin erreichten Häufigkeitswert hn ungleich r verträglich.
Bayes/Schurz: das wird von Bayesianern gern als Einwand gebracht, drückt aber lediglich die Tatsache aus, dass aus statistischen Hypothesen keine Beobachtungssätze folgen.
I 115
Überprüfung/Statistik/Schurz: Statistische Hypothesen sind nicht deduktiv überprüfbar, wohl aber probabilistisch, durch Stichproben.

I 115
Principal Principle/PP/Statistik/Schurz: Die subjektiven Wahrscheinlichkeiten müssen, wenn die objektiven Wahrscheinlichkeit gewusst werden, mit diesen übereinstimmen.
Lewis (1980): singuläres PP: subjektivistisch. Hier werden „objektive“ singuläre Propensitäten einfach postuliert.
>Propensitäten.
SchurzVsPropensität/SchurzVsPopper: Es bleibt unklar, welcher Eigenschaft eine singuläre Propensität überhaupt entsprechen soll.
Lösung/de Finetti: man kann auch den objektiven Wahrscheinlichkeits-Begriff gleichzeitig akzeptieren.
Konditionalisierung/Statistik/Schurz: auf ein beliebiges Erfahrungsdatum E(b1...bn) über andere Individuen b1,..bn ist wichtig, um daraus zwei weitere Versionen des PP ableiten zu können:
1. PP für Zufallsstichproben, das für die subjektive Rechtfertigung der statistische Likelihood-Intuition gebraucht wird
2. Das konditionale PP, für das Prinzip der engsten Referenzklasse und dem induktiv statistischen Spezialisierungsschluss unterliegt.
PP: w(Fa I p(Fx) = r u E(b1,...bn)) = r
PP für Zufallsstichproben: w(hn(Fx) = k/n I p(Fx) = r) = (nk) rk mal (1 r)n k.
Konditionales PP: w(Fa I Ga u p(Fx I Gx) = r u E(b1,…bn)) = r.
Principal principle: ist nur für subjektive a priori-Wahrscheinlichkeit sinnvoll. D.h. Glaubensgrade eines Subjekts, das noch keine Erfahrung gemacht hat.
Aktualer Glaubensgrad: für ihn gilt das Prinzip nicht generell: Bsp wenn die Münze schon Kopf zeigt, (=Fa) so ist der GG davon natürlich = 1, während man weiß dass p(Fx) = ½.
Apriorische Wahrscheinlichkeits-Funktion: hier muss das gesamte Hintergrundwissen W explizit in das Antezedens einer konditionalen Wahrscheinlichkeits-Aussage w( I W) geschrieben werden.
Aktual: = personalistisch.
Apriorische Wahrscheinlichkeit: Zusammenhang mit aktualer Wahrscheinlichkeit:
Strikte Konditionalisierung/Schurz: w0 sei die a priori Wahrscheinlichkeit bzw. Wahrscheinlichkeit zu t0 und w1 die gegenwärtige Wahrscheinlichkeit
I 116
Wt das zwischen t0 und t1 erworbene Wissen. Dann gilt für beliebige A:
Wt(A) = w0(A I Wt).

Engste Referenzklasse/Prinzip/Schurz: lässt sich so rechtfertigen: Für ein gegebenes Ereignis Fa kann das Individuum a sehr vielen Referenzklassen angehören, die Fx sehr verschiedene Wahrscheinlichkeiten zuweisen. Dann erhielten wir widersprüchliche Prognosen.
Frage: Aber warum sollte die geeignete Referenzklasse die engste sein? Weil man beweisen kann, dass sie den Häufigkeitsgrenzwert zutreffender Prognosen maximiert.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Schu I
G. Schurz
Einführung in die Wissenschaftstheorie Darmstadt 2006

Send Link
> Gegenargumente gegen Schurz
> Gegenargumente zu Wahrscheinlichkeitstheorie ...

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z