Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Wahrscheinlichkeitstheorie: Die Wahrscheinlichkeitstheorie ist der Zweig der Mathematik, der sich mit der Analyse von Zufallsphänomenen befasst. Sie wird verwendet, um die Unsicherheit von Zufallsereignissen zu modellieren. Die Wahrscheinlichkeit eines Ereignisses liegt zwischen 0 und 1, die Summe der Wahrscheinlichkeiten aller Ereignisse in einem Stichprobenraum ist 1. Die Wahrscheinlichkeitstheorie wird in der Mathematik, Statistik, Physik und im Ingenieurwesen verwendet. Siehe auch Wahrscheinlichkeit, Wahrscheinlichkeitsverteilung, Wahrscheinlichkeitsfunktionen, Vorhersagen, Methode, Wissen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Peter Norvig über Wahrscheinlichkeitstheorie – Lexikon der Argumente

Norvig I 503
Wahrscheinlichkeitstheorie/Norvig/Russell: Die Wahrscheinlichkeitstheorie wurde erfunden, um Glücksspiele zu analysieren. Um 850 n. Chr. beschrieb der indische Mathematiker Mahaviracarya, wie man ein Set von Wetten eingeht, die man nicht verlieren kann (was wir heute ein Dutch Book nennen). In Europa wurden die ersten bedeutenden systematischen Analysen von Girolamo Cardano um 1565 erstellt, die Veröffentlichung erfolgte jedoch erst posthum (1663). Zu dieser Zeit hatte sich die Wahrscheinlichkeit durch eine Reihe von
Norvig I 504
Ergebnissen, die in einem berühmten Briefwechsel zwischen Blaise Pascal und Pierre de Fermat 1654 festgestellt wurden, als mathematische Disziplin etabliert. Wie die Wahrscheinlichkeit selbst, waren auch die Ergebnisse zunächst durch Glücksspielprobleme motiviert (...).
Das erste veröffentlichte Lehrbuch über die Wahrscheinlichkeit war De Ratiociniis in Ludo Aleae (Huygens, 1657)(1). Die "Faulheit und Unwissenheit"-Sichtweise der Unsicherheit wurde von John Arbuthnot im Vorwort seiner Übersetzung von Huygens (Arbuthnot, 1692)(2) beschrieben: "Es ist unmöglich, dass ein Würfel mit einer so bestimmten Kraft und Richtung nicht auf diese bestimmte Seite fällt, nur kenne ich die Kraft und Richtung nicht, die ihn auf diese bestimmte Seite fallen lässt, und deshalb nenne ich es Zufall, der nichts anderes ist als der Mangel an Kunst...".
Laplace (1816)(3) gab einen außergewöhnlich genauen und modernen Überblick über die Wahrscheinlichkeit; er war der erste, der das Beispiel "Nimm zwei Urnen, A und B, die erste enthält vier weißen und zwei schwarzen Kugeln,... " Der Pastor Thomas Bayes (1702-1761) führte die nach ihm benannte Regel für das Denken über bedingte Wahrscheinlichkeiten ein (Bayes, 1763)(4). Bayes betrachtete nur den Fall von einheitlichen Prioren; es war Laplace, der unabhängig den allgemeinen Fall entwickelte.
Kolmogorov (1950(5), erstmals 1933 in deutscher Sprache veröffentlicht) stellt erstmals die Wahrscheinlichkeitstheorie in einem streng axiomatischen Rahmen vor. Rényi (1970)(6) stellte später eine axiomatische Darstellung zur Verfügung, die nicht die absolute, sondern die bedingte Wahrscheinlichkeit als primitiv ansah.
Objektivismus: Pascal benutzte die Wahrscheinlichkeit in einer Weise, die sowohl die objektive Interpretation als eine auf Symmetrie oder relativer Häufigkeit basierende Eigenschaft der Welt, als auch die subjektive Interpretation, basierend auf dem Grad der Überzeugung, erforderte - erstere in seinen Analysen der Wahrscheinlichkeiten in Glücksspielen, letztere in dem berühmten "Pascals Wette"-Argument über die mögliche Existenz Gottes. Pascal erkannte jedoch nicht klar die Unterscheidung zwischen diesen beiden Interpretationen. Die Unterscheidung wurde erstmals von James Bernoulli (1654-1705) deutlich gemacht.
Subjektivismus: Leibniz führte den "klassischen" Begriff der Wahrscheinlichkeit als Anteil der aufgezählten, gleichwahrscheinlichen Fälle ein, der auch von Bernoulli verwendet wurde, obwohl er von Laplace (1749-1827) in den Vordergrund gerückt wurde. Dieser Begriff ist mehrdeutig zwischen der Frequenzinterpretation und der subjektiven Interpretation. Die Fälle können als gleich wahrscheinlich angesehen werden, entweder aufgrund einer natürlichen, physikalischen Symmetrie zwischen ihnen, oder einfach, weil wir keine Kenntnisse haben, die uns dazu bringen würden, den einen Fall für wahrscheinlicher zu halten als den anderen.
Indifferenzprinzip: Die Verwendung dieser letzteren, subjektiven Betrachtung zur Rechtfertigung der Zuweisung gleicher Wahrscheinlichkeiten ist als Indifferenzprinzip bekannt. Das Prinzip wird oft Laplace zugeschrieben, aber er hat das Prinzip nie explizit isoliert.
Prinzip vom unzureichenden Grund: George Boole und John Venn haben beide [das Indifferenzprinzip] als das Prinzip vom unzureichenden Grund bezeichnet; der moderne Name geht auf Keynes (1921)(7) zurück.
Objektivismus/Subjektivismus: Die Debatte zwischen Objektivisten und Subjektivisten wurde im 20. Jahrhundert schärfer. Kolmogorov (1963)(8), R. A. Fisher (1922)(9) und Richard von Mises (1928)(10) waren Verfechter der relativen Häufigkeitsinterpretation.
Propensität: Karl Poppers (1959(11), erstmals 1934 in deutscher Sprache veröffentlicht) "Propensität(s)"-Interpretation verfolgt relative Frequenzen auf eine zugrunde liegende physikalische Symmetrie zurück.
Grad der Überzeugung (degree of belief): Frank Ramsey (1931)(12), Bruno de Finetti (1937)(13), R. T. Cox (1946)(14), Leonard Savage (1954)(15), Richard Jeffrey (1983)(16) und E. T. Jaynes (2003)(17) interpretierten Wahrscheinlichkeiten als Grad der Überzeugung von bestimmten Individuen. Ihre Analysen des Gras der Überzeugung waren eng mit Nutzen und Verhalten - insbesondere mit der Wettbereitschaft - verknüpft.
Subjektivismus: Rudolf Carnap bot in Anlehnung an Leibniz und Laplace eine andere Art der subjektiven Interpretation von Wahrscheinlichkeit an - nicht als den Grad der Überzeugung eines tatsächlichen Individuums, sondern als den Grad der Überzeugung, den ein idealisiertes Individuum in einem bestimmten Satz a bei einem bestimmten Beweismittel e haben sollte.
Norvig I 505
Bestätigungsgrad: Carnap versuchte, weiter als Leibniz oder Laplace zu gehen, indem er diesen Begriff des Bestätigungsgrades mathematisch präzise machte, als logische Beziehung zwischen a und e.
Induktion/Induktive Logik: Die Untersuchung dieser Beziehung sollte eine mathematische Disziplin darstellen, die induktive Logik genannt wurde, analog zur gewöhnlichen deduktiven Logik (Carnap, 1948(18), 1950(19)). Carnap war nicht in der Lage, seine induktive Logik besonders weit über den propositionalen Fall hinaus auszudehnen, und Putnam (1963)(20) zeigte durch kontradiktorische Argumente, dass einige grundlegende Schwierigkeiten eine strikte Ausdehnung auf Sprachen, die in der Lage sind, Arithmetik auszudrücken, verhindern würden.
Unsicherheit: Das Theorem von Cox (1946)(14) zeigt, dass jedes System für unsicheres Schlussfolgern, das seine Set von Annahmen erfüllt, der Wahrscheinlichkeitstheorie entspricht. Dies bekräftigte das Vertrauen derjenigen, die bereits die Wahrscheinlichkeit befürworteten, aber andere waren nicht überzeugt und wiesen auf die Annahmen hin (in erster Linie, dass Überzeugung (belief) durch eine einzige Zahl repräsentiert werden muss, und daher muss die Überzeugung über ¬p eine Funktion der Überzeugung über p sein). Halpern (1999)(21) beschreibt die Annahmen und zeigt einige Lücken in Cox' ursprünglicher Formulierung auf. Horn (2003)(22) zeigt, wie man die Schwierigkeiten ausbessern kann. Jaynes (2003)(17) hat ein ähnliches Argument, das leichter zu lesen ist. Die Frage der Referenzklassen ist eng mit dem Versuch verbunden, eine induktive Logik zu finden.
Referenzklassenproblem: Der Ansatz, die "spezifischste" Referenzklasse von ausreichender Größe zu wählen, wurde von Reichenbach (1949) vorgeschlagen(23). Es wurden verschiedene Versuche unternommen, insbesondere von Henry Kyburg (1977(24), 1983(25)), um ausgeklügeltere Strategien zu formulieren, um einige offensichtliche Trugschlüsse zu vermeiden, die durch Reichenbachs Regel entstehen, aber solche Ansätze verbleiben etwas ad hoc. Neuere Arbeiten von Bacchus, Grove, Halpern und Koller (1992)(26) erweitern Carnaps Methoden auf Theorien erster Ordnung und vermeiden so viele der Schwierigkeiten, die mit der einfachen Referenzklassenmethode verbunden sind. Kyburg und Teng (2006)(27) stellen die probabilistische Inferenz der nichtmonotonen Logik gegenüber. >Unsicherheit/KI-Forschung.


1. Huygens, C. (1657). De ratiociniis in ludo aleae. In van Schooten, F. (Ed.), Exercitionum Mathematicorum. Elsevirii, Amsterdam. Translated into English by John Arbuthnot (1692
2. Arbuthnot, J. (1692). Of the Laws of Chance. Motte, London. Translation into English, with additions, of Huygens (1657).
3. Laplace, P. (1816). Essai philosophique sur les probabilit´es (3rd edition). Courcier Imprimeur,
Paris.
4. Bayes, T. (1763). An essay towards solving a problem in the doctrine of chances. Philosophical Transactions of the Royal Society of London, 53, 370–418.
5. Kolmogorov, A. N. (1950). Foundations of the Theory of Probability. Chelsea.
6. Rényi, A. (1970). Probability Theory. Elsevier/North-Holland.
7. Keynes, J. M. (1921). A Treatise on Probability. Macmillan.
8. Kolmogorov, A. N. (1963). On tables of random numbers. Sankhya, the Indian Journal of Statistics,
Series A 25.
9. Fisher, R. A. (1922). On the mathematical foundations of theoretical statistics. Philosophical Transactions of the Royal Society of London, Series A 222, 309–368.
10. von Mises, R. (1928). Wahrscheinlichkeit, Statistik und Wahrheit. J. Springer
11. Popper, K. R. (1959). The Logic of Scientific Discovery. Basic Books.
12. Ramsey, F. P. (1931). Truth and probability. In Braithwaite, R. B. (Ed.), The Foundations of Mathematics and Other Logical Essays. Harcourt Brace Jovanovich.
13. de Finetti, B. (1937). Le prévision: ses lois logiques, ses sources subjectives. Ann. Inst.Poincaré, 7, 1-68.
14. Cox, R. T. (1946). Probability, frequency, and reasonable expectation. American Journal of Physics,
14(1), 1–13.
15. Savage, L. J. (1954). The Foundations of Statistics. Wiley.
16. Jeffrey, R. C. (1983). The Logic of Decision (2nd edition). University of Chicago Press.
17. Jaynes, E. T. (2003). Probability Theory: The Logic of Science. Cambridge Univ. Press.
18. Carnap, R. (1948). On the application of inductive logic. Philosophy and Phenomenological Research, 8, 133-148.
19. Carnap, R. (1950). Logical Foundations of Probability. University of Chicago Press
20. Putnam, H. (1963). ‘Degree of confirmation’ and inductive logic. In Schilpp, P. A. (Ed.), The Philosophy of Rudolf Carnap, pp. 270–292. Open Court.
21. Halpern, J. Y. (1999). Technical addendum, Cox’s theorem revisited. JAIR, 11, 429–435.
22. Horn, K. V. (2003). Constructing a logic of plausible inference: A guide to cox’s theorem. IJAR, 34,
3–24.
23. Reichenbach, H. (1949). The Theory of Probability: An Inquiry into the Logical and Mathematical
Foundations of the Calculus of Probability (second edition). University of California Press
24. Kyburg, H. E. (1977). Randomness and the right reference class. J. Philosophy, 74(9), 501-521.
25. Kyburg, H. E. (1983). The reference class. Philosophy of Science, 50, 374–397.
26. Bacchus, F., Grove, A., Halpern, J. Y., and Koller, D. (1992). From statistics to beliefs. In AAAI-92,
pp. 602-608.
27. Kyburg, H. E. and Teng, C.-M. (2006). Nonmonotonic logic and statistical inference. Computational
Intelligence, 22(1), 26-51.


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z