Philosophie Lexikon der Argumente

Home

Screenshot Tabelle Begriffe

 
Inferenzen: Schlüsse, Schlussfolgerungen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor/Titel Begriff Zusammenfassung Metadaten
Norvig I 471
Schlussfolgerungen/Inferenz/Künstliche Intelligenz/KI-Forschung/Norvig/Russell: Die drei Hauptformalismen für den Umgang mit nichtmonotoner Inferenzumschreibung (McCarthy, 1980)(1), Standardlogik (Reiter, 1980(2)) und modaler nichtmonotoner Logik (McDermott und Doyle, 1980)(3) - wurden alle in einer Sonderausgabe des AI Journal vorgestellt. Delgrande und Schaub (2003)(4) diskutieren die Vorzüge der Varianten angesichts eines Rückblicks nach 25 Jahren.
Answer set programming kann als Erweiterung der schwachen Negation (negation as failure) oder als Verbesserung der Umschreibung angesehen werden;
Norvig I 472
Die zugrunde liegende Theorie der stable model semantics wurde von Gelfond und Lifschitz (1988)(5) eingeführt, und die führenden answer set prgramming-Systeme sind DLV (Eiter et al., 1998)(6) und SMODELS (Niemelä et al., 2000)(7). Das Laufwerk-Beispiel stammt aus dem SMODELS-Benutzerhandbuch (Syrjänen, 2000)(8). Lifschitz (2001(9)) diskutiert die Verwendung des answer set programming für die Planung. Brewka et al. (1997)(10) geben einen guten Überblick über die verschiedenen Ansätze der nichtmonotonen Logik. Clark (1978)(11) betrachtet den Ansatz der schwachen Negation für Logikprogrammierung und Clark completion. Van Emden und Kowalski (1976)(12) zeigen, dass jedes Prolog-Programm ohne Negation ein einzigartiges Minimalmodell hat. In den letzten Jahren ist das Interesse an der Anwendung nichtmonotoner Logiken auf groß angelegte Wissensrepräsentationssysteme wieder gestiegen.
Die BENINQ-Systeme zur Bearbeitung von Anfragen zu Versicherungsleistungen waren vermutlich die erste kommerziell erfolgreiche Anwendung eines nichtmonotonen Vererbungssystems (Morgenstern, 1998)(13). Lifschitz (2001)(9) diskutiert die Anwendung des answer set programming auf die Planung.
Norvig I 473
Räumliches Denken: Der früheste ernsthafte Versuch, vernünftige Überlegungen über den Raum zu erfassen, findet sich im Werk von Ernest Davis (1986(14), 1990(15)). Der region connection calculus von Cohn et al. (1997)(16) unterstützt eine Form des qualitativen räumlichen Denkens und hat zu neuartigen geografischen Informationssystemen geführt; siehe auch (Davis, 2006)(17). Wie bei der qualitativen Physik kann ein Agent sozusagen einen langen Weg gehen, ohne auf eine vollständige metrische Darstellung zurückzugreifen. >Robotik/KI-Forschung.
Psychologisches Schlussfolgern: Psychologisches Schlussfolgern beinhaltet die Entwicklung einer Arbeitspsychologie für künstliche Agenten, die sie beim Schlussfolgern über sich selbst und andere Agenten verwenden können. Dies basiert oft auf der sogenannten Volkspsychologie, der Theorie, von der angenommen wird, dass der Mensch sie generell bei der Argumentation über sich selbst und andere Menschen verwendet. ((s) vgl. >Volkspsychologie/Philosophische Theorien).
Wenn KI-Forscher ihre künstlichen Agenten mit psychologische Theorien für Schlussfolgerungen über andere Agenten ausstatten, basieren die Theorien häufig auf der durch die Forscher gegebenen Beschreibung des eigenen Designs der logischen Agenten. Psychologisches Schlussfolgern ist derzeit am nützlichsten im Kontext des natürlichen Sprachverständnisses, wo das Erahnen der Absichten des Sprechers von größter Bedeutung ist. Minker (2001)(18) sammelt Arbeiten führender Forscher auf dem Gebiet der Wissensrepräsentation und fasst 40 Jahre Arbeit auf diesem Gebiet zusammen. Die Tagungsberichte der internationalen Konferenzen zu Principles of Knowledge Representation and Reasoning bieten die aktuellsten Quellen für die Arbeit in diesem Bereich.


1. McCarthy, J. (1980). Circumscription: A form of non-monotonic reasoning. AIJ, 13(1–2), 27–39.
2. Reiter, R. (1980). A logic for default reasoning. AIJ, 13(1–2), 81–132.
3. McDermott, D. and Doyle, J. (1980). Nonmonotonic logic: i. AIJ, 13(1–2), 41–72.
4. Delgrande, J. and Schaub, T. (2003). On the relation between Reiter’s default logic and its (major) variants. In Seventh European Conference on Symbolic and Quantitative Approaches to Reasoning with Uncertainty, pp. 452–463.
5. Gelfond, M. and Lifschitz, V. (1988). Compiling circumscriptive theories into logic programs. In Non-
Monotonic Reasoning: 2nd International Workshop Proceedings, pp. 74–99.
6. Eiter, T., Leone, N., Mateis, C., Pfeifer, G., and Scarcello, F. (1998). The KR system dlv: Progress report, comparisons and benchmarks. In KR-98, pp. 406–417.
7. Niemela, I., Simons, P., and Syrjanen, T. (2000). Smodels: A system for answer set programming.
In Proc. 8th International Workshop on Non-Monotonic Reasoning.
8. Syrjanen, T. (2000). Lparse 1.0 user’s manual.saturn.tcs.hut.fi/Software/smodels.
9. Lifschitz, V. (2001). Answer set programming and plan generation. AIJ, 138(1–2), 39–54.
10. Brewka, G., Dix, J., and Konolige, K. (1997). Nononotonic Reasoning: An Overview. CSLI Publications.
11. Clark, K. L. (1978). Negation as failure. In Gallaire, H. and Minker, J. (Eds.), Logic and Data Bases, pp. 293–322. Plenum.
12. Van Emden, M. H. and Kowalski, R. (1976). The semantics of predicate logic as a programming language. JACM, 23(4), 733–742.
13. Morgenstern, L. (1998). Inheritance comes of age: Applying nonmonotonic techniques to problems in industry. AIJ, 103, 237–271
14. Davis, E. (1986). Representing and Acquiring Geographic Knowledge. Pitman and Morgan Kaufmann.
15. Davis, E. (1990). Representations of Commonsense Knowledge. Morgan Kaufmann
16. Cohn, A. G., Bennett, B., Gooday, J. M., and Gotts, N. (1997). RCC: A calculus for region based qualitative spatial reasoning. GeoInformatica, 1, 275–316.
17. Davis, E. (2006). The expressivity of quantifying over regions. J. Logic and Computation, 16, 891–
916.
18. Minker, J. (2001). Logic-Based Artificial Intelligence. Kluwer

- - -
Norvig I 570
Inferenz/zeitliche Modelle/KI-Forschung/Norvig/Russell: (...) die grundlegenden Inferenzaufgaben, die gelöst werden müssen:
a) Filtern: Hier ist die Aufgabe, den Belief Sate zu berechnen - die nachträgliche Verteilung über den letzten Zustand - unter Berücksichtigung aller bisherigen Erkenntnisse. Das Filtern wird auch als Zustandsschätzung bezeichnet. >Belief States/Norvig.
b) Vorhersage: Hier ist die Aufgabe, die nachträglichen Verteilung über den zukünftigen Zustand zu berechnen - unter Berücksichtigung aller bisherigen Beweise. Das heißt, wir wollen P(Xt+k | e1:t) für einige k > 0 berechnen.
Norvig I 571
c) Glätten: Hier ist die Aufgabe die Berechnung der nachträglichen Verteilung über einen vergangenen Zustand, unter Berücksichtigung aller Beweise bis zur Gegenwart. Das heißt, wir wollen P(Xk | e1:t) für einige k so berechnen, dass 0 ≤ k < t.
d) Wahrscheinlichste Erklärung: Wenn wir eine Folge von Beobachtungen haben, möchten wir vielleicht die Zustandsfolge finden, die am wahrscheinlichsten diese Beobachtungen erzeugt hat. Das heißt, wir möchten argmaxx1:t P(x1:t | e1:t) berechnen.
Zusätzlich zu diesen Inferenzaufgaben (...):
Lernen: Die Übergangs- und Sensormodelle, falls noch nicht bekannt, können aus Beobachtungen gelernt werden. Wie bei statischen >Bayesschen Netzen kann auch das dynamische Bayes-Netz als Nebenprodukt der Inferenz gelernt werden. Die Inferenz liefert eine Schätzung darüber, welche Übergänge tatsächlich stattgefunden haben und welche Zustände die Sensormesswerte erzeugt haben, und diese Schätzungen können zur Aktualisierung der Modelle verwendet werden. >Veränderung/KI-Forschung, >Unsicherheit/KI-Forschung.
Norvig I 605
Zu a) Der Algorithmus der Partikelfilterung (...) hat eine besonders interessante Geschichte. Die ersten Sampling-Algorithmen für die Partikelfilterung (auch sequentielle Monte-Carlo-Methoden genannt) wurden in der Kontrolltheorie-Community von Handschin und Mayne (1969)(1) entwickelt, und die Resampling-Idee, die den Kern der Partikelfilterung darstellt, erschien in einer russischen Kontroll-Fachzeitschrift (Zaritskii et al., 1975)(2). Später wurde sie in der Statistik als sequentielle Bedeutung der Probenahme und Resampling oder SIR (Rubin, 1988(3); Liu und Chen, 1998(4)), in der Kontrolltheorie als Partikelfilterung (Gordon et al., 1993(5); Gordon, 1994(6)), in der KI als survival of the fittest (Kanazawa et al., 1995)(7) und in der Computervision als Kondensation (Isard und Blake, 1996)(8) neu erfunden. Die Arbeit von Kanazawa et al. (1995)(7) enthält eine Verbesserung, die Evidenzumkehr genannt wird, wobei der Zustand zum Zeitpunkt t+1 unter der Bedingung sowohl des Zustandes zum Zeitpunkt t als auch der Evidenz zum Zeitpunkt t+1 abgetastet wird. Dies erlaubt es der Evidenz, die Probenerzeugung direkt zu beeinflussen und wurde von Doucet (1997)(9) und Liu und Chen (1998)(4) nachgewiesen, um den Approximationsfehler zu reduzieren.
Die Partikelfilterung wurde in vielen Bereichen angewandt, u.a. bei der Verfolgung komplexer Bewegungsmuster im Video (Isard und Blake, 1996)(8), bei der Vorhersage des Aktienmarktes (de Freitas et al., 2000)(10) und bei der Diagnose von Fehlern an planetarischen Rovern (Verma et al., 2004)(11). Eine Variante namens Rao-Blackwellized-Partikelfilter oder RBPF (Doucet et al., 2000(12); Murphy und Russell, 2001)(13) wendet die Partikelfilterung auf eine Teilmenge von Zustandsvariablen an und führt für jedes Partikel exakte Inferenzen auf die übrigen Variablen durch, die von der Wertefolge im Partikel abhängen. In einigen Fällen funktioniert RBPF gut mit tausenden von Zustandsvariablen. >Nutzen/KI-Forschung, >Nutzentheorie/Norvig, >Rationalität/KI-Forschung, >Sicherheitseffekt/Kahneman/Tversky, >Ambiguität/Kahneman/Tversky.


1. Handschin, J. E. and Mayne, D. Q. (1969). Monte Carlo techniques to estimate the conditional expectation in multi-stage nonlinear filtering. Int. J. Control, 9(5), 547–559.
2. Zaritskii, V. S., Svetnik, V. B., and Shimelevich, L. I. (1975). Monte-Carlo technique in problems of optimal information processing. Automation and Remote Control, 36, 2015–22.
3. Rubin, D. (1988). Using the SIR algorithm to simulate posterior distributions. In Bernardo, J. M.,
de Groot,M. H., Lindley, D. V., and Smith, A. F. M. (Eds.), Bayesian Statistics 3, pp. 395–402. Oxford
University Press.
4. Liu, J. S. and Chen, R. (1998). Sequential Monte Carlo methods for dynamic systems. JASA, 93,
1022–1031.
5. Gordon, N., Salmond, D. J., and Smith, A. F. M. (1993). Novel approach to nonlinear/non-Gaussian
Bayesian state estimation. IEE Proceedings F (Radar and Signal Processing), 140(2), 107–113.
6. Gordon, N. (1994). Bayesian methods for tracking. Ph.D. thesis, Imperial College.
7. Kanazawa, K., Koller, D., and Russell, S. J. (1995). Stochastic simulation algorithms for dynamic probabilistic networks. In UAI-95, pp. 346–351.
8. Isard, M. and Blake, A. (1996). Contour tracking by stochastic propagation of conditional density. In ECCV, pp. 343–356.
9. Doucet, A. (1997). Monte Carlo methods for Bayesian estimation of hidden Markov models: Application to radiation signals. Ph.D. thesis, Université de Paris-Sud.
10. de Freitas, J. F. G., Niranjan, M., and Gee, A. H. (2000). Sequential Monte Carlo methods to train neural network models. Neural Computation, 12(4), 933–953.
11. Verma, V., Gordon, G., Simmons, R., and Thrun, S. (2004). Particle filters for rover fault diagnosis.
IEEE Robotics and Automation Magazine, June.
12. Doucet, A., de Freitas, N., Murphy, K., and Russell, S. J. (2000). Rao-blackwellised particle filtering for dynamic bayesian networks. In UAI-00.
13. Murphy, K. and Russell, S. J. (2001). Rao-blackwellised particle filtering for dynamic Bayesian networks. In Doucet, A., de Freitas, N., and Gordon, N. J. (Eds.), Sequential Monte Carlo Methods in Practice. Springer-Verlag.


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders.
Der Hinweis [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] ist eine Hinzufügung des Lexikons der Argumente.
KI-Forschung

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z