Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Wahrheitserhalt: Wahrheitserhalt oder truth maintenance bezieht sich auf ein System oder einen Prozess zur Verwaltung und Aktualisierung von Informationen darüber, was in einer Wissensbasis ist. Sie beinhaltet die Verfolgung der Abhängigkeiten zwischen verschiedenen Aussagen oder Überzeugungen, um die Konsistenz zu gewährleisten, wenn neue Informationen hinzugefügt werden oder Widersprüche auftreten. Siehe auch Kohärenz, Konsistenz, Widersprüche.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

KI-Forschung über Wahrheitserhalt - Lexikon der Argumente

Norvig I 460
Wahrheitserhalt/KI-Forschung/Norvig/Russell: Wir haben gesehen, dass viele der Inferenzen, die von einem Wissensrepräsentationssystem gezogen werden, nur einen Standardstatus haben werden, anstatt absolut sicher zu sein. Unvermeidlich werden sich einige dieser abgeleiteten Fakten als falsch erweisen und angesichts neuer Informationen zurückgezogen werden müssen. Dieser Prozess wird als Belief Revision bezeichnet.
Belief Revision: wird oft mit dem Belief Update kontrastiert, welches auftritt, wenn eine Wissensbasis überarbeitet wird, um eine Veränderung in der Welt und nicht neue Informationen über eine feste Welt widerzuspiegeln. Das Belief Update kombiniert Belief Revision mit Schlussfolgerungen über Zeit und Veränderung; sie steht auch im Zusammenhang mit dem Prozess der Filterung.
Angenommen, eine Wissensbasis KB (knowledge base) enthält einen Satz P - vielleicht eine Standardaussage, die von einem vorwärtsverketteten Algorithmus aufgezeichnet wurde, oder vielleicht nur eine falsche Behauptung - und wir wollen TELL(KB, ¬P) ausführen. Um einen Widerspruch zu vermeiden, müssen wir zuerst RETRACT(KB, P) ausführen.
Norvig I 461
Problem: Zum Beispiel könnte die Implikation P ⇒ Q verwendet worden sein, um Q hinzuzufügen. Die offensichtliche "Lösung" - das Zurückziehen aller aus P abgeleiteten Sätze - scheitert, weil solche Sätze neben P auch andere Rechtfertigungen haben können. Wenn zum Beispiel R und R ⇒ Q ebenfalls in der KB sind, dann muss Q doch nicht entfernt werden. Wahrheitserhaltungssysteme (truth maintenance systems), kurz TMSs, sind so konzipiert, dass sie genau diese Art von Komplikationen bewältigen. Ein einfacher Ansatz zum Wahrheitserhalt besteht darin, die Reihenfolge zu verfolgen, in der Sätze der Wissensbasis mitgeteilt werden, indem man sie von P1 bis Pn nummeriert.
Ein effizienterer Ansatz ist das rechtfertigungsbasierte Wahrheitserhaltungssystem (justification-based truth maintenance system), kurz JTMS. In einem JTMS wird jeder Satz der Wissensdatenbank mit einer Rechtfertigung versehen, die aus dem Set von Sätzen besteht, aus dem er abgeleitet wurde. Das JTMS geht davon aus, dass Sätze, die einmal betrachtet werden, wahrscheinlich wieder berücksichtigt werden, sodass wir nicht einen Satz vollständig aus der Wissensdatenbank löschen, wenn er alle Rechtfertigungen verliert, sondern lediglich den Satz als außerhalb der Wissensdatenbank markieren.
Norvig I 462
Ein annahmebasiertes Wahrheitserhaltungssystem (assumption-based truth maintenance system), kurz ATMS, macht diese Art von Kontextwechsel zwischen hypothetischen Welten besonders effizient. Ein ATMS repräsentiert alle Zustände, die jemals gleichzeitig berücksichtigt wurden. >Wahrheitserhalt.
Norvig I 472
Die Untersuchung von Wahrheitserhaltungssystemen begann mit den Systemen TMS (Doyle, 1979)(1) und RUP (McAllester, 1980)(2), die beide im Wesentlichen JTMSs waren. Forbus und de Kleer (1993)(3) erläutern ausführlich, wie TMSs in KI-Anwendungen eingesetzt werden können. Nayak und Williams (1997)(4) zeigen, wie ein effizientes inkrementelles (incremental) TMS, genannt ITMS, es möglich macht, den Betrieb eines NASA-Satelliten in Echtzeit zu planen.


1. Doyle, J. (1979). A truth maintenance system. AIJ, 12(3), 231–272
2. McAllester,D. A. (1980). An outlook on truth maintenance. Ai memo 551, MIT AI Laboratory
3. Forbus, K. D. and de Kleer, J. (1993). Building Problem Solvers. MIT Press.
4. Nayak, P. and Williams, B. (1997). Fast context switching in real-time propositional reasoning. In
AAAI-97, pp. 50–56


_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
KI-Forschung

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010

Send Link

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z