Lexikon der Argumente


Philosophische Themen und wissenschaftliche Debatten
 
[englisch]

Screenshot Tabelle Begriffes

 

Finden Sie Gegenargumente, in dem Sie NameVs…. oder….VsName eingeben.

Erweiterte Suche:
Suchbegriff 1: Autor oder Begriff Suchbegriff 2:Autor oder Begriff

zusammen mit




Der gesuchte Begriff oder Autor findet sich in folgenden 10 Einträgen:
Begriff/
Autor/Ismus
Autor
Autor
Eintrag
Eintrag
Literatur
Literatur
A priori Kripke I 46
Notwendig/nicht a priori: Bsp Goldbachs Vermutung: Goldbachs Vermutung wird sich als wahr oder falsch herausstellen, und zwar dann mit Notwendigkeit.
I 75f
A priori/nicht notwendig: Bsp die Festlegung der Referenz des Ausdrucks "ein Meter". Hier kann man a priori wissen, dass die Länge dieses Stocks ein Meter beträgt, ohne dass man das als notwendige Wahrheit betrachten würde.
I 127
Unterschied: a priori/notwendig: Kripke: Man könnte das Wesen empirisch entdecken (Bsp Wasser= H20).

Kripke I
S.A. Kripke
Name und Notwendigkeit Frankfurt 1981

Kripke II
Saul A. Kripke
"Speaker’s Reference and Semantic Reference", in: Midwest Studies in Philosophy 2 (1977) 255-276
In
Eigennamen, Ursula Wolf Frankfurt/M. 1993

Kripke III
Saul A. Kripke
Is there a problem with substitutional quantification?
In
Truth and Meaning, G. Evans/J McDowell Oxford 1976

Kripke IV
S. A. Kripke
Outline of a Theory of Truth (1975)
In
Recent Essays on Truth and the Liar Paradox, R. L. Martin (Hg) Oxford/NY 1984
Bezug/Referenz Wright I 27
Deflationismus/Bsp Goldbachsche Vermutung: der Deflationismus anerkennt natürlich, daß über Tarski hinaus einiges mehr gesagt werden muß, auch Bsp "Alles, was er sagte, ist wahr".

WrightCr I
Crispin Wright
Wahrheit und Objektivität Frankfurt 2001

WrightCr II
Crispin Wright
"Language-Mastery and Sorites Paradox"
In
Truth and Meaning, G. Evans/J. McDowell Oxford 1976

WrightGH I
Georg Henrik von Wright
Erklären und Verstehen Hamburg 2008
Bivalenz Dummett II 103
Bivalenz, Prinzip der/PdB/Wahrheit/Dummett: Das Prinzip der Bivalenz setzt den Begriff der Wahrheit schon voraus - und das ist transzendental im Fall von unentscheidbaren Sätzen. - Es geht über unsere Fähigkeit hinaus, zu erkennen, was eine Manifestation wäre.
II 103f
Unentscheidbarkeit/Anti-Realismus/Dummett: (ohne Bivalenz) Die Bedeutungstheorie wird dann nicht mehr rein beschreibend in Bezug auf unsere aktuale Praxis sein.
III (a) 17
Sinn/Frege: Erklärung des Sinns durch Wahrheitsbedingungen - Tractatus: dito: "Unter welchen Umständen"... DummettVsFrege/DummettVsWittgenstein: Dazu muss man aber bereits wissen, was die Aussage dass P wahr ist, bedeutet - Vs: wenn es dann heißt, P ist wahr bedeute dasselbe, wie P zu behaupten.
VsVs: dann muss man bereits wissen, welchen Sinn es hat, P zu behaupten! Das ist aber genau das, was erklärt werden sollte.
VsRedundanztheorie: Wir müssen sie entweder ergänzen (nicht bloß Bedeutung durch Behauptung und umgekehrt erklären), oder die Zweiwertigkeit aufgeben.

III (b) 74
Sinn/Bezug/Bivalenz/Dummett: Zweiwertigkeit: Problem: Nicht jeder Satz hat einen solchen Sinn, dass wir ihm im Prinzip, wenn er wahr ist, als wahr erkennen können (Bsp >Einhörner, >Goldbachsche Vermutung). - Aber Freges Argument hängt gar nicht von Zweiwertigkeit ab.
III (b) 76
Zweiwertigkeit sollte allerdings doch für Elementarsätze gelten: Wenn hier der semantische Wert die Extension ist, muss aber nicht entschieden werden können, ob das Prädikat zutrifft oder nicht - die Anwendung kann vielleicht nicht effektiv entschieden werden, aber das (undefinierte) Prädikat kann verstanden werden, ohne den Wahrheitswert zuteilen zu können. - Daher Unterscheidung von Sinn und semantischem Wert. >Semantischer Wert.

Dummett I
M. Dummett
Ursprünge der analytischen Philosophie Frankfurt 1992

Dummett II
Michael Dummett
"What ist a Theory of Meaning?" (ii)
In
Truth and Meaning, G. Evans/J. McDowell Oxford 1976

Dummett III
M. Dummett
Wahrheit Stuttgart 1982

Dummett III (a)
Michael Dummett
"Truth" in: Proceedings of the Aristotelian Society 59 (1959) pp.141-162
In
Wahrheit, Michael Dummett Stuttgart 1982

Dummett III (b)
Michael Dummett
"Frege’s Distiction between Sense and Reference", in: M. Dummett, Truth and Other Enigmas, London 1978, pp. 116-144
In
Wahrheit, Stuttgart 1982

Dummett III (c)
Michael Dummett
"What is a Theory of Meaning?" in: S. Guttenplan (ed.) Mind and Language, Oxford 1975, pp. 97-138
In
Wahrheit, Michael Dummett Stuttgart 1982

Dummett III (d)
Michael Dummett
"Bringing About the Past" in: Philosophical Review 73 (1964) pp.338-359
In
Wahrheit, Michael Dummett Stuttgart 1982

Dummett III (e)
Michael Dummett
"Can Analytical Philosophy be Systematic, and Ought it to be?" in: Hegel-Studien, Beiheft 17 (1977) S. 305-326
In
Wahrheit, Michael Dummett Stuttgart 1982
Deflationismus Wright I 26 ff
Deflationismus: richtet sich gegen die "Aufblähung" durch Schaffung mehrerer Wahrheitsprädikate: berechtigte Behauptbarkeit neben Wahrheit.(>Redundanztheorie).These Wahrheit keine Eigenschaft, lediglich Mittel der Zitattilgung.
I 46
Deflation: Ramsey war hier der erste. (In jüngster Zeit: Horwich: "Minimalismus").: Wahrheit assertorisch(behauptend, aber nicht durch Annahme metaphysischer Gegenstände oder Sachverhalte gestützt. - Tarskis Zitattilgung reicht aus. Wahrheit keine substantielle Eigenschaft von Sätzen. Wahre Sätze wie "Schnee ist weiß" und "Gras ist grün" haben nichts gemeinsam!
Wichtig: man kann das Zitattiglungsschema benutzen, ohne den Gehalt zu verstehen! Man kann sich dem Prädikat "wahr" "annähern". (>Goldbachsche Vermutung).
D These : der Gehalt des Wahrheitsprädikats ist der gleiche wie der Anspruch, den sein assertorischer Gebrauch erhebt.
Deflationismus/Bsp Goldbachsche Vermutung: der Deflationismus anerkennt natürlich, dass über Tarski hinaus einiges mehr gesagt werden mu, auch Bsp "Alles, was er sagte, ist wahr" .
VsD: keine Theorie, sondern ein "Potpourri". Es gibt gar keine eindeutige These.
I 47 f
Inflationismus: a) "wahr" ist bloß Mittel der Bekräftigung, drückt nur Einstellungen gegenüber Sätzen aus (Rorty?). Formuliert keine Norm. b) Das DS (Zitattilgungsschema) enthält eine (fast) vollständige Erklärung der Bedeutung des Wortes. ("wahr").f
I 293
Deflationismus: jeder bedeutsame Satz (also ein Satz mit Wahrheitsbedingung) eignet sich für deflationäre Wahrheit oder Falschheit. Wenn aber Wahrheit nicht deflationär ist, muss sich "wahr" auf eine gehaltvolle Eigenschaft von Aussagen beziehen.
(Deflationismus: Wahrheit keine Eigenschaft).
I 27
Deflationismus/Wright: Wahrheit ist keine substantielle Eigenschaft. - >Zitattilgung reicht aus - "Schnee ist weiß" und "Gras ist grün" haben nichts gemeinsam - Gehalt des W-Prädikats ist der gleiche, wie der Anspruch, den sein behauptender Gebrauch erhebt - These das W-Prädikat ist präskriptiv und deskriptiv normativ
I 33ff
Deflationismus: die einzigen Normen der Wahrheit sind die der berechtigten Behauptbarkeit (Assertibilität).
I 51
WrightVsDeflation: "minimalistisch", "Minimalismus"
I 97
Vs (klassischer) Deflationismus: keine Norm des W-Prädikats kann von sich aus festlegen, dass es sich von Behauptbarkeit unterscheidet, weil die normative Kraft von "wahr" und behauptbar" zwar zusammenfällt, aber extensional divergieren kann - dann kann das Zitattilgungsschema keine zentrale Rolle spielen - daher können Aussagen in einem bestimmten Diskurs wahr sein, ohne superassertibel zu sein. - Dann müssen Wahrmacher von unseren Maßstäben der Erkennbarkeit unabhängig sein. (>Realismus/Wright).
Rorty I 38 ff
Zitattilgung/Wright: der Deflationist meint, durch das Zitattilgungs-Prinzip sei der Inhalt des Wahrheitsprädikats vollständig festgelegt.

WrightCr I
Crispin Wright
Wahrheit und Objektivität Frankfurt 2001

WrightCr II
Crispin Wright
"Language-Mastery and Sorites Paradox"
In
Truth and Meaning, G. Evans/J. McDowell Oxford 1976

WrightGH I
Georg Henrik von Wright
Erklären und Verstehen Hamburg 2008

Rorty I
Richard Rorty
Der Spiegel der Natur Frankfurt 1997

Rorty II
Richard Rorty
Philosophie & die Zukunft Frankfurt 2000

Rorty II (b)
Richard Rorty
"Habermas, Derrida and the Functions of Philosophy", in: R. Rorty, Truth and Progress. Philosophical Papers III, Cambridge/MA 1998
In
Philosophie & die Zukunft, Frankfurt/M. 2000

Rorty II (c)
Richard Rorty
Analytic and Conversational Philosophy Conference fee "Philosophy and the other hgumanities", Stanford Humanities Center 1998
In
Philosophie & die Zukunft, Frankfurt/M. 2000

Rorty II (d)
Richard Rorty
Justice as a Larger Loyalty, in: Ronald Bontekoe/Marietta Stepanians (eds.) Justice and Democracy. Cross-cultural Perspectives, University of Hawaii 1997
In
Philosophie & die Zukunft, Frankfurt/M. 2000

Rorty II (e)
Richard Rorty
Spinoza, Pragmatismus und die Liebe zur Weisheit, Revised Spinoza Lecture April 1997, University of Amsterdam
In
Philosophie & die Zukunft, Frankfurt/M. 2000

Rorty II (f)
Richard Rorty
"Sein, das verstanden werden kann, ist Sprache", keynote lecture for Gadamer’ s 100th birthday, University of Heidelberg
In
Philosophie & die Zukunft, Frankfurt/M. 2000

Rorty II (g)
Richard Rorty
"Wild Orchids and Trotzky", in: Wild Orchids and Trotzky: Messages form American Universities ed. Mark Edmundson, New York 1993
In
Philosophie & die Zukunft, Frankfurt/M. 2000

Rorty III
Richard Rorty
Kontingenz, Ironie und Solidarität Frankfurt 1992

Rorty IV (a)
Richard Rorty
"is Philosophy a Natural Kind?", in: R. Rorty, Objectivity, Relativism, and Truth. Philosophical Papers Vol. I, Cambridge/Ma 1991, pp. 46-62
In
Eine Kultur ohne Zentrum, Stuttgart 1993

Rorty IV (b)
Richard Rorty
"Non-Reductive Physicalism" in: R. Rorty, Objectivity, Relativism, and Truth. Philosophical Papers Vol. I, Cambridge/Ma 1991, pp. 113-125
In
Eine Kultur ohne Zentrum, Stuttgart 1993

Rorty IV (c)
Richard Rorty
"Heidegger, Kundera and Dickens" in: R. Rorty, Essays on Heidegger and Others. Philosophical Papers Vol. 2, Cambridge/MA 1991, pp. 66-82
In
Eine Kultur ohne Zentrum, Stuttgart 1993

Rorty IV (d)
Richard Rorty
"Deconstruction and Circumvention" in: R. Rorty, Essays on Heidegger and Others. Philosophical Papers Vol. 2, Cambridge/MA 1991, pp. 85-106
In
Eine Kultur ohne Zentrum, Stuttgart 1993

Rorty V (a)
R. Rorty
"Solidarity of Objectivity", Howison Lecture, University of California, Berkeley, January 1983
In
Solidarität oder Objektivität?, Stuttgart 1998

Rorty V (b)
Richard Rorty
"Freud and Moral Reflection", Edith Weigert Lecture, Forum on Psychiatry and the Humanities, Washington School of Psychiatry, Oct. 19th 1984
In
Solidarität oder Objektivität?, Stuttgart 1988

Rorty V (c)
Richard Rorty
The Priority of Democracy to Philosophy, in: John P. Reeder & Gene Outka (eds.), Prospects for a Common Morality. Princeton University Press. pp. 254-278 (1992)
In
Solidarität oder Objektivität?, Stuttgart 1988

Rorty VI
Richard Rorty
Wahrheit und Fortschritt Frankfurt 2000
Disjunktion Logik-Texte Re III 79
Disjunktion/Tautologie/Read: In dem einen Sinn folgt »A oder B« aus A allein. - Das ist dann aber nicht äquivalent mit »wenn ~A, dann B«. >Logische Konstanten.
Re III 262
Unentscheidbarkeit: Nicht konstruktiv: Bsp der Beweis, dass es zwei irrationale Zahlen a und b gibt, so dass a hoch b rational ist.(die Disjunktion von Alternativen ist hier konstruktiv inakzeptabel. Wir haben keine Konstruktion, durch die wir bestimmen können, ob Wurzel 2 hoch Wurzel 2 rational ist, oder nicht.)
Das Ausgeschlossene Dritte ist deshalb intuitionistisch und keine substanzielle Behauptung.

Goldbachsche Vermutung: jede gerade Zahl größer zwei soll die Summe zweier Primzahlen sein. Nicht entscheidbar. Wir dürfen aber nicht behaupten dass sie entweder wahr ist oder nicht.
Satz vom Ausgeschlossenen Dritten/SaD/Konstruktivismus/Read: Konstruktivisten präsentieren oft sogenannte »schwache Gegenbeispiele« gegen das Ausgeschlossene Dritte.
Wenn a eine reelle Zahl ist, ist »a= 0« nicht entscheidbar. Folglich kann der Konstruktivist nicht behaupten, dass alle reellen Zahlen entweder identisch mit Null sind oder nicht. (Das ist aber mehr eine Frage der Darstellung). >Ausgeschlossenes Drittes.

Texte zur Logik
Me I Albert Menne Folgerichtig Denken Darmstadt 1988
HH II Hoyningen-Huene Formale Logik, Stuttgart 1998
Re III Stephen Read Philosophie der Logik Hamburg 1997
Sal IV Wesley C. Salmon Logik Stuttgart 1983
Sai V R.M.Sainsbury Paradoxien Stuttgart 2001
Konstruktivismus Waismann Friedrich Waismann Suchen und Finden in der Mathematik 1938 in Kursbuch 8 Mathematik 1967
76
Konstruktion/Suchen/Mathematik/Waismann: Bsp Falsche Analogie: wir suchen einen Menschen mit schwarzen Haaren und dem und dem Aussehen. Im dem Fall des Menschen wäre es möglich, die Beschreibung mehr und mehr zu vervollständigen, ohne dass das auf ein finden hinausliefe. Ich hätte den Menschen dann noch nicht.
Bei der Konstruktion ist es so: solange die Konstruktion nicht vollständig beschrieben ist, kann ich nicht sicher sein, ob das, was ich suche, logisch einwandfrei ist, sich also überhaupt beschreiben lässt.
Die unvollkommene Beschreibung lässt gerade das aus, was notwendig wäre, damit etwas gesucht werden könnte. Sie ist also nur eine Scheinbeschreibung des Gesuchten.
Bsp Beweis des Goldbachschen Satzes. S. 76. Bsp Der Induktionsbeweis ist neu entdeckt worden und nicht nur etwa eine Kombination einfacherer Schlussformen.
77
Inwiefern ist das Gesuchte im Vorgang des Suchens enthalten?
Bsp Nordpol: jemand zeigt einen Punkt auf dem Plan, das ist die Angabe des Zieles.
Bsp Beim Suchen des Fünfecks mit Zirkel und Lineal ist die Frage: ermöglicht der Begriff das suchen oder nicht?
Im Falle der Mathematik ermöglicht die Angabe der Konstruktion das Suchen nicht! Wir können sogar zwei verschiedene Begriffe der Konstruktion heranziehen (einen laienhaften des Schülers und einen mathematischen).
Der Raum ist in Wirklichkeit nur scheinbar der, der das Gesuchte enthält.

Waismann I
F. Waismann
Einführung in das mathematische Denken Darmstadt 1996

Waismann II
F. Waismann
Logik, Sprache, Philosophie Stuttgart 1976
Notwendigkeit Kripke I 46
Notwendig/nicht a priori: Bsp Goldbachs Vermutung: Goldbachs Vermutung wird sich dann mit Notwendigkeit herausstellen. Ich würde jedoch vorschlagen, dass es keine notwendige Tatsache ist, das Aristoteles die logische Summe der Eigenschaften besitzt, die ihm gewöhnlich zugeschrieben werden. Kripke (VsTradition): Molekülbewegung ist notwendig mit Wärme identisch! Wir haben es entdeckt, aber es hätte nicht anders sein können.
I 116
Physikalische Wahrheiten sind notwendig: Bsp Wärme = Molekülbewegung - aber dies ist keine Analogie zu Geist-Gehirn-Identitäten.
I 116
Def Notwendigkeit/Kripke: Notwendig sind solche Identitätsbehauptungen, in denen beide Ausdrücke starr designieren. Bsp "Wasser ist H20". Wasser hätte nicht etwas anderes sein können. Es ist für Wasser wesentlich, dass es der Stoff mit der atomaren Struktur ist. Wo es kein H20 gibt, gibt es kein Wasser. ---
Frank I 121f
Notwendig/Kripke: Notwendig sind Verbindungen, die mit zwei oder mehr starren Bezeichnungsausdrücken gebildet werden, Bsp dass Schmerz sich so anfühlt, wie es sich für uns anfühlt. Tradition: Der Gehirnzustand könnte auch ohne Schmerz auftreten.
I 122
Notwendig/wesentliche Eigenschaften/KripkeVsTradition: Die Art des Herausgreifens beim Schmerz (durch Erlebnis) und beim Gehirnzustand (Konfiguration von Molekülen) ist in beiden Fällen essentiell und nicht akzidentiell. Der Gehirnzustand könnte durch kontingente Tatsachen herausgegriffen werden, aber nicht der Schmerz. ---
Kripke I 144
Notwendige Eigenschaften müssen nicht zur Bedeutung gehören! (Das Periodensystem wurde später entdeckt). Wissenschaftliche Entdeckungen ändern nicht die Bedeutung! Bedeutung erwächst nicht aus Eigenschaften!
---
Stalnaker I 188
Notwendig a posteriori/Kripke/Stalnaker: Klassische Fälle sind z.B. Aussagen, die Namen enthalten Bsp Hesperus = Phosphorus (s.u.: Sie wurden durch verschiedene Kausalketten festgelegt). Aussagen über natürliche Arten: Bsp Das Atomgewicht von Gold ist 79.

Kripke I
S.A. Kripke
Name und Notwendigkeit Frankfurt 1981

Kripke II
Saul A. Kripke
"Speaker’s Reference and Semantic Reference", in: Midwest Studies in Philosophy 2 (1977) 255-276
In
Eigennamen, Ursula Wolf Frankfurt/M. 1993

Kripke III
Saul A. Kripke
Is there a problem with substitutional quantification?
In
Truth and Meaning, G. Evans/J McDowell Oxford 1976

Kripke IV
S. A. Kripke
Outline of a Theory of Truth (1975)
In
Recent Essays on Truth and the Liar Paradox, R. L. Martin (Hg) Oxford/NY 1984

Fra I
M. Frank (Hrsg.)
Analytische Theorien des Selbstbewusstseins Frankfurt 1994

Stalnaker I
R. Stalnaker
Ways a World may be Oxford New York 2003
Redundanztheorie Brandom I 433f
Redundanztheorie/Brandom: VsPragmatismus: dieser hat nicht erkannt, dass die Signifikanz der entsprechenden Behauptungen die gleiche sein muss - VsRamsey: Bsp "Die Goldbachsche Vermutung" ist nicht äquivalent mit "Die Goldbachsche Vermutung ist wahr" - Lösung: > Zitattilgung/Brandom, > Menge von Sätzen.

Bra I
R. Brandom
Expressive Vernunft Frankfurt 2000

Bra II
R. Brandom
Begründen und Begreifen Frankfurt 2001
Sinn Frege Dummett III 56ff
Sinn/Frege: Sinn hat zwei Argumente. 1. Der Satz ist die kleinste Einheit. 2. Wahrheit spielt die entscheidende Rolle bei der Erklärung der Bedeutung. Sinn: Der Sinn ist Bestandteil der Bedeutung und relevant für Wahrheit oder Falschheit. Die Bedeutung eines Satzes als solche bestimmt nicht die Wahrheit. Der Sinn bestimmt also nur die Wahrheitsbedingungen. Die Wahrheit hängt auch von der Beschaffenheit der Welt ab. Wenn der Sinn den semantischen Wert bestimmt, ist der Beitrag der Welt bereits vorausgesetzt.
Dummett III 64
Sinn/Bezug/Frege: 1. Das Argument (Ein Satz ist die kleinste Sinneinheit) hat zwei Prämissen: a) alles prädikative Wissen beruht auf propositionalem Wissen. b) Für bestimmtes prädikatives Wissen gibt es mehr als nur eine Proposition. Daher ist keine bloße Kenntnis des Bezugs möglich.
Dummett III 74
Sinn/Dummett: Sinn entsteht nicht nur durch eine Verifikationsmethode, sondern durch Begreifen, welche Umstände verwirklicht sein müssen (Bsp Goldbachsche Vermutung). Sinn/Bezug/Bivalenz/Dummett: Zweiwertigkeit: Problem: Nicht jeder Satz hat einen solchen Sinn, dass wir ihm im Prinzip, wenn er wahr ist, als wahr erkennen können (Einhorn, Goldbachsche Vermutung), aber Freges Argument hängt gar nicht von Zweiwertigkeit ab.
Dummett III 76
Zweiwertigkeit gilt allerdings doch für Elementarsätze: Wenn hier der semantische Wert die Extension ist, muss aber nicht entschieden werden können, ob das Prädikat zutrifft oder nicht. Die Anwendung kann vielleicht nicht effektiv entschieden werden, aber das (undefinierte) Prädikat kann verstanden werden, ohne den semantischen Wert (hier: Wahrheitswert) zuteilen zu können. Daher gibt es eine Unterscheidung von Sinn und semantischem Wert.
Dummett III 133
Sinn/Frege/Dummett: Der Sinn wird durch die Gegebenheitsweise (GW) konstituiert, ist aber nicht mit ihr identisch.
Frege V 100f
Bedeutung/Sinn/Frege/Husted: Wenn beide gleich wären, könnte ein Satz nichts mitteilen, was jeder, der den Namen versteht, nicht bereits wüsste. Die Bedeutung eines Namens: ist der Gegenstand. Dass ein Name für einen Gegenstand steht ist eine Folge, nicht Teil des Umstands, dass er einen Sinn hat.
V 103
Frege: Der Sinn des Satzes ist gleich der Wahrheitsbedingung: was müsste der Fall sein, wenn der Satz wahr wäre? > Sinn/Dummett, > Verstehen/Wittgenstein. Verstehen: wissen, was der Fall sein muss.

F I
G. Frege
Die Grundlagen der Arithmetik Stuttgart 1987

F II
G. Frege
Funktion, Begriff, Bedeutung Göttingen 1994

F IV
G. Frege
Logische Untersuchungen Göttingen 1993

Dummett I
M. Dummett
Ursprünge der analytischen Philosophie Frankfurt 1992

Dummett II
Michael Dummett
"What ist a Theory of Meaning?" (ii)
In
Truth and Meaning, G. Evans/J. McDowell Oxford 1976

Dummett III
M. Dummett
Wahrheit Stuttgart 1982

Dummett III (a)
Michael Dummett
"Truth" in: Proceedings of the Aristotelian Society 59 (1959) pp.141-162
In
Wahrheit, Michael Dummett Stuttgart 1982

Dummett III (b)
Michael Dummett
"Frege’s Distiction between Sense and Reference", in: M. Dummett, Truth and Other Enigmas, London 1978, pp. 116-144
In
Wahrheit, Stuttgart 1982

Dummett III (c)
Michael Dummett
"What is a Theory of Meaning?" in: S. Guttenplan (ed.) Mind and Language, Oxford 1975, pp. 97-138
In
Wahrheit, Michael Dummett Stuttgart 1982

Dummett III (d)
Michael Dummett
"Bringing About the Past" in: Philosophical Review 73 (1964) pp.338-359
In
Wahrheit, Michael Dummett Stuttgart 1982

Dummett III (e)
Michael Dummett
"Can Analytical Philosophy be Systematic, and Ought it to be?" in: Hegel-Studien, Beiheft 17 (1977) S. 305-326
In
Wahrheit, Michael Dummett Stuttgart 1982
Vorwissen Norvig Norvig I 777
Vorwissen/KI-Forschung/Norvig/Russell: Um die Rolle des Vorwissens zu verstehen, müssen wir über die logischen Beziehungen zwischen Hypothesen, Beispielbeschreibungen und Klassifikationen sprechen. Wir nehmen an, dass die Beschreibungen die Verbindung aller Beispielbeschreibungen im Trainingsset bezeichnen und dass die Klassifikationen die Verbindung aller Beispielklassifikationen bezeichnen. Dann muss eine Hypothese, die "die Beobachtungen erklärt", die folgende Eigenschaft erfüllen (denken Sie daran, dass |= "logisch bedingt" bedeutet):
Hypothese ∧ Beschreibungen|= Klassifikationen.

Zwangsbedingung (engl. entailment constraint): Wir nennen diese Art von Beziehung eine Zwangsbedingung, bei der die Hypothese das "Unbekannte" ist. Rein induktives Lernen bedeutet die Lösung dieser Beschränkung, wobei die Hypothese aus einem vordefinierten Hypothesenraum entnommen wird. >Hypothesen/KI-Forschung.
Software-Agenten/Wissen/Lernen/Norvig: Der moderne Ansatz besteht darin, Software-Agenten zu entwerfen, die bereits etwas wissen und versuchen, noch etwas dazu zu lernen. Ein autonomer Lernagent, der Hintergrundwissen verwendet, muss sich das Hintergrundwissen in erster Linie irgendwie beschaffen (...). Diese Methode muss selbst ein Lernprozess sein. Die Lebensgeschichte des Software-Agenten ist daher durch eine kumulative oder inkrementelle Entwicklung gekennzeichnet.
Norvig I 778
Lernen mit Hintergrundwissen: ermöglicht ein viel schnelleres Lernen, als man es von einem reinen Einführungsprogramm erwarten würde. Erklärungsbasiertes Lernen/EBL: EBL erfüllt die folgenden Zwangsbedingungen (entailment constraints):

Hypothese ∧ Beschreibungen |= Klassifikationen
Hintergrund |= Hypothese.

Norvig I 779
(...) man dachte zunächst, es sei möglich von Beispielen zu lernen. Da es aber voraussetzt, dass das Hintergrundwissen ausreicht, um die Hypothese zu erklären, was wiederum die Beobachtungen erklärt, lernt der Software-Agent eigentlich nichts sachlich Neues aus dem Beispiel. Der Software-Agent hätte das Beispiel aus dem ableiten können, was er bereits wusste, auch wenn dies einen unangemessen hohen Rechenaufwand erfordert hätte. EBL wird heute als eine Methode zur Umwandlung von Theorien der ersten Prinzipien in nützliches, zweckgebundenes Wissen angesehen. Relevanz/Beobachtungen/RBL: Der Vorwissenshintergrund betrifft die Relevanz einer Reihe von Merkmalen für das Zielprädikat. Dieses Wissen, zusammen mit den Beobachtungen, erlaubt es dem Software-Agenten, eine neue, allgemeine Regel abzuleiten, die die Beobachtungen erklärt:

Hypothese ∧ Beschreibungen |= Klassifikationen ,
Hintergrund ∧ Beschreibungen ∧ Klassifikationen |= Hypothese.

Wir nennen diese Art von Generalisierung relevanzbasiertes Lernen oder RBL. (...) Das RBL macht zwar vom Inhalt der Beobachtungen Gebrauch, stellt aber keine Hypothesen auf, die über den logischen Inhalt des Hintergrundwissens und der Beobachtungen hinausgehen. Es handelt sich um eine deduktive Form des Lernens und kann für sich allein nicht die Schaffung von neuem Wissen von Grund auf begründen.
Zwangsbedingung (entailment constraint):

Hintergrund ∧ Hypothese ∧ Beschreibungen |= Klassifikationen.

Das heißt, das Hintergrundwissen und die neue Hypothese verbinden sich zur Erklärung der Beispiele.
Wissensbasiertes induktives Lernen/KBIL-Algorithmen: Algorithmen, die [die Zwangsbedingung] erfüllen, werden als wissensbasierte Algorithmen für induktives Lernen oder als KBIL-Algorithmen bezeichnet. KBIL-Algorithmen (...) wurden hauptsächlich im Bereich der induktiven Logikprogrammierung (ILP) untersucht.
Norvig I 780
Erklärungsbasiertes Lernen (EBL): Die Grundidee von Memo-Funktionen besteht darin, eine Datenbank mit Input-Output-Paaren anzuhäufen; wenn die Funktion aufgerufen wird, überprüft sie zunächst die Datenbank, um zu sehen, ob es vermeiden werden kann, das Problem von vorne aufzurollen. Erklärungsbasiertes Lernen geht viel weiter, indem allgemeine Regeln erstellt werden, die eine ganze Klasse von Fällen abdecken.
Norvig I 781
Allgemeine Regeln: Die Grundidee hinter EBL besteht darin, zunächst eine Erklärung der Beobachtung mit Hilfe von Vorkenntnissen zu konstruieren und dann eine Definition der Klasse von Fällen zu erstellen, für die dieselbe Erklärungsstruktur verwendet werden kann. Diese Definition bildet die Grundlage für eine Regel, die alle Fälle der Klasse abdeckt. Erklärung: Die "Erklärung" kann ein logischer Beweis sein, aber ganz allgemein kann es sich um einen beliebigen Argumentations- oder Problemlösungsprozess handeln, dessen Schritte gut definiert sind. Der Schlüssel liegt darin, in der Lage zu sein, die notwendigen Voraussetzungen dafür zu erkennen, dass dieselben Schritte auf einen anderen Fall zutreffen.
Norvig I 782
EBL: 1. Anhand eines Beispiels unter Verwendung des verfügbaren Hintergrundwissens einen Beweis konstruieren, dass das Zielprädikat auf das Beispiel zutrifft.
Norvig I 783
2. Parallel dazu einen verallgemeinerten Beweisbaum für das variabilisierte Ziel konstruieren unter Verwendung derselben Inferenzschritte wie im ursprünglichen Beweis. 3. Konstruktion einer neuen Regel, deren linke Seite aus den Blättern des Beweisbaums besteht und deren rechte Seite das variabilisierte Ziel ist (nach Anwendung der notwendigen Bindungen aus dem generalisierten Beweis).
4. Fallenlassen aller Bedingungen von der linken Seite, die unabhängig von den Werten der Variablen im Ziel wahr sind.
Norvig I 794
Inverse Auflösung: Die inverse Auflösung basiert auf der Beobachtung, dass wenn die Beispielklassifikationen aus: Hintergrund ∧ Hypothese ∧ Beschreibungen folgt, dann muss man diese Tatsache durch Auflösung beweisen können (weil die Auflösung vollständig ist). Wenn wir den Beweis "rückwärts laufen lassen können", dann können wir eine Hypothese finden, so dass der Beweis angenommen werden kann.
Norvig I 795
Inverse Entailment: Die Idee ist, die Zwangsbedingung (entailment constraint) zu ändern
Hintergrund ∧ Hypothese ∧ Beschreibungen |= Klassifikationen

zur logisch äquivalenten Form

Hintergrund ∧ Beschreibungen ∧ ¬Klassifikationen |= ¬Hypothese.

Norvig I 796
Ein inverses Auflösungsverfahren, das eine vollständige Auflösungsstrategie invertiert, ist im Prinzip ein vollständiger Algorithmus zum Lernen von Theorien erster Ordnung. Das heißt, wenn eine unbekannte Hypothese eine Reihe von Beispielen erzeugt, dann kann ein inverses Auflösungsverfahren aus den Beispielen eine Hypothese erzeugen. Diese Beobachtung legt eine interessante Möglichkeit nahe: Nehmen wir an, dass die verfügbaren Beispiele eine Vielzahl von Flugbahnen fallender Körper enthalten. Wäre ein inverses Auflösungsprogramm theoretisch in der Lage, auf das Gravitationsgesetz zu schließen? Die Antwort ist eindeutig ja, denn das Gravitationsgesetz erlaubt es, die Beispiele zu erklären, wenn ein geeigneter mathematischer Hintergrund gegeben ist.
Norvig I 798
Literatur: Der Ansatz der aktuell besten Hypothese (engl. current best hypothesis) ist eine alte Idee der Philosophie (Mill, 1843)(1). Frühe Arbeiten in der kognitiven Psychologie legten auch nahe, dass es sich um eine natürliche Form des Konzeptlernens beim Menschen handelt (Bruner et al., 1957)(2). In der KI-Forschung ist der Ansatz am engsten mit der Arbeit von Patrick Winston verbunden, dessen Doktorarbeit (Winston, 1970)(3) das Problem des Lernens von Beschreibungen komplexer Objekte behandelte. Versionsraum (engl. version space): Die Versionsraummethode (Mitchell, 1977(4), 1982(5)) verfolgt einen anderen Ansatz, indem sie die Menge aller konsistenten Hypothesen beibehält und diese, die sich als inkonsistent mit neuen Beispielen erwiesen haben, eliminiert. Der Ansatz wurde im Meta-DENDRAL
Norvig I 799
Expertensystem für Chemie (Buchanan und Mitchell, 1978)(6) verwendet und später in Mitchells (1983)(7) LEX-System, das lernt, Kalkül-Probleme zu lösen. Ein dritter einflussreicher Faden wurde durch die Arbeit von Michalski und Kollegen an der AQ-Reihe von Algorithmen gebildet, die Sets logischer Regeln lernte (Michalski, 1969(8); Michalski et al., 1986(9)). EBL (erklärungsbasiertes Lernen): EBL hatte seine Wurzeln in den vom STRIPS-Planer verwendeten Techniken (Fikes et al., 1972)(10). Wurde ein Plan konstruiert, so wurde auch eine verallgemeinerte Version davon in einer Planbibliothek gespeichert und bei der späteren Planung als Makro-Operator verwendet. Ähnliche Ideen tauchten in der ACT*-Architektur von Anderson unter der Überschrift der Wissenszusammenstellung (Anderson, 1983)(11) und in der SOAR-Architektur als Chunking (Laird et al., 1986)(12) auf. Der Erwerb von Schemata (DeJong, 1981)(13), die analytische Verallgemeinerung (Mitchell, 1982)(5) und die constraint-basierte Verallgemeinerung (Minton, 1984)(14) waren unmittelbare Vorläufer des rasch wachsenden Interesses an EBL, angeregt durch die Arbeiten von Mitchell et al. (1986)(15) und DeJong und Mooney (1986)(16). Hirsh (1987)(17) führte den im Text beschriebenen EBL-Algorithmus ein und zeigte, wie er direkt in ein logisches Programmiersystem integriert werden konnte. Van Harmelen und Bundy (1988)(18) erklären EBL als eine Variante der in Programmanalysesystemen verwendeten Teilauswertungsmethode (Jones et al., 1993)(19).
VsEBL (VsErklärungsbasiertes Lernen): Die anfängliche Begeisterung für EBL wurde durch Mintons Feststellung (1988)(20) gemildert, dass EBL ein Programm erheblich verlangsamen könnte ohne umfangreiche zusätzliche Arbeit. Formale probabilistische Analysen des erwarteten Gewinns durch EBL finden sich in Greiner (1989)(21) und Subramanian und Feldman (1990)(22). Ein hervorragender Überblick über die frühen Arbeiten zum EBL findet sich in Dietterich (1990)(23).
Relevanz: Relevanzinformationen in Form von funktionalen Abhängigkeiten wurden zuerst in der Datenbankgemeinde entwickelt, wo sie zur Strukturierung großer Mengen von Attributen in überschaubare Teilmengen verwendet werden. Funktionale Abhängigkeiten wurden von Carbonell und Collins (1973)(24) zur analogen Argumentation verwendet und von Davies und Russell, 1987(26)) wiederentdeckt und einer vollständigen logischen Analyse unterzogen.
Vorwissen: Ihre Rolle als Vorwissen beim induktiven Lernen wurde von Russell und Grosof (1987)(27) untersucht. Die Äquivalenz von Bestimmungen zu einem Hypothesenraum mit eingeschränktem Vokabular wurde von Russell (1988)(28) nachgewiesen.
Lernen: Lernalgorithmen für Bestimmungen und die mit RBDTL erzielte verbesserte Leistung wurden erstmals dank Almuallim und Dietterich (1991)(29) im FOCUS-Algorithmus gezeigt. Tadepalli (1993)(30) beschreibt einen sehr ausgefeilten Algorithmus für das Lernen mit Bestimmungen, der große Verbesserungen in der Gewinngeschwindigkeit gezeigt hat.
Inverse Deduktion: Die Idee, dass induktives Lernen durch umgekehrte Deduktion durchgeführt werden kann, lässt sich auf W. S. Jevons (1874)(31) zurückführen (...).
Computergestützte Untersuchungen begannen mit der bemerkenswerten Doktorarbeit von
Norvig I 800
Gordon Plotkin (1971)(32) in Edinburgh. Obwohl Plotkin viele der Theoreme und Methoden entwickelte, die heute in der ILP verwendet werden, wurde er durch einige unentscheidbare Ergebnisse für bestimmte Unterprobleme bei der Induktion entmutigt. MIS (Shapiro, 1981)(33) führte das Problem des Lernens von Logikprogrammen wieder ein, dies wurde aber hauptsächlich als ein Beitrag zur Theorie der automatisierten Fehlerbehebung (engl. debugging) angesehen. Induktion/Regeln: Arbeiten zur Regelinduktion, wie die Systeme ID3 (Quinlan, 1986)(34) und CN2 (Clark und Niblett, 1989)(35), führten zu FOIL (Quinlan, 1990)(36), das zum ersten Mal die praktische Induktion von relationalen Regeln ermöglichte.
Relationales Lernen: Das Gebiet des relationalen Lernens wurde von Muggleton und Buntine (1988)(37) neu belebt, deren CIGOL-Programm eine leicht unvollständige Version der inversen Auflösung enthielt und in der Lage war, neue Prädikate zu erzeugen. Die Methode der inversen Auflösung erscheint auch in (Russell, 1986)(38), wobei ein einfacher Algorithmus in einer Fußnote angegeben wird. Das nächste große System war GOLEM (Muggleton und Feng, 1990)(39), das einen Abdeckalgorithmus verwendet, der auf Plotkins Konzept der relativ geringsten Verallgemeinerung basiert. ITOU (Rouveirol und Puget, 1989)(40) und CLINT (De Raedt, 1992)(41) waren weitere Systeme aus dieser Zeit.
Natürliche Sprache: In jüngerer Zeit hat PROGOL (Muggleton, 1995)(42) einen hybriden (Top-Down- und Bottom-Up) Ansatz für das inverse Entailment verfolgt und wurde auf eine Reihe praktischer Probleme angewandt, insbesondere in der Biologie und der Verarbeitung natürlicher Sprache.
Ungewissheit: Muggleton (2000)(43) beschreibt eine Erweiterung von PROGOL zur Behandlung von Unsicherheit in Form von stochastischen Logikprogrammen.
Induktive Logik-Programmierung/ILP: Eine formale Analyse der ILP-Methoden erscheint in Muggleton (1991)(44), eine große Sammlung von Artikeln in Muggleton (1992)(45) und eine Sammlung von Techniken und Anwendungen im Buch von Lavrauc und Duzeroski (1994)(46). Page und Srinivasan (2002)(47) geben einen neueren Überblick über die Geschichte des Fachgebiets und die Herausforderungen für die Zukunft. Frühe Komplexitätsergebnisse von Haussler (1989) legen nahe, dass das Lernen von Sätzen erster Ordnung schwer lösbar ist. Mit einem besseren Verständnis der Bedeutung syntaktischer Einschränkungen bei Sätzen (hier engl. clauses) wurden jedoch selbst bei Sätzen mit Rekursion positive Ergebnisse erzielt (Duzeroski et al., 1992)(48). Ergebnisse zur Lernfähigkeit der ILP werden von Kietz und Duzeroski (1994)(49) und Cohen und Page (1995)(50) untersucht.
Entdeckungssysteme/VsILP: Obwohl ILP jetzt der vorherrschende Ansatz für konstruktive Induktion zu sein scheint, war es nicht der einzige Ansatz, der verfolgt wurde. Sogenannte Entdeckungssysteme zielen darauf ab, den Prozess der wissenschaftlichen Entdeckung neuer Konzepte zu modellieren, in der Regel durch eine direkte Suche im Raum der Begriffsdefinitionen. Doug Lenats Automatisierter Mathematiker, oder AM (Davis und Lenat, 1982)(51), verwendete Entdeckungs-Heuristiken, die als Expertensystemregeln ausgedrückt wurden, um seine Suche nach Konzepten und Vermutungen in der elementaren Zahlentheorie zu leiten. Im Gegensatz zu den meisten Systemen, die für mathematisches Denken konzipiert waren, fehlte AM ein Konzept des Beweises und konnte nur Vermutungen anstellen. Es entdeckte Goldbachs Vermutung und den einzigartigen Satz der Primfaktorzerlegung wieder.
Die Architektur von AM wurde im EURISKO-System verallgemeinert (Lenat, 1983)(52), indem ein Mechanismus hinzugefügt wurde, der in der Lage ist, die eigenen Entdeckungs-Heuristiken des Systems neu zu schreiben. EURISKO wurde in einer Reihe von anderen Bereichen als der mathematischen Entdeckung angewandt, wenn auch mit weniger Erfolg als in AM. Die Methodik von AM und EURISKO ist umstritten (Ritchie und Hanna, 1984(53); Lenat und Brown, 1984(54)).



1. Mill, J. S. (1843). A System of Logic, Ratiocinative and Inductive: Being a Connected View of the Principles of Evidence, and Methods of Scientific Investigation. J.W. Parker, London.
2. Bruner, J. S., Goodnow, J. J., and Austin, G. A. (1957). A Study of Thinking. Wiley.
3. Winston, P. H. (1970). Learning structural descriptions from examples. Technical report MAC-TR-76,
Department of Electrical Engineering and Computer Science, Massachusetts Institute of Technology.
4. Mitchell, T.M. (1977). Version spaces: A candidate elimination approach to rule learning. In IJCAI-77,
pp. 305–310.
5. Mitchell, T. M. (1982). Generalization as search. AIJ, 18(2), 203–226. 6. Buchanan, B. G.,Mitchell, T.M., Smith, R. G., and Johnson, C. R. (1978). Models of learning systems.
In Encyclopedia of Computer Science and Technology, Vol. 11. Dekker.
7. Mitchell, T. M., Utgoff, P. E., and Banerji, R. (1983). Learning by experimentation: Acquiring and refining problem-solving heuristics. In Michalski, R. S., Carbonell, J. G., and Mitchell, T. M. (Eds.),
Machine Learning: An Artificial Intelligence Approach, pp. 163–190. Morgan Kaufmann.
8. Michalski, R. S. (1969). On the quasi-minimal solution of the general covering problem. In Proc.
First International Symposium on Information Processing, pp. 125–128.
9. Michalski, R. S.,Mozetic, I., Hong, J., and Lavrauc, N. (1986). The multi-purpose incremental learning
system AQ15 and its testing application to three medical domains. In AAAI-86, pp. 1041–1045.
10. Fikes, R. E., Hart, P. E., and Nilsson, N. J. (1972). Learning and executing generalized robot plans. AIJ, 3(4), 251–288.
11. Anderson, J. R. (1983). The Architecture of Cognition. Harvard University Press.
12. Laird, J., Rosenbloom, P. S., and Newell, A. (1986). Chunking in Soar: The anatomy of a general learning mechanism. Machine Learning, 1, 11–46.
13. DeJong, G. (1981). Generalizations based on explanations. In IJCAI-81, pp. 67–69.
14. Minton, S. (1984). Constraint-based generalization: Learning game-playing plans from single examples. In AAAI-84, pp. 251–254.
15. Mitchell, T. M., Keller, R., and Kedar-Cabelli, S. (1986). Explanation-based generalization: A unifying view. Machine Learning, 1, 47–80.
16. DeJong, G. and Mooney, R. (1986). Explanation-based learning: An alternative view. Machine Learning, 1, 145–176.
17. Hirsh, H. (1987). Explanation-based generalization in a logic programming environment. In IJCAI-87.
18. van Harmelen, F. and Bundy, A. (1988). Explanation-based generalisation = partial evaluation.
AIJ, 36(3), 401–412.
19. Jones, N. D., Gomard, C. K., and Sestoft, P. (1993). Partial Evaluation and Automatic Program Generation. Prentice-Hall. 20. Minton, S. (1988). Quantitative results concerning the utility of explanation-based learning. In AAAI-88, pp. 564–569.
21. Greiner, R. (1989). Towards a formal analysis of EBL. In ICML-89, pp. 450–453.
22. Subramanian, D. and Feldman, R. (1990). The utility of EBL in recursive domain theories. In AAAI-90, Vol. 2, pp. 942–949.
23. Dietterich, T. (1990). Machine learning. Annual Review of Computer Science, 4, 255–306.
24. Carbonell, J. R. and Collins, A. M. (1973). Natural semantics in artificial intelligence. In IJCAI-73, pp.
344–351.
25. Davies, T. R. (1985). Analogy. Informal note INCSLI- 85-4, Center for the Study of Language and
Information (CSLI).
26. Davies, T. R. and Russell, S. J. (1987). A logical approach to reasoning by analogy. In IJCAI-87, Vol. 1, pp. 264–270.
27. Russell, S. J. and Grosof, B. (1987). A declarative approach to bias in concept learning. In AAAI-87.
28. Russell, S. J. (1988). Tree-structured bias. In AAAI-88, Vol. 2, pp. 641–645.
29. Almuallim, H. and Dietterich, T. (1991). Learning with many irrelevant features. In AAAI-91, Vol. 2,
pp. 547–552.
30. Tadepalli, P. (1993). Learning from queries and examples with tree-structured bias. In ICML-93, pp.
322–329.
31. Jevons, W. S. (1874). The Principles of Science. Routledge/Thoemmes Press, London.
32. Plotkin, G. (1971). Automatic Methods of Inductive Inference. Ph.D. thesis, Edinburgh University.
33. Shapiro, E. (1981). An algorithm that infers theories from facts. In IJCAI-81, p. 1064.
34. Quinlan, J. R. (1986). Induction of decision trees. Machine Learning, 1, 81–106.
35. Clark, P. and Niblett, T. (1989). The CN2 induction algorithm. Machine Learning, 3, 261–283.
36. Quinlan, J. R. (1990). Learning logical definitions from relations. Machine Learning, 5(3), 239–266.
37. Muggleton, S. H. and Buntine, W. (1988). Machine invention of first-order predicates by inverting resolution. In ICML-88, pp. 339–352.
38. Russell, S. J. (1986). A quantitative analysis of analogy by similarity. In AAAI-86, pp. 284–288.
39. Muggleton, S. H. and Feng, C. (1990). Efficient induction of logic programs. In Proc. Workshop on
Algorithmic Learning Theory, pp. 368–381.
40. Rouveirol, C. and Puget, J.-F. (1989). A simple and general solution for inverting resolution. In Proc.
European Working Session on Learning, pp. 201–210.
41. De Raedt, L. (1992). Interactive Theory Revision: An Inductive Logic Programming Approach. Academic Press.
42. Muggleton, S. H. (1995). Inverse entailment and Progol. New Generation Computing, 13(3-4), 245-
286.
43. Muggleton, S. H. (2000). Learning stochastic logic programs. Proc. AAAI 2000 Workshop on Learning
Statistical Models from Relational Data.
44. Muggleton, S. H. (1991). Inductive logic programming. New Generation Computing, 8, 295–318.
45. Muggleton, S. H. (1992). Inductive Logic Programming. Academic Press.
46. Lavrauc, N. and Duzeroski, S. (1994). Inductive Logic Programming: Techniques and Applications.
Ellis Horwood
47. Page, C. D. and Srinivasan, A. (2002). ILP: A short look back and a longer look forward. Submitted to
Journal of Machine Learning Research.
48. Duzeroski, S., Muggleton, S. H., and Russell, S. J. (1992). PAC-learnability of determinate logic programs. In COLT-92, pp. 128–135.
49. Kietz, J.-U. and Duzeroski, S. (1994). Inductive logic programming and learnability. SIGART Bulletin,
5(1), 22–32.
50. Cohen, W. W. and Page, C. D. (1995). Learnability in inductive logic programming: Methods and results. New Generation Computing, 13(3–4), 369-409. 51. Davis, R. and Lenat, D. B. (1982). Knowledge-Based Systems in Artificial Intelligence. McGraw-
Hill.
52. Lenat, D. B. (1983). EURISKO: A program that learns new heuristics and domain concepts: The nature of heuristics, III: Program design and results. AIJ, 21(1–2), 61–98.
53. Ritchie, G. D. and Hanna, F. K. (1984). AM: A case study in AI methodology. AIJ, 23(3), 249–268.
54. Lenat, D. B. and Brown, J. S. (1984). Why AM and EURISKO appear to work. AIJ, 23(3), 269–294.

Norvig I
Peter Norvig
Stuart J. Russell
Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010