Philosophie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Maschinenlernen: Maschinenlernen ist eine Form der künstlichen Intelligenz (KI), die es Softwareanwendungen ermöglicht, Ergebnisse genauer vorherzusagen, ohne dass sie explizit dafür programmiert wurden. Algorithmen des maschinellen Lernens verwenden historische Daten als Eingabe, um neue Ausgabewerte vorherzusagen. Siehe auch Künstliche Intelligenz, Deep Learning, Starke Künstliche Intelligenz, Lernen.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Judea Pearl über Maschinenlernen – Lexikon der Argumente

Brockman I 15
Maschinenlernen/Pearl: Sobald man es auf große Datenmengen loslässt, hat Deep Learning seine eigene Dynamik, es führt seine eigene Reparatur und Optimierung durch, und es gibt einem die meiste Zeit die richtigen Ergebnisse. Aber wenn es das nicht tut, weiß man nicht, was schief gelaufen ist und was repariert werden sollte. Insbesondere weiß man nicht, ob der Fehler im Programm bzw. in der Methode steckt oder zustande kam, weil sich in der Umgebung etwas geändert hat. Wir sollten eine andere Art von Transparenz anstreben.
VsPearl: Einige argumentieren, dass Transparenz nicht wirklich notwendig ist. Wir verstehen die neuronale Architektur des menschlichen Gehirns nicht, aber trotzdem funktioniert sie gut, also vergeben wir unserem dürftigen Verständnis und nutzen menschliche Helfer zu unserem großem Vorteil.
PearlVsVs: Ich weiß, dass intransparente Systeme wunderbare Arbeit leisten können, und unser Gehirn ist der Beweis für dieses Wunder. Aber dieses Argument hat seine Grenzen. Der Grund, warum wir unserem dürftigen Verständnis der Funktionsweise des menschlichen Gehirns verzeihen können, ist, dass unser Gehirn auf die gleiche Weise funktioniert, und das es uns ermöglicht, mit anderen Menschen zu kommunizieren, von ihnen zu lernen, sie zu unterweisen und sie in unserer eigenen Muttersprache zu motivieren.
Problem: Wenn unsere Roboter alle so undurchsichtig sind wie AlphaGo, werden wir kein sinnvolles Gespräch mit ihnen führen können, und das wäre bedauerlich. Wir werden sie umschulen müssen, wann immer wir eine leichte Änderung der Aufgabe oder des Betriebsumfelds vornehmen.
Aktuelle Maschinenlernsysteme arbeiten fast ausschließlich in einem statistischen oder modellblinden Modus, der in vielerlei Hinsicht dazu analog ist, eine Funktion an eine Wolke von Datenpunkten anzupassen. Solche Systeme können nicht über "Was wäre wenn?"-Fragen nachdenken und können daher nicht als Grundlage für eine starke KI dienen - d.h. für eine künstliche Intelligenz, die dem Denken und der Kompetenz auf menschlicher Ebene nacheifert. >Starke künstliche Intelligenz
.
Brockman I 16
(...) aktuelle Lernmaschinen verbessern ihre Leistung, indem sie Parameter für einen Strom von sensorischem Input aus der Umgebung optimieren. Es ist ein langsamer Prozess, analog zum natürlichen Auswahlprozess, der die darwinistische Evolution antreibt. Es erklärt, wie Arten wie Adler und Schlangen in Millionen von Jahren hervorragende Sehsysteme entwickelt haben. Es kann jedoch nicht den superevolutionären Prozess erklären, der es dem Menschen ermöglichte, in knapp tausend Jahren Brillen und Teleskope zu bauen.
Brockman I 17
Erste Ebene: Statistische Argumentation, die einem nur sagen kann, wie die Wahrnehmung eines Ereignisses die eigene Ansicht über ein anderes ändern würde.
Zweite Ebene: befasst sich mit Aktionen. (...)[Es] benötigt Informationen über Interventionen, die auf dem ersten [Level] nicht verfügbar sind. Diese Informationen können in einem grafischen Modell kodiert werden, das uns lediglich sagt, welche Variable auf eine andere reagiert.
Dritte Ebene: (...) die kontrafaktische. Dies ist die Sprache, die von Wissenschaftlern verwendet wird. "Was wäre, wenn das Objekt doppelt so schwer wäre?" "Was wäre, wenn ich die Dinge anders machen würde?"
Kontrafakten/Pearl: Sie können nicht abgeleitet werden, auch wenn wir die Auswirkungen aller Handlungen vorhersagen könnten. Sie benötigen einen zusätzlichen Bestandteil in Form von Gleichungen, um uns sagen zu können, wie Variablen auf Veränderungen in anderen Variablen reagieren. >Modelle/Pearl.



Pearl, Judea.”The Limitations of Opaque Learning Machines.” in: Brockman, John (ed.) 2019. Twenty-Five Ways of Looking at AI. New York: Penguin Press.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
Pearl, Judea

Brockman I
John Brockman
Possible Minds: Twenty-Five Ways of Looking at AI New York 2019

Send Link
> Gegenargumente gegen Pearl
> Gegenargumente zu Maschinenlernen ...

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Y   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z