Lexikon der Argumente


Philosophische Themen und wissenschaftliche Debatten
 
[englisch]

Screenshot Tabelle Begriffes

 

Finden Sie Gegenargumente, in dem Sie NameVs…. oder….VsName eingeben.

Erweiterte Suche:
Suchbegriff 1: Autor oder Begriff Suchbegriff 2:Autor oder Begriff

zusammen mit




Der gesuchte Begriff oder Autor findet sich in folgenden 2 Einträgen:
Begriff/
Autor/Ismus
Autor
Autor
Eintrag
Eintrag
Literatur
Literatur
Ethik Bostrom I 257
Ethik/Moral/Superintelligenz//Bostrom: Keine ethische Theorie erlangt eine mehrheitliche Unterstützung unter den Philosophen, so dass die meisten Philosophen sich irren müssen. ((s)VsBostrom: Es ist keine Frage des Applauses, welche Theorie richtig ist).
I 369
Mehrheiten in Ethik/Bostrom: Eine kürzlich durchgeführte Befragung von Berufsphilosophen ergab den Prozentsatz der Befragten, die verschiedene Positionen "akzeptieren oder sich ihnen zuneigen". Zur normativen Ethik waren die Ergebnisse Deontologie 25,9%; - Konsequentialismus 23,6%; - Tugendethik 18,2%.
Zur Metaethik waren die Ergebnisse
moralischer Realismus 56,4%; - moralischer Anti-Realismus 27,7%.
Zum moralischen Urteilsvermögen:
Kognitivismus 65,7%; - Nicht-Kognitivismus 17,0% (Bourget und Chalmers 2009(1))
>Normen/Normativität/Superintelligenz/Bostrom, >Ethik/Superintelligenz/Yudkowsky.
Morality models:
I 259
Def CEV/Yudkowsky: Unser "kohärentes extrapoliertes Wollen" ist der Wunsch den wir hätten, wenn wir mehr wüssten, schneller dächten, mehr die Menschen wären, die wir gerne wären, wenn wir weiter zusammenwachsen würden; wo die Extrapolation konvergiert statt divergiert, wo unsere Wünsche kohärent sind statt sich zu stören; wenn sie extrapoliert würden, wie wir es wünschen, dass extrapoliert wird und interpretiert würden, wie wir es wünschen.
I 266
VsCEV/Bostrom: stattdessen: Moralische Richtigkeit / MR/Bostrom: (...) bauen wir eine KI mit dem Ziel auf, das moralisch Richtige zu tun, wobei die KI sich auf ihre überlegenen kognitiven Fähigkeiten stützt, um herauszufinden, welche Handlungen genau auf diese Beschreibung passen.
Wir können diesen Vorschlag "moralische Richtigkeit" (MR) nennen. Die Idee ist, dass wir Menschen ein unvollkommenes Verständnis davon haben, was richtig und was falsch ist (...)
((s)VsBostrom: Damit wird menschliche Verantwortung delegiert und letztlich davon ausgegangen, dass menschliche Entscheidungen nur vorläufig sind, bis nicht-menschliche Entscheidungen getroffen werden).
I 267
BostromVsYudkowsky: MR würde verschiedene freie Parameter in der CEV abschaffen, wie z.B. den Grad der Kohärenz zwischen den extrapolierten Willensäußerungen, der erforderlich ist, damit die KI auf das Ergebnis reagieren kann, die Leichtigkeit, mit der eine Mehrheit abweichende Minderheiten überstimmen kann, und die Art des sozialen Umfelds, innerhalb dessen unser extrapoliertes Selbst "weiter zusammenwachsen" soll. BostromVsMR: Problem: 1. die MR scheint auch einige Nachteile zu haben. Sie stützt sich auf den Begriff "moralisch richtig", einen notorisch schwierigen Begriff (...).
I 268
2. (...) [MR] gibt uns vielleicht nicht das, was wir wollen oder was wir wählen würden, wenn wir klüger und besser informiert wären. Lösung/Bostrom: Ziel für KI:
MP: Unter den Handlungen, die für die KI moralisch zulässig sind, nehme die KI eine, die der CEV der Menschheit vorziehen würde. Wenn jedoch ein Teil dieser Anweisung keine genau spezifizierte Bedeutung hat, oder wenn wir über ihre Bedeutung radikal uneins sind, oder wenn der moralische Realismus falsch ist, oder wenn wir bei der Schaffung einer KI mit diesem Ziel moralisch unzulässig gehandelt haben, dann unterziehe die KI sich einer kontrollierten Abschaltung.(*) Die KI folge der beabsichtigten Bedeutung dieser Anweisung.
I 373 (Anmerkung)
*Def Moralische Zulässigkeit/Bostrom: Wenn die KI die moralische Zulässigkeit unserer Handlung zur Schaffung der KI bewertet, sollte sie die Zulässigkeit in ihrem objektiven Sinne interpretieren. In einem gewöhnlichen Sinne von "moralisch zulässig" handelt eine Ärztin oder ein Arzt moralisch zulässig, wenn sie oder er ein Medikament verschreibt, von dem sie oder er glaubt, dass es ihre oder seine Patientin heilen wird - selbst wenn die Patientin oder der Patient, ohne dass die Ärztin oder der Arzt es weiß, allergisch gegen das Medikament ist und infolgedessen stirbt. Die Konzentration auf die objektive moralische Zulässigkeit macht sich die vermutlich überlegene erkenntnistheoretische Position der KI zunutze.. ((s)VsBostrom: Der letzte Satz (Salvatorische Klausel: "Die KI folge der beabsichtigten Bedeutung dieser Anweisung") ist zirkulär, insbesondere wenn es keine Personen mehr in Entscheidungspositionen gibt, die dagegen Einspruch erheben könnten.
>Ziele/Superintelligenz/Bostrom
I 312
Def Gemeinwohlprinzip/Bostrom: Superintelligenz sollte nur zum Wohle der gesamten Menschheit und im Dienste weit verbreiteter ethischer Ideale entwickelt werden.
I 380
Diese Formulierung soll so gelesen werden, dass sie eine Vorschrift einschließt, dass das Wohlergehen von nichtmenschlichen Tieren und anderen fühlenden Wesen (einschließlich des digitalen Verstandes), die existieren oder entstehen könnten, gebührend berücksichtigt wird. Sie soll nicht als Lizenz für einen KI-Entwickler gelesen werden, seine oder ihre eigenen moralischen Intuitionen durch die der breiteren moralischen Gemeinschaft zu ersetzen.

1. Bourget, David, and Chalmers, David. 2009. “The PhilPapers Surveys.” November. Available at http://philpapers.org/surveys/

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017
Ethik Yudkowsky Bostrom I 259
Ethik/Moral/Superintelligenz/Yudkowsky: Yudkowsky hat vorgeschlagen, einer Ausgangs-KI das Endziel zu geben, den "kohärenten extrapolierten Willen" (CEV) der Menschheit zu verwirklichen, den er wie folgt definiert: Def CEV/Yudkowsky: Unser "kohärentes extrapoliertes Wollen" ist unser Wunsch, wenn wir mehr wüssten, schneller dächten, mehr die Menschen wären, die wir gerne wären, wenn wir enger zusammen aufgewachsen wären; wo die Extrapolation unserer Wünsche konvergiert statt zu divergieren, wo unsere Wünsche kohärent sind statt sich zu stören; wenn sie extrapoliert werden, wie wir es wünschen, dass sie extrapoliert werden, dass sie interpretiert werden, wie wir es wünschen, dass sie interpretiert werden.
((s)VsYudkowsky: (1) Hier wird die stillschweigende Annahme getroffen, dass moralische Entscheidungen dem Fortschritt unterworfen sind.
(2) Moralische Entscheidungen sollten nicht von Mehrheiten abhängig gemacht werden.
(3) Die Forderung nach Konvergenz der Gemeinschaften ignoriert das Recht auf individuelle Autonomie.
>Ethik/Superintelligenz//Bostrom.

Bostrom I
Nick Bostrom
Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017