Philosophie Lexikon der ArgumenteHome | |||
| |||
Software-Agenten: Software-Agenten sind autonome Programme, die Aufgaben ausführen oder Entscheidungen treffen. Sie können sich anpassen, lernen und mit ihrer Umgebung interagieren, um bestimmte Ziele zu erreichen. Siehe auch Software, Computerprogrammierung, Computer, künstliche Intelligenz, maschinelles Lernen._____________Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente. | |||
Autor | Begriff | Zusammenfassung/Zitate | Quellen |
---|---|---|---|
Nick Bostrom über Software-Agenten – Lexikon der Argumente
I 133 Software-Agenten/Superintelligenz/Bostrom: Für Software-Agenten, die leicht Körper wechseln oder exakte Duplikate von sich selbst erstellen können, muss die Erhaltung des Selbst als eine bestimmte Implementierung oder ein bestimmtes physisches Objekt kein wichtiger instrumenteller Wert sein. Fortgeschrittene Software-Agenten könnten auch in der Lage sein, Erinnerungen auszutauschen, Fähigkeiten herunterzuladen und ihre kognitive Architektur und Persönlichkeit radikal zu verändern. I 350 Ein Agent kann auch seine Zielrepräsentation ändern, wenn er seine Ontologie ändert, um seine alte Repräsentation in die neue Ontologie zu übertragen; vgl. de Blanc (2011)(1). Eine andere Art von Faktor, der dazu führen könnte, dass ein Theoretiker der evidentiellen Entscheidungstheorie verschiedene Handlungen vornimmt, einschließlich der Änderung seiner Endziele, ist die Frage der Beweiskraft seiner Entscheidung. Zum Beispiel könnte ein Agent, der die evidentielle Entscheidungstheorie befolgt, glauben, dass es andere Agenten wie ihn im Universum gibt und dass seine eigenen Handlungen einen Beweis dafür liefern, wie diese anderen Agenten handeln werden. Der Agent könnte sich daher für ein Endziel entscheiden, das altruistisch gegenüber den anderen nachweislich verbundenen Agenten ist, mit der Begründung, dass dies dem Agenten Beweise dafür liefert, dass diese anderen Agenten sich für eine ähnliche Vorgehensweise entschieden haben. >Ziele/Superintelligenz/Bostrom, >Motivation/Superintelligenz/Bostrom. 1. De Blanc, Peter. 2011. Ontological Crises in Artificial Agents’ Value Systems. Machine Intelligence Research Institute, San Francisco, CA, May 19._____________ Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der ArgumenteDer Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente. |
Bostrom I Nick Bostrom Superintelligence. Paths, Dangers, Strategies Oxford: Oxford University Press 2017 |