| Begriff/ Autor/Ismus |
Autor |
Eintrag |
Literatur |
|---|---|---|---|
| Außergerichtliche Einigung | Experimentelle Ökonomik | Parisi I 85 Außergerichtliche Einigung/Experimentelle Ökonomik/Sullivan/Holt: Eine populäre Hypothese - von vielen Wissenschaftlern untersucht, aber am häufigsten Priest und Klein (1984)(1) zugeschrieben - ist die Idee, dass Prozessparteien ihre Streitigkeiten nicht beilegen, wenn sie unvereinbare Erwartungen über die Aussichten auf einen Prozessausgang haben.* Von aktuellem Interesse ist eine wichtige Reihe von experimentellen Studien, die die Idee untersuchen, dass eigennützige Voreingenommenheit dazu führen kann, dass Prozessparteien unvereinbare Überzeugungen über die Stärke ihrer jeweiligen Seiten in einem Rechtsstreit entwickeln.** Methodik/Studiendesign: (siehe Loewenstein et al. 1993(9)) Die Versuchspersonen wurden zufällig gepaart und bekamen die Rolle des Klägers oder des Beklagten in einem fiktiven Rechtsstreit zugewiesen. Jedem Probanden wurden dann ca. 30 Seiten Fallmaterial (Zeugenaussagen, Berichte, Diagramme etc.) zur Verfügung gestellt, in denen die Ereignisse und Transaktionen beschrieben wurden, die angeblich einen Klagegrund begründen. Beide Seiten bekamen die gleichen Informationen (...). Eigennützige Voreingenommenheit: Von den vielen Experimenten, die unter Verwendung dieses grundlegenden Rahmens durchgeführt wurden, demonstrieren insbesondere zwei die Erklärungskraft der eigennützigen Voreingenommenheit als Antrieb für eine ausweglose Situation. Im ersten dieser Experimente wurden den Versuchspersonen Rollen zugewiesen und sie hatten Zeit, das Fallmaterial wie oben beschrieben zu lesen; aber bevor sie in die eigentliche Verhandlung eintraten, wurden sie zuerst gebeten zu erraten, wie hoch der geheime Schadensersatzpreis des Richters Parisi I 86 gewesen war (Loewenstein et al., 1993)(9). Diese Vorhersagen wurden dem Experimentator streng vertraulich mitgeteilt und wurden durch kleine monetäre Belohnungen für Vermutungen, die nahe genug am tatsächlichen Preis lagen, incentiviert. Die gesammelten Daten zeigen starke Hinweise auf eine eigennützige Voreingenommenheit (...). In einem zweiten Experiment bestätigten die Autoren die Kausalität der eigennützigen Voreingenommenheit bei der Erklärung der systematischen Divergenz der Erwartungen, indem sie das experimentelle Design so modifizierten, dass die Versuchspersonen die Fallmaterialien lasen und Schadensersatzschätzungen abgaben, bevor ihnen ihre Rollen als Kläger oder Beklagter zugewiesen wurden (Babcock et al., 1995)(10). Im Gegensatz zu den vorherigen Ergebnissen zeigten die Vorhersagen in diesem Experiment keine systematische Voreingenommenheit durch eine eventuelle Rollenzuweisung. Darüber hinaus erzielten die Probanden, die die Fallinformationen aus einer ex ante neutralen Haltung heraus interpretiert hatten, nach der Zuweisung ihrer Prozessrollen signifikant höhere Einigungsraten als die Probanden, die die Fallinformationen bereits in Kenntnis ihrer Prozessrollen gelesen hatten. Informationsasymmetrie: Eine weitere populäre Hypothese für das Scheitern von Prozessparteien, eine effiziente Einigung zu erzielen, postuliert, dass urteilsrelevante Informationen zwischen den Parteien eines Rechtsstreits asymmetrisch verteilt sind.Einigungsineffizienzen werden dann durch die strategischen Versuche der Prozessparteien erklärt, private Informationen während des Prozesses zu signalisieren oder zu extrahieren (z.B. Bebchuk, 1984(11); Reinganum und Wilde, 1986(12)).*** Ökonomische Modelle von außergerichtlichen Einigungen unter asymmetrischer Information sagen unter geeigneten Bedingungen sowohl ein Scheitern der Einigung (d.h. des Prozesses) als auch eine Verzögerung der Einigung (d.h. eine späte Einigung) voraus (siehe z. B. Spier, 1992(13), 1994(14)). Ein kürzlich durchgeführtes Experiment zu außergerichtlichen Einigungen demonstriert eindeutig beide Vorhersagen der asymmetrischen Informationshypothese (Sullivan, 2016(15)). Für innergerichtliche Verhandlungen siehe >Rechtsprechung/Experimentelle Ökonomik. * Dieses allgemeine Modell des Siedlungsversagens wurde unter anderem von Gould (1973)(2) und Shavell (1982(3)) vertreten. Für eine experimentelle Studie speziell zur Selektionshypothese von Priest und Klein, siehe Stanley und Coursey (1990)(4). ** Für Details und zusätzlichen Hintergrund siehe Babcock und Loewenstein (1997)(5). Für alternative Studien, die mit demselben Grunddesign durchgeführt wurden, siehe Babcock, Loewenstein und Issacharoff (1997)(6), Babcock und Pogarsky (1999)(7) und Pogarsky und Babcock (2001)(8). *** Kennan und Wilson (1993)(16) bieten eine detaillierte Behandlung der Rolle asymmetrischer Informationen in allgemeinen Verhandlungsmodellen. Für einen Überblick über ökonomische Experimente zu Verhandlungen unter asymmetrischer Information, siehe Roth (1995)(17). 1. Priest, G. L. and B. Klein (1984). “The Selection of Disputes for Litigation.” Journal of Legal Studies 13(1): 1–55. 2. Gould, J. P. (1973). “The Economics of Legal Conflicts.” Journal of Legal Studies 2: 279–300. 3. Shavell, S. (1982). “Suit, Settlement, and Trial: A Theoretical Analysis under Alternative Methods for the Allocation of Legal Costs.” Journal of Legal Studies 11(1): 55–81. 4. Stanley, L. R. and D. L. Coursey (1990). “Empirical Evidence on the Selection Hypothesis and the Decision to Litigate or Settle.” Journal of Legal Studies 19(1): 145–172. 5. Babcock, L. and G. Loewenstein (1997). “Explaining Bargaining Impasse: the Role of Self-Serving Biases.” Journal of Economic Perspectives 11(1): 109–126. 6. Babcock, L., G. Loewenstein, and S. Issacharoff (1997). “Creating Convergence: Debiasing Biased Litigants.” Law & Social Inquiry 22(4): 913–925. 7. Babcock, L. and G. Pogarsky (1999). “Damage Caps and Settlement: a Behavioral Approach.” Journal of Legal Studies 28(2): 341–370. 8. Pogarsky, G. and L. Babcock (2001). “Damage Caps, Motivated Anchoring, and Bargaining Impasse.” Journal of Legal Studies 30(1): 143–159. 9. Loewenstein, G., S. Issacharoff, C. Camerer, and L. Babcock (1993). “Self-Serving Assessments of Fairness and Pretrial Bargaining.” Journal of Legal Studies 22(1): 135–159. 10. Babcock, L., C. Camerer, G. Loewenstein, and S. Issacharoff (1995). “Biased Judgments of Fairness in Bargaining.” American Economic Review 85(5): 1337–1343. 11. Bebchuk, L. A. (1984). “Litigation and Settlement Under Imperfect Information.” RAND Journal of Economics 15(3): 404–415. 12. Reinganum, J. F. and L. L. Wilde (1986). “Settlement, Litigation, and the Allocation of Litigation Costs.” RAND Journal of Economics 17(4): 557–566. 13. Spier, K. E. (1992). “The Dynamics of Pretrial Negotiation.” Review of Economic Studies 59(1): 93–108. 14. Spier, K. E. (1994). “Pretrial Bargaining and the Design of Fee-Shifting Rules.” RAND Journal of Economics 25(2): 197–214. 15. Sullivan, S. P. (2016). Why Wait to Settle? An Experimental Test of the Asymmetric Information Hypothesis, Journal of Law & Economics, forthcoming. 16. Kennan, J. and R. Wilson (1993). “Bargaining with Private Information.” Journal of Economic Literature 31(1): 45–104. 17. Roth, A. E. (1995). “Bargaining Experiments,” in J. H. Kagel and A. E. Roth, eds., Handbook of Experimental Economics, 253–348. Princeton, NJ: Princeton University Press. Sullivan, Sean P. and Charles A. Holt. „Experimental Economics and the Law“ In: Parisi, Francesco (Hrsg.) (2017). The Oxford Handbook of Law and Economics. Bd. 1: Methodology and Concepts. NY: Oxford University Press. |
Parisi I Francesco Parisi (Ed) The Oxford Handbook of Law and Economics: Volume 1: Methodology and Concepts New York 2017 |
| Endogenes Wachstum | Feenstra | Feenstra I 10-1 Endogenes Wachstum/Ricardo/Feenstra: Der Zusammenhang zwischen Handel und Wachstum ist seit langem eine Frage, die sowohl aus theoretischer als auch aus politischer Sicht von Interesse ist. David Ricardo entwickelte ein dynamisches Modell der Mais- und Samtproduktion, bei dem der Mais mit Hilfe von Land und Arbeit und der Samt allein mit Hilfe von Arbeit produziert wird.* >Ricardo-Modell. Die Notwendigkeit, die Arbeitskräfte aus einem vor der Produktion eingerichteten „Lohnfonds“ zu bezahlen, verhindert, dass anfangs alle Arbeitskräfte beschäftigt werden (d. h. es besteht eine Liquiditätsbeschränkung für die Unternehmen). Ricardo zeigte, dass in der Autarkie die allmähliche Ausweitung des Lohnfonds und die Zunahme der Samtproduktion den relativen Preis senken würden, bis ein langfristiges Gleichgewicht erreicht ist. Die Öffnung des Handels würde es jedoch ermöglichen, den relativen Preis von Samt auf dem Weltniveau zu halten, was den Kapitalisten auf Kosten der Grundbesitzer zugute käme. Feenstra: Dieses bemerkenswerte Modell enthält viele der Themen, die in modernen Diskussionen über Handel und Wachstum von Interesse sind: die Möglichkeit, dass Wachstum mit kontinuierlichen Preisänderungen einhergeht, und umgekehrt die Auswirkungen des Handels auf die Preise und Wachstumsraten selbst. >Wirtschaftswachstum, >Exogenes Wachstum, >Handel, >Internationaler Handel, >Preis, >Terms of trade. 1. Findlay, Ronald, 1984, “Growth and Development in Trade Models,” in Ronald W. Jones and Peter B. Kenen, eds., Handbook of International Economics, vol. 1. Amsterdam, New York: North Holland, 325-365. 2. Ricardo, David, 1951, The Works and Correspondence of David Ricardo, P. Sfaffa, ed. Cambridge: Cambridge University Press. Feenstra I 10-16 Endogenes Wachstum/Feenstra: Viele der „endogenen Wachstumsmodelle“ bauen auf dem Rahmen der monopolistischen Konkurrenz auf (...), aber anstatt an differenzierte Endprodukte zu denken, betrachten wir stattdessen differenzierte Vorleistungen. Die Idee ist, dass eine Zunahme der Vielfalt (N) an differenzierten Vorleistungen einen Anstieg der Produktion ermöglicht, ähnlich wie eine Zunahme der Vielfalt an Endprodukten einen höheren Verbrauchernutzen ermöglicht (... )* >Monopolistischer Wettbewerb, >Wirtschaftswachstum, >Exogenes Wachstum. Feenstra I 10-30 (...) [eine] Implikation des endogenen Wachstumsmodells war, dass bei internationalen Wissensspillovern der Handel die Wachstumsraten erhöhen sollte. >Wissens-Spillover. Es gibt eine lebhafte Debatte darüber, ob diese Hypothese empirisch zutrifft. Zu den Verfechtern dieser Ansicht gehören Dollar (1992)(2), Sachs und Warner (1995)(3), Edwards (1998)(4), Ben-David (1993(5), 1998(6), 2001(7)) sowie Frankel und Romer (1999)(8). Diese empirischen Ergebnisse werden jedoch alle von Rodriguez und Rodrik (2000)(9) zurückgewiesen, und Harrison (1996)(10) und Slaughter (2001)(11) üben spezifischere Kritik an einzelnen Arbeiten. Um diese Arbeiten zu bewerten, ist es sinnvoll, sie zunächst mit einer anderen empirischen Forschungsrichtung in Verbindung zu bringen, die sich mit der Konvergenz von Ländern zu ihren Steady-State-Wachstumsraten befasst. * Die Verwendung differenzierter Inputs zur Erzielung gesamtwirtschaftlicher Skalenerträge wird häufig auf Ethier (1979)(1) zurückgeführt. 1. Ethier, Wilfred J., 1979, “Internationally Decreasing Costs and World Trade,” Journal of International Economics, 9, 1-24. 2. Dollar, David, 1992, “Outward-Oriented Developing Economies Really Do Grow More Rapidly: Evidence from 95 LDCs, 1976-1985,” Economic Development and Cultural Change, 40(3), 523-544. 3. Sachs, Jeffrey and Andrew Warner, 1995, “Economic Reform and the Precess of Global Integration,” Brooking Papers on Economic Activity, 1, 1-118. 4. Edwards, Sebastian, 1998, “Openess, Productivity and Growth: What Do We Really Know?” Economic Journal, 108, March, 383-398. 5. Ben-David, Dan, 1993, “Trade Liberalization and Income Convergence,” Quarterly Journal of Economics, 108(3), August, 653-679. 6.Ben-David, Dan, 1998, “Convergence Clubs and Subsistence Economies,” Journal of Development Economics, 55(1), February, 155-171. 7. Ben-David, Dan, 2001, “Trade Liberalization and Income Convergence: A Comment,” Journal of International Economics, 55(1), October, 229-234. 8. Frankel, Jeffrey A. and David Romer, 1999, “Does Trade Cause Growth?” American Economic Review, 89(3), 379-399. 9. Rodriguez, Francisco and Dani Rodrik, 2000, “Trade Policy and Economic Growth: A Skptic’s Guide to the Cross-Nationa lEvidence,” in Ben S. Gernanke and Kenneth Rogoff, eds., NBER Macroeconomics Annual 2000, 261-325. 10. Harrison, Ann E., 1996, “Openess and Growth: A Time-series, Cross-section Analysis for Developing Coutnries,” Journal of Development Economics, 48, 419-447. 11. Slaughter, Matthew J., 2001, “International Trade and Labor-Demand Elasticities,” Journal of International Economics, 54, 27-56. |
Feenstra I Robert C. Feenstra Advanced International Trade University of California, Davis and National Bureau of Economic Research 2002 |
| Gerichtsverfahren | Experimentelle Ökonomik | Parisi I 96 Gerichtsverfahren/Experimentelle Ökonomik/Sullivan Holt: In Anerkennung der kognitiven Beschränkungen der meisten Entscheidungsträger (vgl. Gigerenzer und Selten, 2001)(1) können - und werden bereits - Experimente entwickelt, um die Strategie und Praxis der Prozessführung und Anwaltschaft zu verbessern. Der Einsatz von Scheinjurys, Scheinprozessen und Schattenjurys zur Untersuchung von Juroreneinflüssen und der Überzeugungskraft verschiedener Rechtstheorien ist sowohl in der akademischen Forschung als auch in der Rechtspraxis weit verbreitet (vgl. Devine et al., 2000)(2). Diese Studien, die in vielerlei Hinsicht ökonomischen Experimenten ähneln, nähern sich dem Verständnis der Präferenzen der Geschworenen, der Aufmerksamkeit und der Empfänglichkeit für verschiedene Argumente aus einer experimentellen Perspektive, wobei Volksweisheiten und Anekdoten durch wissenschaftliche Untersuchungen ersetzt werden (MacCoun, 1989)(3). Perspektivisch betrachtet könnte eine engere Integration der Methodik der Geschworenensimulation (siehe Bornstein, 1999)(4) und der modernen experimentellen Ökonomik einen interessanten und neuartigen Ansatz zum besseren Verständnis der Geschworenenpräferenzen bieten. Kognitive Verzerrungen/"Debiasing" (von engl. bias - Verzerrung): Eine verwandte Anwendung der experimentellen Ökonomik in der juristischen Praxis beinhaltet die Verwendung von Experimenten zur Entdeckung und Implementierung von Debiasing-Techniken, die für eine effektive rechtliche Vertretung relevant sind. Genauso wie Experimente verwendet werden können, um kognitive Verzerrungen zu entdecken, die intuitives Denken von objektiv korrekten Schlussfolgerungen ablenken (siehe z.B. Kahneman, Slovic und Tversky, 1982)(5), können Experimente auch verwendet werden, um Techniken zum "Debiasing" intuitiven Denkens zu erforschen. >Kognitive Verzerrungen/Experimentelle Ökonomik. Vorhersage/Wahrscheinlichkeiten: Experimente von Gigerenzer und Hoffrage (1995)(6), die auf ein verbessertes Bayes'sches Schlussfolgern hinweisen, wenn Wahrscheinlichkeiten in Häufigkeitsausdrücken präsentiert werden, haben ähnlich direkte Implikationen für die Präsentation von Wahrscheinlichkeiten beim Versuch. Beispiel: (...) wie gut können erfahrene Anwälte den Ausgang eines Prozesses vorhersagen? Empirisch gesehen, scheint die Antwort Parisi I 97 nicht sehr gut zu sein (Goodman-Delahunty et al., 2010)(7). Das Problem ist die gleiche Verzerrung, die Prozessbeteiligte bei außergerichtlichen Einigungen befällt (Loewenstein et al., 1993(8); Babcock et al., 1995)(9). Dies ist ein potentielles Problem aus der Perspektive der Interessenvertretung eines Klienten: ein übermäßig zuversichtlicher Anwalt kann es versäumen, einen Klienten angemessen über die Schwäche eines Falles zu informieren, oder er kann die Schwäche eines bestimmten Arguments im Prozess durch selektive Blindheit gegenüber alternativen Interpretationen der Fakten übersehen. Aber auch hier kann die experimentelle Ökonomik genutzt werden, um kontextangepasste Debiasing-Techniken zu entwickeln. Unter den vielen sparsamen Debiasing-Verfahren, die im Kontext von Vergleichsverhandlungen untersucht wurden (siehe Babcock und Loewenstein, 1997)(10), scheint die Aufzählung der Schwächen des eigenen Falls im Labor am effektivsten zu sein (Babcock, Loewenstein und Issacharoff, 1997)(11). 1. Gigerenzer, G. and R. Selten, Hrsg. (2001). Bounded Rationality: The Adaptive Toolbox. Cambridge, MA: The MIT Press. 2. Devine, D. J., L. D. Clayton, B. B. Dunford, R. Seying, and J. Pryce (2000). “Jury Decision Making: 45 Years of Empirical Research on Deliberating Groups.” Psychology, Public Policy, and Law 7(3): 622–727. 3. MacCoun, R. J. (1989). “Jury Decision-Making.” Science 244(4908): 1046–1050. 4. Bornstein, B. H. (1999). “The Ecological Validity of Jury Simulations: Is the Jury Still Out?” Law and Human Behavior 23(1): 75–91. 5. Kahneman, D., P. Slovic, and A. Tversky (1982). Judgment under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press. 6. Gigerenzer, G. and U. Hoffrage (1995). “How to Improve Bayesian Reasoning Without Instruction: Frequency Formats.” Psychological Review 102(4): 684–704. 7. Goodman-Delahunty, J., P. A. Granhag, M. Hartwig, and E. F. Loftus (2010). “Insightful or Wishful: Lawyers’ Ability to Predict Case Outcomes.” Psychology, Public Policy, and Law 16(2): 133–157. 8. Loewenstein, G., S. Issacharoff, C. Camerer, and L. Babcock (1993). “Self-Serving Assessments of Fairness and Pretrial Bargaining.” Journal of Legal Studies 22(1): 135–159. 9. Babcock, L., C. Camerer, G. Loewenstein, and S. Issacharoff (1995). “Biased Judgments of Fairness in Bargaining.” American Economic Review 85(5): 1337–1343. 10. Babcock, L. and G. Loewenstein (1997). “Explaining Bargaining Impasse: the Role of Self-Serving Biases.” Journal of Economic Perspectives 11(1): 109–126. 11. Babcock, L., G. Loewenstein, and S. Issacharoff (1997). “Creating Convergence: Debiasing Biased Litigants.” Law & Social Inquiry 22(4): 913–925. Sullivan, Sean P. and Charles A. Holt. „Experimental Economics and the Law“ In: Parisi, Francesco (Hrsg.) (2017). The Oxford Handbook of Law and Economics. Bd. 1: Methodology and Concepts. NY: Oxford University Press. |
Parisi I Francesco Parisi (Ed) The Oxford Handbook of Law and Economics: Volume 1: Methodology and Concepts New York 2017 |
| Kognitive Verzerrungen | Wirtschaftstheorien | Parisi I 65 Kognitive Verzerrungen/Nichtwissen/Nicht-Optimierung/Begrenzte Rationalität/Wirtschaftstheorien/Jolls: David Friedman's (2013)(1) Analyse der Hintergründe für das New Yorker "Soda-Gesetz" entwickelt beide Ausprägungen [Nichtwissen und Nicht-Optimierung]. >Begrenzte Rationalität/Simon. Nichtwissen: In Bezug auf Nichtwissen beschreibt Friedman, wie Optimismus dazu führt, dass Individuen "Fettleibigkeit ... und andere Konsequenzen" des übermäßigen Konsums von zuckerhaltigen Getränken unterschätzen (Friedman, 2013(1), S. 94). Nichtwissen: In Bezug auf Nicht-Optimierung zitiert Friedman den ehemaligen Bürgermeister von New York City, Michael Bloomberg, der meinte, das "Soda-Gesetz" sei "wirklich nur ein Vorschlag", der dazu tendiere, die Entscheidungsfindung durch "satisficing" (dt. genügend/befriedigend, erstbeste Möglichkeit wird gewählt) oder anderweitig nicht-optimierende Entscheidungsträger umzuleiten (...). Jolls: Beachten Sie, dass im Falle solcher relativ unreflektierter Konsumenten oder Konsumenten, die nach der "satisficing"-Methode agieren, die Nicht-Optimierung selbst zur Nicht-Rationalität beitragen kann, da Individuen, die reflexiv konsumieren, wahrscheinlich keine Informationen erhalten und genau verarbeiten, die für das Konsumverhalten relevant sind. >Begrenzte Rationalität. Begrenzte Rationalität/Jolls: Obwohl Nichtwissen und Nicht-Optimierung in Friedmans Analyse verbunden werden, gibt es wiederum keine notwendige Implikation, dass die beiden Aspekte der begrenzten Rationalität ähnliche normative Analysen hervorrufen. Friedmans eigener Fokus liegt darauf, wie das New Yorker "Soda-Gesetz" die spezifischen, diskreten Parameter der nominalen Begriffe des Gesetzes transzendierte und zum Gegenstand einer weitreichenden nationalen Debatte über Freiheit und Verantwortung wurde. >Begrenzte Rationalität/Jolls. Parisi I 66 Debiasing Strategien: siehe Farnsworth, 2003(2); Jolls und Sunstein, 2006(3); Heller, 2009(4); Williams, 2009(5); Jolls, 2013a(6); Jolls, 2013b(7)). Parisi I 67 Optimismus/gesetzliche Grenzen für Verbraucher: (...) Optimismus kann dazu führen, dass viele Verbraucher ihr persönliches Risiko unterschätzen (...). Dementsprechend kann Optimismus (vielleicht in Verbindung mit anderen Faktoren) rechtliche Beschränkungen für Verbrauchertransaktionen rechtfertigen; das Gesetz kann versuchen, die negativen Auswirkungen des Nichtwissens der Verbraucher zu minimieren, während es davon ausgeht, dass dieses Nichtwissen selbst fortbesteht (zum Beispiel Prentice und Roszkowski, 1991-92)(8). Eine solche Bemühung kann jedoch große eigene Kosten verursachen, wie Schwartz (1988)(9) und andere vorgeschlagen haben. Eine Alternative zu einem solchen Ansatz besteht darin, das Gesetz zu nutzen, um den Grad des Nichtwissens der Verbraucher in erster Instanz zu reduzieren. (...) nicht alle Formen eingeschränkter Rationalität sprechen auf Entschärfungsstrategien an (z. B. Weinstein und Klein, 2002)(10); aber in Kontexten, in denen sozialwissenschaftliche Erkenntnisse darauf hindeuten, dass solche Strategien erfolgreich sein können (z. B. Babcock, Loewenstein und Issacharoff, 1997)(11), kann das Recht diese Strategien einsetzen, um das Nichtwissen der Verbraucher zu reduzieren. >Verfügbarkeitsheuristik/Wirtschaftstheorien, >Risikowahrnehmung/Wirtschaftstheorien, >Optimismus/Wirtschaftstheorien. 1. Friedman, David Adam (2013). “Micropaternalism.” Tulane Law Review 88: 75–126. 2. Farnsworth, Ward (2003). “The Legal Regulation of Self-Serving Bias.” U.C. Davis Law Review 37: 567–603. 3. Jolls, Christine and Cass R. Sunstein (2006). “Debiasing through Law.” Journal of Legal Studies 35: 199–241. 4. Heller, Kevin Jon (2009). “The Cognitive Psychology of Mens Rea.” Journal of Criminal Law and Criminology 99: 317–379. 5. Williams, Sean Hannon (2009). “Sticky Expectations: Responses to Persistent Over-Optimism in Marriage, Employment Contracts, and Credit Card Use.” Notre Dame Law Review 84: 733–791. 6. Jolls, Christine (2013a). “Product Warnings, Debiasing, and Free Speech: The Case of Tobacco Regulation.” Journal of Institutional and Theoretical Economics 169: 53–78. 7. Jolls, Christine (2013b). “Bias and the Law of the Workplace,” in Cynthia L. Estlund and Michael L. Wachter, Hrsg., Research Handbook on the Economics of Labor and Employment Law, 275–295. Cheltenham: Edward Elgar Publishing. 8. Prentice, Robert A. and Mark E. Roszkowski (1991–92). “‘Tort Reform’ and the Liability ‘Revolution’: Defending Strict Liability in Tort for Defective Products.” Gonzaga Law Review 27: 251–302. 9. Schwartz, Alan (1988). “Proposals for Products Liability Reform: A Theoretical Synthesis.” Yale Law Journal 97: 353–419. 10. Weinstein, Neil D. and William M. Klein (2002). “Resistance of Personal Risk Perceptions to Debiasing Interventions,” in Thomas Gilovich, Dale Griffin, and Daniel Kahneman, eds., Heuristics and Biases: The Psychology of Intuitive Judgment, 313–323. New York: Cambridge University Press. 11. Babcock, Linda, George Loewenstein, and Samuel Issacharoff (1997). “Creating Convergence: Debiasing Biased Litigants.” Law and Social Inquiry 22: 913–925. Jolls, Christine, „Bounded Rationality, Behavioral Economics, and the Law“. In: Parisi, Francesco (Hrsg.) (2017). The Oxford Handbook of Law and Economics. Bd. 1: Methodology and Concepts. NY: Oxford University Press. |
Parisi I Francesco Parisi (Ed) The Oxford Handbook of Law and Economics: Volume 1: Methodology and Concepts New York 2017 |
| Konvergenz (Wirtschaft) | Feenstra | Feenstra I 10-30 Konvergenz/Feenstra: Die Konvergenzliteratur ist nicht durch die endogenen Wachstumsmodelle motiviert, sondern durch das exogene Wachstumsmodell wie Solow (1956)(1) und dessen Erweiterungen. >Endogenes Wachstum, >Exogenes Wachstum, >Wirtschaftswachstum. In diesen Modellen konvergieren alle Länder zur gleichen stetigen Wachstumsrate, was jedoch unterschiedliche Niveaus des Pro-Kopf-BIP (je nach den Merkmalen der Länder) zulässt. >Bruttoinlandsprodukt (BIP). Länder, die unter ihrem Steady-State-Niveau des BIP pro Kopf liegen, sollten also schneller wachsen, und umgekehrt sollten Länder, die über ihrem Steady-State-Niveau des BIP pro Kopf liegen, langsamer wachsen, um sich dem Steady-State zu nähern. Feenstra I 10-31 Diese Eigenschaft ergibt sich direkt aus dem abnehmenden Grenzprodukt des Kapitals. Es gibt sowohl Konvergenz bei den Wachstumsraten als auch ein gewisses Maß an Konvergenz beim Pro-Kopf-BIP (wenn auch nicht unbedingt auf dem gleichen Niveau in allen Ländern), und diese beiden Kriterien werden in der Regel synonym verwendet. Das Gleiche gilt für die Arbeiten, die sich mit dem Handel befassen und entweder die Auswirkungen auf die Wachstumsraten oder auf das Pro-Kopf-BIP in den einzelnen Ländern untersuchen. >Internationaler Handel. Seit den ersten Arbeiten von Barro (1991)(2) und Barro und Salai-i-Martin (1991(3), 1992(4)) fand die Konvergenzhypothese starke empirische Unterstützung. Dies wurde auch von Mankiw, Romer und Weil (1992)(5) nachgewiesen und führte sie zu der Schlussfolgerung, dass das ursprüngliche Solow-Modell, das in geeigneter Weise erweitert wurde, um Humankapital zu berücksichtigen, „gut genug“ ist, um länderübergreifende Unterschiede in den Wachstumsraten zu erklären: Endogene Wachstumsmodelle werden offensichtlich nicht benötigt! Diese Ergebnisse wurden jedoch in späteren Arbeiten, die ein breiteres Spektrum von Ländern berücksichtigen, in Frage gestellt. So betonen beispielsweise Easterly und Levine (2000)(6), dass die absoluten Pro-Kopf-Einkommen in den einzelnen Ländern auseinanderklaffen: Die reichen Länder sind reicher geworden und einige der ärmsten Länder sind noch ärmer geworden.* Ein ähnlicher Ansatz zur Bewertung der Auswirkungen des Handels wird von den oben genannten Autoren verfolgt. Sachs und Warner (1995)(7) teilen ihre Länder in zwei Gruppen ein, von denen die eine ein „offenes“ und die andere ein „geschlossenes“ Handelssystem aufweist. Innerhalb der offenen Gruppe finden sie Hinweise auf Konvergenz, wobei die ärmeren Länder schneller wachsen, was jedoch nicht für die Länder mit geschlossenen Handelsregelungen gilt. Diesem Argument zufolge führt Offenheit zu einer Konvergenz der Einkommen in den einzelnen Ländern. Ben-David (1993(8), 1998(9)) nimmt eine Gruppierung der Länder auf der Grundlage ihrer Mitgliedschaft in regionalen Handelsabkommen oder der Stärke ihrer bilateralen Handelsbeziehungen vor. Feenstra I 10-31 Die Feststellung, dass Konvergenz innerhalb von Gruppen, aber nicht zwischen Gruppen stattfindet, stellt eine Herausforderung für die exogenen Wachstumsmodelle dar. Dieses Ergebnis ist jedoch im Sinne des oben diskutierten endogenen Wachstumsmodells ohne Wissensspillover, bei dem die beiden Länder zu unterschiedlichen Wachstumsraten konvergierten. In einem allgemeineren Mehr-Länder-Wachstumsmodell, das den Handel einbezieht, kommt Ventura (1997)(10) ebenfalls zu diesem Ergebnis. * Bernanke und Gürkaynak (2001)(11) stellen auch die Schlussfolgerungen von Mankiw, Romer und Weil in Frage. 1. Solow, Robert M., 1956, “A Contribution to the Theory of Economic Growth,” Quarterly Journal of Economics, 70, 65-94. 2. Barro, Robert J., 1991, “Economic Growth in a Cross-Section of Countries,” Quarterly Journal of Economics, 106, 407-443. 3. Barro, Robert J. and Xavier Salai-i-Martin, 1991, “Convergence Across States and Regions,” Brookings Papers on Economic Activity, 1, 107-158. 4. Barro, Robert J. and Xavier Salai-i-Martin, 1992, “Convergence,” Journal of Political Economy, 100(2), 223-251. 5. Mankiw, N. Gregory, David Romer and David N. Weil, 1992, “A Contribution to the Empirics of Economic Growth,” Quarterly Journal of Economics, 107(2), 407-438. 6. Easterly, William and Ross Levine, 2000, “It Not Factor Accumulation: Stylized Facts and Growth Models,” World Bank and University of Minnesota, manuscript. 7. Sachs, Jeffrey and Andrew Warner, 1995, “Economic Reform and the Precess of Global Integration,” Brooking Papers on Economic Activity, 1, 1-118. 8. Ben-David, Dan, 1993, “Trade Liberalization and Income Convergence,” Quarterly Journal of Economics, 108(3), August, 653-679. 9. Ben-David, Dan, 1998, “Convergence Clubs and Subsistence Economies,” Journal of Development Economics, 55(1), February, 155-171. 10. Ventura, Jaume, 1997, “Growth and Interdependence,” Quarterly Journal of Economics, 107(1), February, 57-84. 11. Bernanke, Ben S. and Refet S. Gürkaynak, 2001, “Is Growth Exogenous? Taking Mankiw, Romer and Weil Seriously,” in Ben S. Bernanke and Kenneth Rogoff, eds., NBER Macroeconomics Annual, 2001. Cambridge: MIT Press, 11-57. |
Feenstra I Robert C. Feenstra Advanced International Trade University of California, Davis and National Bureau of Economic Research 2002 |
| Lerntheorie | Norvig | Norvig I 713 Lerntheorie/Norvig/Russell: [Hauptproblem:] Wie können wir sicher sein, dass unser Lernalgorithmus eine Hypothese aufgestellt hat, die den richtigen Wert für bisher ungesehene Inputs vorhersagen kann? Wie können wir formal gesehen wissen, dass die Hypothese h nahe an der Zielfunktion f liegt, wenn wir nicht wissen, was f ist? Über diese Fragen wird seit mehreren Jahrhunderten nachgedacht. In den letzten Jahrzehnten sind andere Fragen aufgetaucht: Wie viele Beispiele brauchen wir, um eine gute Hypothese h zu erhalten? Welchen Hypothesenraum sollten wir verwenden? Wenn der Hypothesenraum sehr komplex ist, können wir dann überhaupt das beste h finden, oder müssen wir uns mit einem lokalen Maximum im Norvig I 714 Hypothesenraum begnügen? Wie komplex sollte h sein? Wie vermeiden wir eine Überanpassung (overfitting)? (>Entscheidungsbaum/Norvig, >Komplexität/Norvig, >Lernen/KI-Forschung). Computational learning theory: (...) liegt an der Schnittstelle von KI, Statistik und theoretischer Informatik. Das zugrundeliegende Prinzip ist, dass jede Hypothese, die ernsthaft falsch ist, mit hoher Wahrscheinlichkeit nach einer kleinen Anzahl von Beispielen "entdeckt" wird, weil sie eine falsche Vorhersage macht. Daher ist es unwahrscheinlich, dass eine Hypothese, die mit einer ausreichend großen Anzahl von Trainingsbeispielen übereinstimmt, ernsthaft falsch ist: das heißt, sie muss wahrscheinlich annähernd richtig sein. PAC: Jeder Lernalgorithmus, der Hypothesen hervorbringt, die wahrscheinlich annähernd richtig sind, wird als PAC-Lernalgorithmus bezeichnet; wir können diesen Ansatz verwenden, um Grenzen für die Leistung verschiedener Lernalgorithmen festzulegen. Annahme der Stationarität: Zukünftige Beispiele werden aus der gleichen festgelegten Verteilung P(E)=P(X, Y ) wie frühere Beispiele gezogen. Richtigkeit: Eine Hypothese h wird als annähernd richtig bezeichnet, wenn der Fehler (h) ≤ ϵ ist, wobei es sich bei ϵ um eine kleine Konstante handelt. Wir werden zeigen, dass wir ein N finden können, sodass, nachdem wir N Beispiele gesehen haben, mit hoher Wahrscheinlichkeit alle konsistenten Hypothesen annähernd richtig sein werden. >Lernen/KI-Forschung, >Künstliche Neuronale Netze. Norvig I 757 Die computational learning theory analysiert die Komplexität der Stichprobe (sample complexity) und die Berechnungskomplexität (computational complexity) des induktiven Lernens. Es gibt einen Tradeoff zwischen der Expressivität der Sprache der Hypothese und der Leichtigkeit des Lernens. Die lineare Regression ist ein weit verbreitetes Modell. Die optimalen Parameter eines Modells der linearen Regression können durch eine gradient descent search gefunden oder exakt berechnet werden. Ein linearer Klassifikator mit einem hard threshold - auch als Perzeptron bekannt - kann durch eine einfache Regel zur Aktualisierung der Gewichte so trainiert werden, dass er zu Daten passt, welche linear trennbar sind. In anderen Fällen konvergiert die Regel nicht. Norvig I 759 Geschichte: Die Theorie des PAC-Lernens wurde von Leslie Valiant (1984)(1) eingeführt. In seiner Arbeit betonte er die Wichtigkeit der Berechnungs- und Stichprobenkomplexität. Zusammen mit Michael Kearns (1990)(2) zeigte Valiant, dass sich mehrere Konzeptklassen nicht sinnvoll mittels PAC-Lernen erlernen lassen, obwohl in den Beispielen genügend Informationen vorhanden sind. Einige positive Ergebnisse wurden für Klassen wie z.B. Entscheidungslisten erzielt (Rivest, 1987)(3). Eine unabhängige Tradition der Analyse von Stichprobenkomplexität hat in der Statistik existiert, beginnend mit den Arbeiten zur einheitlichen Konvergenztheorie (Vapnik und Chervonenkis, 1971)(4). Die sogenannte VC-Dimension liefert ein Maß, das in etwa analog zum, aber allgemeiner als das aus der PAC-Analyse gewonnene ln |H| Maß ist. Die VC-Dimension kann auf kontinuierliche Funktionsklassen angewendet werden, auf die die herkömmliche PAC-Analyse nicht anwendbar ist. Die PAC-Lerntheorie und die C-Theorie wurden zunächst durch die "vier Deutschen" (von denen keiner tatsächlich deutsch ist) miteinander verbunden: Blumer, Ehrenfeucht, Haussler und Warmuth (1989)(5). Die lineare Regression mit quadratischem Fehlerverlust geht auf Legendre (1805)(6) und Gauss (1809)(7) zurück, die beide an der Vorhersage von Umlaufbahnen um die Sonne arbeiteten. Die moderne Verwendung der multivariaten Regression für machine learning wird in Texten wie Bishop (2007)(8) behandelt. Ng (2004)(9) analysierte die Unterschiede zwischen der Regularisierung von L1- und L2. 1. Valiant, L. (1984). A theory of the learnable. CACM, 27, 1134-1142. 2. Kearns, M. (1990). The Computational Complexity of Machine Learning. MIT Press. 3. Rivest, R. (1987). Learning decision lists. Machine Learning, 2(3), 229-246. 4. Vapnik, V. N. and Chervonenkis, A. Y. (1971). On the uniform convergence of relative frequencies of events to their probabilities. Theory of Probability and Its Applications, 16, 264-280. 5. Blumer, A., Ehrenfeucht, A., Haussler, D., andWarmuth, M. (1989). Learnability and the Vapnik- Chervonenkis dimension. JACM, 36(4), 929–965. 6. Legendre, A. M. (1805). Nouvelles méthodes pour la détermination des orbites des comètes. 7. Gauss, C. F. (1809). Theoria Motus Corporum Coelestium in Sectionibus Conicis Solem Ambientium. Sumtibus F. Perthes et I. H. Besser, Hamburg. |
Norvig I Peter Norvig Stuart J. Russell Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010 |
| Lerntheorie | Russell | Norvig I 713 Lerntheorie/Norvig/Russell: [Hauptproblem:] Wie können wir sicher sein, dass unser Lernalgorithmus eine Hypothese aufgestellt hat, die den richtigen Wert für bisher ungesehene Inputs vorhersagen kann? Wie können wir formal gesehen wissen, dass die Hypothese h nahe an der Zielfunktion f liegt, wenn wir nicht wissen, was f ist? Über diese Fragen wird seit mehreren Jahrhunderten nachgedacht. In den letzten Jahrzehnten sind andere Fragen aufgetaucht: Wie viele Beispiele brauchen wir, um eine gute Hypothese h zu erhalten? Welchen Hypothesenraum sollten wir verwenden? Wenn der Hypothesenraum sehr komplex ist, können wir dann überhaupt das beste h finden, oder müssen wir uns mit einem lokalen Maximum im Norvig I 714 Hypothesenraum begnügen? Wie komplex sollte h sein? Wie vermeiden wir eine Überanpassung (overfitting)? >Entscheidungsbaum/Norvig, >Komplexität/Norvig, >Lernen/KI-Forschung. Computational learning theory: (...) liegt an der Schnittstelle von KI, Statistik und theoretischer Informatik. Das zugrundeliegende Prinzip ist, dass jede Hypothese, die ernsthaft falsch ist, mit hoher Wahrscheinlichkeit nach einer kleinen Anzahl von Beispielen "entdeckt" wird, weil sie eine falsche Vorhersage macht. Daher ist es unwahrscheinlich, dass eine Hypothese, die mit einer ausreichend großen Anzahl von Trainingsbeispielen übereinstimmt, ernsthaft falsch ist: das heißt, sie muss wahrscheinlich annähernd richtig sein. PAC: Jeder Lernalgorithmus, der Hypothesen hervorbringt, die wahrscheinlich annähernd richtig sind, wird als PAC-Lernalgorithmus bezeichnet; wir können diesen Ansatz verwenden, um Grenzen für die Leistung verschiedener Lernalgorithmen festzulegen. Annahme der Stationarität: Zukünftige Beispiele werden aus der gleichen festgelegten Verteilung P(E)=P(X, Y ) wie frühere Beispiele gezogen. Richtigkeit: Eine Hypothese h wird als annähernd richtig bezeichnet, wenn der Fehler (h) ≤ ϵ ist, wobei es sich bei ϵ um eine kleine Konstante handelt. Wir werden zeigen, dass wir ein N finden können, sodass, nachdem wir N Beispiele gesehen haben, mit hoher Wahrscheinlichkeit alle konsistenten Hypothesen annähernd richtig sein werden. >Lernen/KI-Forschung, >Künstliche Neuronale Netze. Norvig I 757 Die computational learning theory analysiert die Komplexität der Stichprobe (sample complexity) und die Berechnungskomplexität (computational complexity) des induktiven Lernens. Es gibt einen Tradeoff zwischen der Expressivität der Sprache der Hypothese und der Leichtigkeit des Lernens. Die lineare Regression ist ein weit verbreitetes Modell. Die optimalen Parameter eines Modells der linearen Regression können durch eine gradient descent search gefunden oder exakt berechnet werden. Ein linearer Klassifikator mit einem hard threshold - auch als Perzeptron bekannt - kann durch eine einfache Regel zur Aktualisierung der Gewichte so trainiert werden, dass er zu Daten passt, welche linear trennbar sind. In anderen Fällen konvergiert die Regel nicht. Norvig I 759 Geschichte: Die Theorie des PAC-Lernens wurde von Leslie Valiant (1984)(1) eingeführt. In seiner Arbeit betonte er die Wichtigkeit der Berechnungs- und Stichprobenkomplexität. Zusammen mit Michael Kearns (1990)(2) zeigte Valiant, dass sich mehrere Konzeptklassen nicht sinnvoll mittels PAC-Lernen erlernen lassen, obwohl in den Beispielen genügend Informationen vorhanden sind. Einige positive Ergebnisse wurden für Klassen wie z.B. Entscheidungslisten erzielt (Rivest, 1987)(3). Eine unabhängige Tradition der Analyse von Stichprobenkomplexität hat in der Statistik existiert, beginnend mit den Arbeiten zur einheitlichen Konvergenztheorie (Vapnik und Chervonenkis, 1971)(4). Die sogenannte VC-Dimension liefert ein Maß, das in etwa analog zum, aber allgemeiner als das aus der PAC-Analyse gewonnene ln |H| Maß ist. Die VC-Dimension kann auf kontinuierliche Funktionsklassen angewendet werden, auf die die herkömmliche PAC-Analyse nicht anwendbar ist. Die PAC-Lerntheorie und die C-Theorie wurden zunächst durch die "vier Deutschen" (von denen keiner tatsächlich deutsch ist) miteinander verbunden: Blumer, Ehrenfeucht, Haussler und Warmuth (1989)(5). Die lineare Regression mit quadratischem Fehlerverlust geht auf Legendre (1805)(6) und Gauss (1809)(7) zurück, die beide an der Vorhersage von Umlaufbahnen um die Sonne arbeiteten. Die moderne Verwendung der multivariaten Regression für machine learning wird in Texten wie Bishop (2007)(8) behandelt. Ng (2004)(9) analysierte die Unterschiede zwischen der Regularisierung von L1- und L2. 1. Valiant, L. (1984). A theory of the learnable. CACM, 27, 1134-1142. 2. Kearns, M. (1990). The Computational Complexity of Machine Learning. MIT Press. 3. Rivest, R. (1987). Learning decision lists. Machine Learning, 2(3), 229-246. 4. Vapnik, V. N. and Chervonenkis, A. Y. (1971). On the uniform convergence of relative frequencies of events to their probabilities. Theory of Probability and Its Applications, 16, 264-280. 5. Blumer, A., Ehrenfeucht, A., Haussler, D., andWarmuth, M. (1989). Learnability and the Vapnik- Chervonenkis dimension. JACM, 36(4), 929–965. 6. Legendre, A. M. (1805). Nouvelles méthodes pour la détermination des orbites des comètes. 7. Gauss, C. F. (1809). Theoria Motus Corporum Coelestium in Sectionibus Conicis Solem Ambientium. Sumtibus F. Perthes et I. H. Besser, Hamburg. |
Russell I B. Russell/A.N. Whitehead Principia Mathematica Frankfurt 1986 Russell II B. Russell Das ABC der Relativitätstheorie Frankfurt 1989 Russell IV B. Russell Probleme der Philosophie Frankfurt 1967 Russell VI B. Russell Die Philosophie des logischen Atomismus In Eigennamen, U. Wolf (Hg) Frankfurt 1993 Russell VII B. Russell On the Nature of Truth and Falsehood, in: B. Russell, The Problems of Philosophy, Oxford 1912 - Dt. "Wahrheit und Falschheit" In Wahrheitstheorien, G. Skirbekk (Hg) Frankfurt 1996 Norvig I Peter Norvig Stuart J. Russell Artificial Intelligence: A Modern Approach Upper Saddle River, NJ 2010 |
| Nichtwissen | Jolls | Parisi I 65 Nichtwissen/Nicht-Optimierung/Begrenzte Rationalität/Jolls: David Friedman's (2013)(1) Analyse der Hintergründe für das New Yorker "Soda-Gesetz" entwickelt beide Ausprägungen [Nichtwissen und Nicht-Optimierung]. >Begrenzte Rationalität/Simon. Nichtwissen: In Bezug auf Nichtwissen beschreibt Friedman, wie Optimismus dazu führt, dass Individuen "Fettleibigkeit ... und andere Konsequenzen" des übermäßigen Konsums von zuckerhaltigen Getränken unterschätzen (Friedman, 2013(1), S. 94). Nichtwissen: In Bezug auf Nicht-Optimierung zitiert Friedman den ehemaligen Bürgermeister von New York City, Michael Bloomberg, der meinte, das "Soda-Gesetz" sei "wirklich nur ein Vorschlag", der dazu tendiere, die Entscheidungsfindung durch "satisficing" (dt. genügend/befriedigend, erstbeste Möglichkeit wird gewählt) oder anderweitig nicht-optimierende Entscheidungsträger umzuleiten (...). Jolls: Beachten Sie, dass im Falle solcher relativ unreflektierter Konsumenten oder Konsumenten, die nach der "satisficing"-Methode agieren, die Nicht-Optimierung selbst zur Nicht-Rationalität beitragen kann, da Individuen, die reflexiv konsumieren, wahrscheinlich keine Informationen erhalten und genau verarbeiten, die für das Konsumverhalten relevant sind. >Begrenzte Rationalität. Begrenzte Rationalität/Jolls: Obwohl Nichtwissen und Nicht-Optimierung in Friedmans Analyse verbunden werden, gibt es wiederum keine notwendige Implikation, dass die beiden Aspekte der begrenzten Rationalität ähnliche normative Analysen hervorrufen. Friedmans eigener Fokus liegt darauf, wie das New Yorker "Soda-Gesetz" die spezifischen, diskreten Parameter der nominalen Begriffe des Gesetzes transzendierte und zum Gegenstand einer weitreichenden nationalen Debatte über Freiheit und Verantwortung wurde. >Begrenzte Rationalität/Jolls. Parisi I 66 Debiasing Strategien: siehe Farnsworth, 2003(2); Jolls und Sunstein, 2006(3); Heller, 2009(4); Williams, 2009(5); Jolls, 2013a(6); Jolls, 2013b(7)). Parisi I 67 Optimismus/gesetzliche Grenzen für Verbraucher: (...) Optimismus kann dazu führen, dass viele Verbraucher ihr persönliches Risiko unterschätzen (...). Dementsprechend kann Optimismus (vielleicht in Verbindung mit anderen Faktoren) rechtliche Beschränkungen für Verbrauchertransaktionen rechtfertigen; das Gesetz kann versuchen, die negativen Auswirkungen des Nichtwissens der Verbraucher zu minimieren, während es davon ausgeht, dass dieses Nichtwissen selbst fortbesteht (zum Beispiel Prentice und Roszkowski, 1991-92)(8). Eine solche Bemühung kann jedoch große eigene Kosten verursachen, wie Schwartz (1988)(9) und andere vorgeschlagen haben. Eine Alternative zu einem solchen Ansatz besteht darin, das Gesetz zu nutzen, um den Grad des Nichtwissens der Verbraucher in erster Instanz zu reduzieren. (...) nicht alle Formen eingeschränkter Rationalität sprechen auf Entschärfungsstrategien an (z. B. Weinstein und Klein, 2002)(10); aber in Kontexten, in denen sozialwissenschaftliche Erkenntnisse darauf hindeuten, dass solche Strategien erfolgreich sein können (z. B. Babcock, Loewenstein und Issacharoff, 1997)(11), kann das Recht diese Strategien einsetzen, um das Nichtwissen der Verbraucher zu reduzieren. >Verfügbarkeitsheuristik/Wirtschaftstheorien, >Risikowahrnehmung/Wirtschaftstheorien, >Optimismus/Wirtschaftstheorien. 1. Friedman, David Adam (2013). “Micropaternalism.” Tulane Law Review 88: 75–126. 2. Farnsworth, Ward (2003). “The Legal Regulation of Self-Serving Bias.” U.C. Davis Law Review 37: 567–603. 3. Jolls, Christine and Cass R. Sunstein (2006). “Debiasing through Law.” Journal of Legal Studies 35: 199–241. 4. Heller, Kevin Jon (2009). “The Cognitive Psychology of Mens Rea.” Journal of Criminal Law and Criminology 99: 317–379. 5. Williams, Sean Hannon (2009). “Sticky Expectations: Responses to Persistent Over-Optimism in Marriage, Employment Contracts, and Credit Card Use.” Notre Dame Law Review 84: 733–791. 6. Jolls, Christine (2013a). “Product Warnings, Debiasing, and Free Speech: The Case of Tobacco Regulation.” Journal of Institutional and Theoretical Economics 169: 53–78. 7. Jolls, Christine (2013b). “Bias and the Law of the Workplace,” in Cynthia L. Estlund and Michael L. Wachter, Hrsg., Research Handbook on the Economics of Labor and Employment Law, 275–295. Cheltenham: Edward Elgar Publishing. 8. Prentice, Robert A. and Mark E. Roszkowski (1991–92). “‘Tort Reform’ and the Liability ‘Revolution’: Defending Strict Liability in Tort for Defective Products.” Gonzaga Law Review 27: 251–302. 9. Schwartz, Alan (1988). “Proposals for Products Liability Reform: A Theoretical Synthesis.” Yale Law Journal 97: 353–419. 10. Weinstein, Neil D. and William M. Klein (2002). “Resistance of Personal Risk Perceptions to Debiasing Interventions,” in Thomas Gilovich, Dale Griffin, and Daniel Kahneman, eds., Heuristics and Biases: The Psychology of Intuitive Judgment, 313–323. New York: Cambridge University Press. 11. Babcock, Linda, George Loewenstein, and Samuel Issacharoff (1997). “Creating Convergence: Debiasing Biased Litigants.” Law and Social Inquiry 22: 913–925. Jolls, Christine, „Bounded Rationality, Behavioral Economics, and the Law“. In: Parisi, Francesco (Hrsg.) (2017). The Oxford Handbook of Law and Economics. Bd. 1: Methodology and Concepts. NY: Oxford University Press. |
Parisi I Francesco Parisi (Ed) The Oxford Handbook of Law and Economics: Volume 1: Methodology and Concepts New York 2017 |
| Persönlichkeitssystem | Neurowissenschaften | Corr I 391 Persönlichkeitssystem/Neurowissenschaften/Saucier: Die zeitgenössische Neurowissenschaft hat vielversprechende Theorien entwickelt, die unterschiedliche Hirnsysteme oder -schaltungen positionieren und dann individuelle Unterschiede in der Funktionsweise dieser Systeme/Schaltungen über psychobiologische Endophänotypen mit offenen Persönlichkeitsmerkmalen verbinden. Ein Paradebeispiel ist der Satz von Theorien (z.B, Carver and White 1994(1); Torrubia, Avila, Molto und Caseras 2001(2)), ursprünglich von Gray (1983)(3) stammend, der unterschiedliche Gehirnsysteme für Annäherung (oder Belohnungssensitivität oder Verhaltensaktivierung) und Vermeidung (oder Rückzug, oder Bedrohungs- oder Strafempfindlichkeit oder Verhaltenshemmung) festlegen und manchmal ein drittes "Zwangs-" oder Selbstregulierungssystem hinzufügen (Carver 2005(4); vgl. Rothbart and Bates 1998(5)). >Charakterzüge, >Persönlichkeit, >Selbstregulation. 1. Carver, C. S. and White, T. 1994. Behavioural inhibition, behavioural activation, and affective responses to impending reward and punishment: the BIS/BAS scales, Journal of Personality and Social Psychology 67: 319–33 2. Torrubia, R., Avila, C., Molto, J. and Caseras, X. 2001. The Sensitivity to Punishment and Sensitivity to Reward Questionnaire (SPSRQ) as a measure of Gray’s anxiety and impulsivity dimensions, Personality and Individual Differences 31: 837–62 3. Gray, J. A. 1983. Where should we search for biologically based dimensions of personality?, Zeitschrift für Differentielle und Diagnostische Psychologie 42: 163–74 4. Carver, C. S. 2005. Impulse and constraint: perspectives from personality psychology, convergence with theory in other areas, and potential for integration, Personality and Social Psychology Review 9: 312–33 5. Rothbart, M. K. and Bates, J. E. 1998. Temperament, in W. Damon (Series ed.) and N. Eisenberg (Vol. ed.), Handbook of child psychology, vol. III, Social, emotional and personality development, 5th edn, pp. 105–76. New York: Wiley Gerard Saucier, „Semantic and linguistic aspects of personality“, in: Corr, Ph. J. & Matthews, G. (eds.) 2009. The Cambridge handbook of Personality Psychology. New York: Cambridge University Press |
Corr I Philip J. Corr Gerald Matthews The Cambridge Handbook of Personality Psychology New York 2009 Corr II Philip J. Corr (Ed.) Personality and Individual Differences - Revisiting the classical studies Singapore, Washington DC, Melbourne 2018 |
| Sprechen | Entwicklungspsychologie | Upton I 63 Sprechen/Entwicklungspsychologie/Upton: Die Sprachproduktion entwickelt sich nach dem Verständnis. Frühe Sprecher können ihr erstes Wort nach etwa neun oder zehn Monaten produzieren, aber viele Kinder produzieren ihr erstes Wort erst zwischen ihrem ersten und zweiten Geburtstag. Ähnlich wie beim Verstehen sind die ersten Wörter in ihrer Anzahl begrenzt und Über- und Untergeneralisierungen werden beide häufig bei der Verwendung der ersten Wörter gesehen (Woodward und Markman, 1998)(1). >Sprachentwicklung/Entwicklungspsychologie. Übergeneralisierung: Übergeneralisieren eines Wortes durch kleine Kinder, um Ereignisse/Objekte abzudecken, die über das hinausgehen, wofür das Wort normalerweise verwendet wird, wie z.B. alle Tiere "Hund" zu nennen. Untergeneralisierung: Untergeneralisieren der Grenzen einer Wortbedeutung auf zu wenige Fälle durch ein Kleinkind, z.B. wenn ein Kind das Wort "Hund" auf Situationen beschränkt, in denen es mit einem Spielzeug spielt, aber dann das Tier im Park nicht als "Hund" bezeichnet. Die Wortproduktion nimmt bis zirka Ende des zweiten Lebensjahres allmählich zu, wenn es einen Wortschatzspurt gibt (Bloom et al., 1985)(2). Etwa zur gleichen Zeit ist eine qualitative Veränderung des Sprachgebrauchs zu beobachten, wenn Kleinkinder beginnen, Zwei-Wort-Phrasen zu verwenden. 1. Woodward, AL and Markman, EM (1998) Early word learning, in Kuhn, D and Siegler. RS (eds), Damon, W (series ed.) Handboook of Child Psychology, Vol. 2: Cognition, perception, and languoge (5th edn) pp37 1-420). New York: Wiley. 2. Bloom L, Lifter, K and Broughton, J (1985) The convergence of early cognition and language in the second year of life: problems in conceptualisation and measurement, in Barrett, M (ed.) Children’s Single-word Speech. London: Wiley-Blackwell. |
Upton I Penney Upton Developmental Psychology 2011 |
| Verteilungsgerechtigkeit | Klimapolitik | Norgaard I 328 Verteilungsgerechtigkeit/Emissionen/Klimapolitik: (...) eine Reihe von Nicht-Philosophen leisteten frühe Beiträge, die explizit traditionelle Gerechtigkeitstheorien wie Utilitarismus, Rawlsianismus und Kantianismus und ihre Anwendbarkeit auf die Minderungspolitik analysierten (Solomon(1) und Ahuja 1991(2); Ghosh 1993(3); Paterson 1996(4)). (...) >Gerechtigkeit, >I. Kant, >J. Rawls, >Utilitarismus. Die Idee der gleichen Pro-Kopf-Emissionsrechte war immer wieder ein Schwerpunkt für Verfechter einer gerechten Klimapolitik, die oft argumentiert haben, dass sie eine notwendige Antwort auf die Zusammenarbeit der Entwicklungsländer ist (Meyer 2000(5); Athanasiou und Baer 2002(6)) sowie eine faire Lösung an sich. Norgaard I 330 (…) die meisten Analysten, die das Problem aus ethischer Sicht untersucht haben, sind zu dem Schluss gekommen, dass die Gleichstellung pro Kopf ein Mindeststandard der Verteilungsgerechtigkeit ist, da sie unverhältnismäßige historische Emissionen ignoriert, auch wenn man den Zeitraum der "Verantwortung" auf (sagen wir) 1990 begrenzt, als das Wissen über die Risiken der Treibhausgasemissionen weit verbreitet war (Jamieson 2001(7); Singer 2002(8)). Es ist aber auch üblich, einfach zu behaupten, dass "die Finanztransfers, die mit gleichen Pro-Kopf-Zuweisungen verbunden sind, für die reichen Länder inakzeptabel wären" (z.B. Ashton und Wang 2003(9); Posner und Sunstein 2008(10)), was kein Argument für Gerechtigkeit, sondern für Macht ist. >Macht. 1. Solomon, B. 1995. Global CO2 emissions trading: Early lessons from the U.S. Acid Rain Program. Climatic Change 30: 75–96. 2. Ahuja, D. R. 1991. International reductions in greenhouse‐gas emissions: An equitable and efficient approach. Global Environmental Change 1: 343–50. 3. Ghosh, P. 1993. Structuring the equity issue in climate change. Pp. 267–74 in A. N. Achanta (ed.), The Climate Change Agenda: An Indian Perspective. Tata Energy Research Institute, New Delhi. 4. Paterson, M. 1996. International justice and global warming. Pp. 181–201 in B. Holden (ed.), The Ethical Dimensions of Global Change. New York: St Martin's Press. 5. Meyer, A. 2000. Contraction and Convergence: The Global Solution to Climate Change. Totnes: Green Books. 6. Athanasiou, T., and Baer, P. 2002. Dead Heat: Global Justice and Global Warming. New York: Seven Stories Press. 7. Jamieson, D. 2001. Climate change and global environmental justice. Pp. 287–308 in C. A. Miller and P. N. Edwards (eds.), Changing the Atmosphere: Expert Knowledge and Environmental Governance. Cambridge, 8. Singer, P. 2002. One World: The Ethics of Globalization. New Haven: Yale University Press. 9. Ashton, J., and Wang, X. 2003. Equity and climate: In principle and practice. Pp. 61–84 in J. E. Aldy, J. Ashton, R. Baron, et al. (eds.), Beyond Kyoto: Advancing the International Effort Against Climate Change. Washington, DC: Pew Center on Global Climate Change. 10. Posner, E. A., and Sunstein, C. R. 2008. Climate change justice. Georgetown Law Journal 96: 1565–612. Baer, Paul: “International Justice”, In: John S. Dryzek, Richard B. Norgaard, David Schlosberg (eds.) (2011): The Oxford Handbook of Climate Change and Society. Oxford: Oxford University Press. |
Norgaard I Richard Norgaard John S. Dryzek The Oxford Handbook of Climate Change and Society Oxford 2011 |