-Zwei verwandte Vorstellungen
o 1. Vollkommener Markt als vereinfachendes Grundmodell der neoklassischen Ökonomik
o 2. Vollständige Konkurrenz als wirtschaftspolitisches Leitbild und anzustrebendes Ideal der Wirtschaftspolitik
-Prämissen des Modells
o Rationales Verhalten aller Marktteilnehmer
o Homogene Güter (keine verschiedenen Qualitäten von Produkten/Dienstleistungen)
o Keine persönlichen, zeitlichen, sachlichen oder räumlichen Präferenzen der Konsumenten
o Perfekte Information (Markttransparenz – keine Informationsunterschiede)
o Unendlich schnelle Reaktionen (können ohne zeitlichen Verzug reagieren)
o Freier Marktein‐ und Marktaustritt
o Warum nutzen Ökonomen den vollkommenen Markt als Referenzmodell? – es ist sehr praktisch!
o Ceteris paribus-Analysen möglich – wenn sich irgendeine Komponente ändert, ist das Ergebnis klar absehbar
o Gleichgewichtsanalyse – simpel festzustellen wo Gleichgewichtspreis/-menge liegt
o Komparativ-Statistisch – Gleichgewichte sind einfach zu verschieben
Die Grenzkosten geben an, wie viel zusätzliche Kosten entstehen, wenn ein Unternehmen eine weitere Einheit eines Produkts herstellt.
Formel: Grenzkosten=ΔKosten/ΔMenge
Beispiel: Wenn ein Unternehmen durch die Produktion von 101 statt 100 Einheiten insgesamt 10 Euro mehr ausgibt, betragen die Grenzkosten 10 Euro (das letzte produzierte Gut)
Wichtig: Grenzkosten helfen bei der Entscheidung, ob sich die Produktion einer weiteren Einheit lohnt.
Der Grenznutzen zeigt, welchen zusätzlichen Nutzen oder Zufriedenheit ein Konsument durch den Konsum einer weiteren Einheit eines Gutes erhält.
Formel: Grenznutzen=ΔNutzen/ΔMenge
Beispiel: Wenn jemand beim ersten Stück Pizza sehr glücklich ist, beim zweiten noch etwas, aber beim dritten kaum noch mehr Freude empfindet, sinkt der Grenznutzen mit jeder weiteren Einheit.
Wichtig: Der Grenznutzen nimmt in der Regel ab – das nennt man abnehmenden Grenznutzen.
In der Entscheidungstheorie vergleicht man oft Grenznutzen und Grenzkosten:
Rational handelnde Menschen konsumieren oder produzieren so lange, wie Grenznutzen ≥ Grenzkosten.
Optimal ist der Punkt, an dem Grenznutzen = Grenzkosten
Die x-Achse zeigt die Menge (z. B. produzierte Einheiten).
Die y-Achse zeigt die Grenzkosten pro Einheit.
Die Grenzkostenkurve verläuft meistens U-förmig:
Steigende GK: Produktion wird teurer – jede zusätzliche Einheit kostet mehr. Ein Hinweis, dass man die Kapazitätsgrenze erreicht.
Sinkende GK: Produktion wird effizienter – Skalenvorteile, lohnt sich ggf. zu expandieren.
Schnittpunkt mit Durchschnittskosten (DK): Die Grenzkostenkurve schneidet die Durchschnittskostenkurve immer im Minimum der DK (tiefster Punkt der Kosten) → Das ist ein wichtiges Effizienzkriterium.
-Zentrales Werk: „Gesetz des einheitlichen Preises“ – William S. Jevons (1835-1882)
o Bei homogenen Gütern und ohne Präferenzunterschiede, bei perfekter Markttransparenz und unendlicher Anpassungsgeschwindigkeit gibt es nur einen Preis: „Im gleichen vollkommenen Markt kann es zu keinem Zeitpunkt zwei Preise für das gleiche Gut geben.“
==> keine Arbitrage oder Wertsteigerung / keine Möglichkeit durch Handel Geld zu verdienen (und damit schon unrealistisch)
-Dieser Preis ist der markträumende Gleichgewichtspreis (Modell-Preis)
-Er wird durch Angebot und Nachfrage bestimmt.
-Er entspricht den Grenzkosten der Unternehmer (keine Auf- oder Abschläge)
-Die Unternehmer machen keine Gewinne (Preis ist gleichzeitig das Durchschnittskostenmimum/DK)
-Es wird die größtmögliche Menge gehandelt, die kostendeckend produziert werden kann, d.h. Preis ohne Verluste
==> Jedes markträumende Gleichgewicht an einem vollkommenen Markt ist pareto‐effizient.
==> Entspricht zusammengenommen dem ersten Hauptsatz der Wohlfahrtsökonomik
-Zentral ist auch hier die Freibuger Schule und Walter Eucken (1891-1950)
o „Wenn sowohl Anbieter als auch Nachfrager in Konkurrenz miteinander liegen und wenn sie danach ihre Wirtschaftspläne aufbauen, so ist die Marktform der vollständigen Konkurrenz realisiert.“
o „In der Wettbewerbsordnung aber wird gerade die Lenkung des Wirtschaftsprozesses durch die Preise der vollständigen Konkurrenz und durch die Pläne der vielen Haushalte und Betriebe, die sich an diesen Preisen ausrichten, vollzogen.“
==> Wirtschaftsakteure werden gelenkt durch Preise, auf die die Akteure keinen Einfluss haben
-Dies garantiert das zentrale konstituierende Prinzip:Funktionierendes Preissystem
-Ziel ist die Entmachtung staatlicher und privater Akteure und die Integration und freie Koordination aller Marktteilnehmer.
-„Vollständige Konkurrenz besteht nicht im Kampf von Mann gegen Mann, sondern vollzieht sich in paralleler Richtung. Sie ist nicht Behinderungs‐ oder Schädigungswettbewerb, sondern Leistungswettbewerb.“
==> Niemand ist so mächtig, dass er Preise alleine bestimmen kann
==> Es geht nicht um Gewinner und Verlierer, sondern darum, was geleistet wird im Wettbewerb!
= Situationen in denen individuell rationales Verhalten (systematisch) zu kollektiv irrationalen Ergebnissen (d.h. pareo-inffezienten) führt
-Risikosfaktoren
-1. Öffentliche Güter
-2. Externe Effekte
-3. Natürliche Monopole
-4. Asymmetrische Information
==> Bedenke: Marktversagen ist nur die notwendige Bedingung für die Empfehlung eines Staatseingriffs! – hinreichende Bedingung (beweisen, dass Staatseingriff zu einem besseren Ergebnis kommt) muss noch erbracht werden
-Machtstellung sollte eigentlich durch Konkurrenten eingedämmt werden
-Vorübergehende Monopole von Pionierunternehmen und staatlich geschützte Monopole sind kein Marktversagen!
o Soziales Dilemma, in dem individuell rationales Verhalten zu einem kollektiv „irrationalen“ Ergebnis führt
o Die Story: Gruppe wird verhaftet. Man kann ihnen nur Kleinigkeiten nachweisen. Harte Bestrafung droht nur, wenn einer oder mehrere „reden“. Jeder Einzelne muss sich entscheiden, zu „schweigen“ oder sich durch ein Geständnis Straferleichterung zu verschaffen, dadurch aber alle anderen verraten.
o Die Dilemma-Struktur: Aus der Gruppenperspektive ist „alle schweigen“ die beste Option. Aus individueller Perspektive ist „reden“ die beste Option. Wenn es der Gruppe nicht gelingt, diesen Gegensatz aufzulösen, wird individuell rational nutzenmaximierendes Verhalten zum kollektiv unvorteilhaftesten Ergebnis führen.
-Individuell ist 0 besser als -1 und -2 besser als -3 …deshalb ist „reden“ die individuell rationale Strategie unabhängig vom Verhalten der anderen („dominante Strategie“).
-Als Gruppe jedoch ist das Resultat des rationalen Verhaltens, also vier Jahre Haft (-2/-2), das kollektiv schlechteste denkbare Ergebnis.
==> Nicht testen wäre die dominante Strategie
==> jetzt ist Testen die dominante Strategie – Gefangenendilemma wird durch Regeländerung aufgelöst
o Eigenschaften des öffentlichen Gutes:
§ Die Nutzung ist nicht rival.
§ Niemand kann von der Nutzung ausgeschlossen werden.
o Jedes Individuen versucht, seinen eigenen Kostenanteil möglichst gering zu halten und auf Kosten der Anderen Trittbrett zu fahren. Da dies für jedes Individuum gilt, wird eine geringere Menge des öffentlichen Guts als die effiziente Menge bereitgestellt oder im Extremfall wird es gar nicht bereitgestellt (schwache vs. starke Freerider-These).
Horizontale Addition der Nachfrage privater Güter
==> Jedes Individuum erhält die Menge, die es bei diesem Preis nachfragt (N1 erhält Menge X1 und N2 erhält Menge X2 – Bereitgestellt werden muss die Summe dieser Mengen, nämlich X*)
==> Grenznutzen und Grenzkosten müssen sich hier immer entsprechen
Es gab nur zwei Nachfragekurven N1 und N2 und eine aggregierte N.
Die horizontale Addition war angedeutet durch das Summieren der Mengen bei gegebenem Preis p∗, sodass man die Gesamtmenge x∗ bekam.
Es wurde außerdem eine Angebotskurve gezeigt (A), wodurch der Gleichgewichtspreis bestimmt wurde.
➡ Besonderheit:
Zeigt eher das Marktgleichgewicht, inkl. Angebot und Nachfrage.
Ebenfalls die Horizontale Addition der Nachfrage privater Güter - u.a. ohne Angeborskurve
Zeigt drei Nachfragefunktionen N1,N2,N3 und ihre horizontale Addition zur Gesamtnachfragekurve NGesamt.
Die Summation ist stückweise (sogenannte „Knick-Nachfragekurve“), weil die individuellen Nachfragekurven unterschiedliche Preis-Abschnittsstellen haben (z. B. N3 bricht früher ab als N1).
Es wird für einen Preis (z. B. p=6) die Gesamtmenge durch Addition der Einzelnachfragen bestimmt (34).
Man weiss genau wie viel konsumiert wird
Zeigt explizit die Herleitung der Gesamtnachfragekurve, wie sie entsteht, wenn man individuelle Nachfragen zusammenfass
Vertikale Addition der Nachfrage öffentlicher Güter
==> Nachfrage wird vertikal aufaddiert – wie hoch ist Zahlungsbereitschaft eines Individuums bei einer bestimmten Menge?
==> Wie hoch ist die Zahlungsbereitschaft in Summe? – Summe entspricht dem Gleichgewichtspreis
Achsen:
p: Preis bzw. Zahlungsbereitschaft / Grenznutzen
x: Menge des Gutes (z. B. bereitgestellte Einheiten)
Zeigt mehrere Preisniveaus (p∗,p2,p1) und illustriert so, wie die Zahlungsbereitschaften übereinanderliegen.
Kurven:
N1,N2: individuelle Nachfragekurven, die hier die individuelle Zahlungsbereitschaft für verschiedene Mengen zeigen.
N: aggregierte Nachfragekurve, die durch vertikale Addition der individuellen Zahlungsbereitschaften entsteht. (D.h. man addiert bei jeder Menge x die Zahlungsbereitschaften der Individuen.)
A: Angebotskurve, oft die Grenzkostenkurve
Formel in Rot:
GK=GN1+GN2+GNu…
➔ zeigt, dass die effiziente Bereitstellung öffentlicher Güter dort stattfindet, wo die Summe der Grenznutzen (GN) aller Individuen = Grenzkosten (GK) ist
Legt den Fokus auf das Marktgleichgewicht für öffentliche Güter (Angebot = Summe der Grenznutzen).
==> Tun sie aber nicht! Immer ein Anreiz da, die wahre Zahlungsbereitschaft zu verschleiern(dann kommt das Trittbrettfahrerproblem ins Spiel)
Ebenfalls eine Vertikale Addition der Nachfrage eines öffentlichen Gutes
p: Preis bzw. Zahlungsbereitschaft (Grenznutzen, willingness to pay)
x: Menge des öffentlichen Gutes
Zeigt bei einem Preis (6) wie die vertikale Addition der Zahlungsbereitschaften zur Gesamtbereitschaft führt, wodurch sich die Gesamtnachfragekurve ergibt.
N1,N2,N3 → individuelle Nachfragekurven, die hier die Zahlungsbereitschaften für jede Menge angeben.
NGesamt(rot) → die vertikal aggregierte Nachfragekurve, d.h. die Summe der Zahlungsbereitschaften aller Individuen bei jeder Menge
Bei der Menge 36,4/7(also ca. 36,57) gilt:
Die Gesamtsumme der Zahlungsbereitschaften ist 6.
Oder andersherum:
Wenn die Bereitstellungskosten (z. B. Grenzkosten) bei 6 liegen, ist das die effiziente Bereitstellungsmenge.
Legt den Fokus rein auf die Konstruktion der aggregierten Nachfrage durch vertikale Addition
Zeigt vor allem das mechanische Verfahren der vertikalen Addition ohne weitere Marktaspekte
Bedeutung der vertikalen Addition
o Bei öffentlichen Gütern konsumieren alle dieselbe Menge. ➔ Man kann alsonicht die Mengen horizontal addieren, weil jeder dieselbe Menge genießt.
o Deshalb summiert man beigleicher Menge die individuellen Zahlungsbereitschaften. ➔ Vertikale Addition der Nachfragekurven.
o Dadurch bekommt man die aggregierte Zahlungsbereitschaft bei jeder Menge (die rote Linie NGesamt)
==> keine Rivalität im Konsum – wäre zu viel, die Sättigungsmenge gelten für mehrere Teilnehmer
-Individuen können aufgrund der Nicht‐Ausschließbarkeit bei Öffentlichen Gütern davon ausgehen, dass sie sowieso von der Bereitstellung des Gutes profitieren können – wenn die Anderen zahlen
-Somit haben sie Anreize, ihre wahre Zahlungsbereitschaft zu verschleiern - Trittbrettfahrerproblem
-Starke Freerider‐These – wenn Individuum1 und Individuum 2 beide behaupten keine Zahlungsbereitschaft zu haben = Keine Bereitstellung (empirisch kaum möglich)
-Schwache Freerider‐These – ein Individuum untertreibt Zahlungsbereitschaft und Nachfrage – bereitgestellte Menge ist vermutlich zu wenig = Ineffiziente Bereitstellung
==> beide Thesen führen zu Marktversagen
-Auch in kollektiven Entscheidungsprozessen mangelt es an Verfahren zur Ermittlung der tatsächlichen Zahlungsbereitschaften – die Verfahren sind oft von verschiedenen Interessensgruppen durchdrungen
-Weder die Menge noch die Zahlungsanteile für Einzelne werden ideal sein.
==> Erwartung der Vorteilhaftigkeit einer staatlichen Bereitstellung öffentlicher Güter im Vergleich zu dezentraler Bereitstellung muss im Einzelfall geprüft werden.
-Externe Effekte technologische (nicht‐pekuniäre/nicht durch Preisänderungen verursachte – das wäre wiederum vom Markt gewünscht) Auswirkungen ökonomischer Entscheidungen auf unbeteiligte Dritte (Marktversagen)
o Extern bedeutet, sie sind nicht Teil des Entscheidungskalküls der Akteure (quasi ausversehen/unebabsichtigt)
o Können positive und negative Auswirkungen haben
Konsumexternalitäten
-Privater GN +/- externer Effekt = sozialer GN (wird um externen Effekt korrigiert)
==> Im Fall negativer (positiver) Konsumexternalitäten fällt der soziale Grenznutzen geringer (höher) aus als die private Nachfrage erkennen lässt.
Produktionsexternalitäten
-Private GK +/- externer Effekt = soziale GK (wird um externen Effekt korrigiert)
==> Im Fall negativer (positiver) Produktionsexternalitäten fallen die sozialen Grenzkosten höher (geringer) aus als das private Angebot erkennen lässt.
-Die externen Effekte, die Individuum A durch seine Konsumentscheidung oder seine Produktionsentscheidung auf Individuum B bewirkt, sollten im Entscheidungskalkül von A berücksichtigt werden:
-Externe Effekte müssen „internalisiert“ werden – ins Kalkül mithineingenommen werden (Rücksicht nehmen)
o Wirtschaftliches Beispiel: Fusionierung zweier Firmen – keine Konkurrenten mehr, sondern arbeiten beide für den gemeinsamen Gewinn
o Geht zurück auf Arthur Cecil Pigou (1887-1959)
o Pigou-Subvention für positive Effekte
o Nichts mit Fiskalpolitik o.Ä. zu tun, dient nur dazu den externen Effekt zu internalisieren
o Lenkungsabgabe zur Korrektur des Marktversagens: Die Höhe der Stücksteuer bemisst sich an der tatsächlichen Nutzenveränderung des vom externen Effekt betroffenen Marktteilnehmers (im optimalen Konsum-/Produktionspunkt)
o Probleme: Genaue Kenntnisse über die (häufig je nach Menge unterschiedliche) Höhe der externen Effekte als Voraussetzung für optimale Besteuerung – ist also quasi inidividuell
o Geht zurück auf Ronald Coase (1910-2013) – The Problem of Social Cost
o Eigentumsrechte zur Korrektur des Marktversagens – wenn diese klar formuliert sind, dann könnten Marktteilnehmer die externen Effekte durch Verhandlungen über Kompensationszahlungen internalisieren – können so dezentral zur optimale Korrekturmenge kommen
o Probleme: Es muss Klarheit über die Eigentumsrechte herrschen, die Verhandlungen müssen möglich sein und für das optimale Ergebnis dürfen keine Transaktionskosten entstehen (schwierig)
-Wo die Politiker über die Festlegung von Eigentumsrechten hinaus aktiv werden wollen und auf ordnungsrechtliche Maßnahmen (Gebote/Verbote) verzichten, greifen sie häufig zu Steuer‐ oder Subventionslösungen nach dem „Standard‐Preis‐Ansatz“ oder zu Lösungen (Pigou-Lösung kaum machbar), die zumindest teilweise Verhandlungen zulassen, wie etwa einen Handel mit Verschmutzungs‐ oder Nutzungsrechten (Co2-Zertifikate gehen in diese Richtung, aber nur bedingt, Lenkung ist hier zentral)
-In beiden Fällen wird nicht mehr ein ökonomisch ideales Ausmaß der Konsum‐ oder Produktionsmenge ermittelt, sondern eine politisch angestrebte Menge festgelegt.
o Eine dezentrale Verhandlungslösung wäre denkbar, wenn…
§ … Eigentumsrechte eindeutig definiert wären.
§ … geringe Transaktionskosten bestünden.
o Eine Steuerlösung wäre insbesondere dann zielführend, wenn…
§ … der Staat über die relevanten Parameter ausreichend informiert wäre bzw. wenn die Kosten der Informationsbeschaffung gering wären.
-Bei fast allen Entscheidungen auf Märkten lassen sich externe Effekte auf unbeteiligte Dritte beobachten (geht quasi überall und durch alles)
-Das damit theoretisch vorliegende Marktversagen könnte geheilt werden, wenn eine Internalisierung der externen Effekte gelingt.
-Häufig gelingt es den Betroffenen tatsächlich durch Verhandlungen Lösungen zu finden, wenn die Eigentumsrechte klar definiert und durchsetzbar sind (ist quasi alltäglich)
-Überall, wo einer Verhandlungslösung zu hohe Transaktionskosten entgegenstehen, muss die Frage geprüft werden, ob dieselben oder ähnliche Transaktionskosten auch bei staatlichen Eingriffen zu erwarten sind. Womöglich ist das Erdulden der externen Effekte die effizientere Lösung – Probleme sind oftmals zu gering, Transaktionskosten wären zu hoch
-Bei ordnungsrechtlichen Vorgaben, Steuern, Subventionen oder der Einführung von Handelssystemen mit Nutzungsrechten oder Verpflichtungen muss im Einzelfall abgewogen werden, ob pareto‐superiore Ergebnisse erwartet werden.
-Natürliche Monopole liegen meist begründet in subadditiven Kostenstrukturen – economies of scale
o Durchschnittskosten fallen über den gesamten relevanten Bereich (im Bereich der existenten Nachfrage)
o Grenzkosten liegen unterhalb der Durchschnittskosten
o Ein Anbieter ist in der Lage, die gesamte Nachfrage zu geringeren Kosten zu bedienen als mehrere – wenn Konkurrenten in den Markt eindringen wollten (und der Markt aufgeteilt werden würde), würden höhere Kosten entstehen, da der beim bereits bestehenden Anbieter alle Investitionen bereits getätigt sind (Wettbewerb mit diesem Anbieter macht keinen Sinn)
-Beispiele
o Subadditive Kostenstrukturen sind häufig der Fall, wenn Fixkosten im Vergleich zu variablen Kosten sehr hoch sind
§ Schienennetz (ein zweites Macht kaum Sinn)
§ Stromleitungen (ein zweites Macht kaum Sinn)
§ Tunnel (ein zweiter macht keinen Sinn)
-Dynamische Ineffizienz: Marktakteure suchen aufgrund ihrer komfortablen Marktstellung nicht effizient nach neuen Technologien und Produktverbesserungen – Monopolist ist nicht darauf angewiesen die Präferenzen der Kunden zu bedienen – schöpft Gewinne aus Status und Machtstellung am Markt (keine Dynamik am Markt)
-Statische Ineffizienz: Produktions‐ und Preisentscheidungen von Monopolisten sind im Vergleich zu Unternehmen auf Konkurrenzmärkten ineffizient – Wohlfahrtsverlust als Folge
Diese Grafik zeigt, wie ein Monopolist seinen Gewinn maximiert.
Senkrechte Achse: Preis / Kosten
Waagrechte Achse: Menge
Nachfragekurve (Preis-Absatz-Funktion): zeigt, wie der Preis sinkt, wenn mehr verkauft wird.
Grenzerlöskurve: liegt unter der Nachfragekurve. Zeigt den zusätzlichen Erlös bei Verkauf einer weiteren Einheit.
Grenzkostenkurve: zeigt, wie sich die Kosten für die Produktion einer weiteren Einheit entwickeln.
Durchschnittskostenkurve: zeigt die Kosten pro Stück.
Monopolpreis & Menge:
Der Monopolist wählt die Menge XMonopol, bei der Grenzerlös = Grenzkosten ist (gewinnmaximale Menge).
Daraus ergibt sich der Monopolpreis PMonopol über die Nachfragekurve.
Monopolgewinn:
Der graue Bereich zeigt den Monopolgewinn: Unterschied zwischen Erlös (Preis) und Durchschnittskosten, multipliziert mit der Menge
Diese Grafik zeigt, dass Monopole nicht nur Umverteilung (Konsumenten zahlen mehr, Unternehmen verdienen mehr) verursachen, sondern auch einen Wohlfahrtsverlust.
Nachfragekurve
Angebotskurve (unter Wettbewerb = Grenzkostenkurve)
Marktgleichgewichte:
Im Wettbewerb schneiden sich Angebots- und Nachfragekurve bei XKonkurrenz und PKonkurrenz.
Im Monopol produziert der Monopolist weniger XMonopol und verkauft teurer lPMonopol.
Wohlfahrtsverlust:
Der graue Bereich zeigt den Deadweight Loss (Wohlfahrtsverlust). Dies ist der Verlust an Konsumenten- und Produzentenrente, weil weniger gehandelt wird als unter Wettbewerb.
In der Handschrift steht:
„Entgangene Tauschgewinne: GN > GK“
Das bedeutet, dass in diesem Bereich der Grenznutzen (GN) der Konsumenten noch über den Grenzkosten (GK) der Produktion liegt, also eigentlich vorteilhaft wäre, dort mehr zu produzieren. Doch wegen der Monopolentscheidung passiert das nicht.
-Ein Staatseingriff zur Effizienzsteigerung erscheint im Falle natürlicher Monopole naheliegend – Monopol verschwindet meist auch nicht von alleine (wenn dann nur durch disruptive Änderungen, die das ganze Monopol auflöst)
-Lösungsansätze
o „Unbundling“/ „Entflechtung“ – Bereich der subadditiven Kostenstrukturen isolieren (bspw. nur das Schienennetz der Bahn)
o Staatliche Bereitstellung des Gutes – Schienennetz ist staatlich, Züge darauf oder Restaurants im Bahnhof können aber privat gestellt und gestaltet werden
o Private Bereitstellung unter staatlicher Regulierung und Vorgaben – (ggf. mit Regulierungsbehörde)
o Wettbewerb um den Markt – private Akteure für eine festgelegte Zeit miteinbinden
-Subadditive Kostenstrukturen
-Im Fall des natürlichen Monopols (nicht durch den Marktakteur bewusst verurusacht) sind keine Grenzkostenpreise möglich – sind nicht wirklich kostendeckend – Durchschnittskosten können nicht gedeckt werden
Vertikal: Preis / Kosten
Horizontal: Menge
Preis-Absatz-Funktion (Nachfragekurve): zeigt, wie der Preis sinkt, wenn mehr verkauft wird (klassisch fallende Nachfrage).
Durchschnittskostenkurve (DK): zeigt die Kosten pro Stück bei unterschiedlichen Produktionsmengen.
Grenzkostenkurve (GK): zeigt, was die Herstellung einer zusätzlichen Einheit kostet.
Es sind zwei Preisniveaus eingezeichnet:
PDK: Preis, der die Durchschnittskosten deckt (Preis = DK). Bei diesem Preis macht das Unternehmen null Gewinn, es deckt gerade seine Kosten.
PGK: Preis, der den Grenzkosten entspricht. Dies wäre der Preis im idealen Wettbewerbsfall (Pareto-effizient), da dort Preis = Grenzkosten.
Wenn das Unternehmen zu Grenzkostenpreisen (P = GK) verkaufen würde, könnte es seine variablen Kosten decken, aber die Durchschnittskosten (inkl. Fixkosten) wären nicht gedeckt, weil:
DK > GK (typisch bei fallenden Durchschnittskosten, z.B. bei Stromnetzen, Wasserwerken → natürliche Monopole).
Das Unternehmen macht dabei Verlust, weil der Erlös die Durchschnittskosten nicht deckt.
Wenn das Unternehmen stattdessen einen Preis verlangt, der den Durchschnittskosten entspricht (P = DK), dann deckt es alle Kosten, macht aber keinen Gewinn. Allerdings wird dann weniger abgesetzt als zum Grenzkostenpreis. Es kommt zu einem Wohlfahrtsverlust, weil die Konsumenten weniger kaufen.
Diese Situation ist typisch für natürliche Monopole, bei denen große Fixkosten und sinkende Durchschnittskosten bestehen (z.B. Wasserleitungen, Stromnetze).
Dort ist der Wettbewerb nicht effizient, weil mehrere Anbieter doppelte Netze aufbauen müssten.
Deshalb wird oft staatlich reguliert:
Man legt Preise nahe an den Durchschnittskosten fest, damit das Unternehmen langfristig überlebt.
Oder es gibt Subventionen, sodass zu Grenzkostenpreisen verkauft werden kann, und die Fixkosten anders finanziert werden.
✅ Zusammengefasst:
Der Preis PGK ist wohlfahrtsmaximierend (weil dort GN = GK), deckt aber nicht die Durchschnittskosten.
Der Preis PDK deckt alle Kosten, führt aber zu geringerer Menge und damit zu einem Wohlfahrtsverlust.
Daher ist das ein klassisches Dilemma bei natürlichen Monopolen.
-Konzept geht zurück auf George A. Akerlof (geb. 1940) - „The Market for Lemons: Quality Uncertainty and the Market Mechanism“(1970)
-Systematische Informationsasymmetrie zwischen Anbietern und Nachfragern (beide Marktseiten sind systematisch unterschiedlich informiert)
==> Individuell rationales Verhalte führt zu kollektiv irrationalen Ergebnissen (Märkte brechen für bestimme Qualitäten zusammen)
-Informationen sind insbesondere wichtig bei unterschiedlichen gehandelten Qualitäten (viele Leuten sind sich einig, was gute/schlechte Qualitäten sind – naheliegende Kriterien sind vorhanden – geht nicht um persönliche Vorlieben)
==> Beide Seiten können besser oder schlechter informiert sein (meist sind es aber die Anbieter)
==> Vollständige Information aller Marktakteure bezüglich relevanter Tatbestände ist in den meisten Fällen unrealistisch.Eine systematisch ungleiche Informationsverteilung kann auf Märkten zu Ineffizienzen (und damit zu Marktversagen) führen
Der Reservationspreis ist der höchste Preis, den ein Konsument bereit ist zu zahlen (Nachfrageseite) oder der niedrigste Preis zu dem ein Anbieter bereits ist zu verkaufen (Angebotsseite) damit ein Geschäft zustande kommt.
-Adverse Selektion (Produzenten sind besser informiert)
o Vor Vertragsschluss kann die schlechter informierte Marktseite nicht unterscheiden, welche Qualität gehandelt wird
o Hidden information
==> Wahrscheinlichkeit auf gute Qualitäten sinkt – Zahlungsbereitschaft passt sich an schlechtere Qualitäten an und es kommt zu einer Abwärtsspirale und gute Anbieter scheiden aus
==> Systematische asymmetrische Informationsverteilung zwischen zwei Marktseiten führt im Extremfall dazu, dass der Markt für Güter guter Qualität zusammenbricht. Vorteilhafte Tauschhandlungen finden nicht statt.
-Moral Hazard (Konsumenten sind besser informiert)
o Nach Vertragsschluss – können Anbieter nicht sehen, wie sich Konsumenten nach Abschluss verhalten
o Hidden action
==> Für Leute die sowieso auf ihr Fahrrad aufpassen und sorgfältig damit umgehen lohnt sich eine Versicherung nicht mehr – sie scheiden aus dem Markt aus – erneute Abwärtsspirale
==> Den Vertragspartner schädigende Verhaltensänderung nach Vertragsabschluss, die wegen asymmetrischer Informationsverteilung vom Vertragspartner nicht hinreichend beobachtet werden kann, führt im Extremfall zum Zusammenbrechen des Marktes für gute Qualität
-Eigentlich beiderseitiges Interessen an guter Qualität – darum gibt es bestimmte Mechanismen um im übereinstimmenden Interesse beider Seiten für mehr Transparenz zu sorgen
==> Im Falle ungleicher Informationsverteilung haben beide Anbieter und Nachfrager guter Qualität ein Interesse daran, die Asymmetrien zu beseitigen.
o Signaling und Screening können den Marktteilnehmer*innen helfen, die Informationsasymmetrien auszugleichen und somit weitere vorteilhafte Tauschhandlungen ermöglichen - Signaling und Screening sind aber beide mit Kosten verbunden!
o Ordnungspolitische Maßnahmen (staatliche Eingriffe / Regulierung) können Signaling und Screening erzwingen oder unnötig werden lassen (z.B. Haftungsregeln, Rückgaberechte, Garantieverpflichtungen, Berufszulassungen, Qualitätsstandards, TÜV‐Prüfvorschriften etc.)
o Staatliche Maßnahmen können unmittelbar die Transparenz in einzelnen Märkten erhöhen (z.B. Subventionierung von Tests und Beratungen, direkte Informationsbereitstellung etc. – bspw. Stiftung Warentest wird subventioniert)
o Allerdings ist dies nur dann sinnvoll, wenn Einigkeit über Kriterien zur Beurteilung der Qualität besteht, ausreichend Differenzierungsbedarf festgestellt wird und davon ausgegangen werden kann, dass durch einen Eingriff Effizienzgewinne zu erwarten sind (bspw. aufgrund von Größenvorteilen oder staatlicher Reputation).
o Realität ≠ Nirvana
o Demsetz bezeichnet den Vergleich tatsächlich beobachtbarer oder realistisch erreichbarer institutioneller Arrangements mit idealen, modellhaften Institutionen, als Nirvana-Ansatz. (nirvana approach) - unrealistische Vorstellungen
o Konkret geht es in seinem Artikel um den Abgleich realer Politik oder ernsthafter Politikempfehlungen mit den Ergebnissen wohlfahrtsökonomischer Modelle der vollkommenen Konkurrenz oder den Ergebnissen blauäugiger Politikvorstellungen mit perfekt uneigennützig vorgehenden, wohlfahrtsmaximierenden sozialen Planern (wohlmeinenden Diktatoren).
o Tatsächlich ist die Analyse in Modellen die gängige Methode der ökonomischen Theorie. Und Modelle entsprechen per Definition nicht (in allen Aspekten) der Realität (Vereinfachung)
o Tatsächlich sind ideale Modellergebnisse die typische Benchmark für beobachtete Zustände.
o Falsch ist diese Herangehensweise nicht per se. Der Nirvana-Vorwurf richtet sich nicht gegen diese Vergleiche allgemein, sondern nur dagegen, aus solchen Vergleichen bereits Schlüsse für (Politik-)Empfehlungen zu ziehen.
-The grass is always greener“ fallacy – woanders ist es immer besser
o Man muss die Alternative genau genug untersuchen, um deren unangenehme Seiten angemessen zu berücksichtigen.
-Fallacy „of the free lunch“ – es gibt keinen free Lunch, auch die Alternative wird Kosten haben
o Man muss auch den Weg zur Alternative, d.h. die Kosten der Maßnahmen berücksichtigen.
o Nur Motivation SQ zu verändern, wenn Alternative + Wechselkosten > Status Quo
-„The people could be different“ fallacy
o Man sollte die Präferenzen der Menschen so akzeptieren, wie sie sind. Ökonomen verändern Restriktionen bzw. Anreize.
o Vergleichbar erreichbare Zustände untereinander (also Realitäten)
o Im Vergleich mit einem Ideal schneidet die „echte Welt“ häufig schlecht ab. Deshalb führt der Nirvana-Ansatz tendenziell zu Unzufriedenheit mit dem beobachtbaren Status quo. Daraus resultiert logisch aber noch nicht, dass man den Status quo verändern sollte.
Zur Ableitung von (Politik-)Empfehlungen müssen stets komparativ-institutionalistische Vergleiche angestrengt werden. D.h. man kann nur dann logisch schlüssig eine Empfehlung zur Änderung des Status quo ableiten, wenn man einen Weg kennt, um tatsächlich eine Verbesserung (einen pareto-superioren Zustand) zu erreichen
Zuletzt geändertvor 4 Tagen