Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 26 2014

Rein oder raus?

Eigentlich ist es ja ungerecht, Markus Lanz für seine hochnotpeinliche Befragung der Linken-Politikerin Sahra Wagenknecht zu kritisieren. Letztlich hat der kleine Markus doch nur nachgemacht, was er in den großen Qualitätszeitungen und von der großen Politik aufgeschnappt hat: Kritiker der europäischen Politik werden als Antieuropäer gebrandmarkt und wer es wagt, an der herrschenden Eurorettungspolitik zu zweifeln, will raus aus dem Euro. Vom vergifteten Diskussionsklima mit seinen Denkverboten profitieren am Ende jedoch nur die Rechtspopulisten. Von Jens Berger.

Kann man ernsthaft für ein Europa sein, dass es seit fünf Jahren nicht geschafft hat, die Folgen der Finanzkrise in den Griff zu bekommen? Für ein Europa, dass die Jungend in einigen seiner Länder am ausgestreckten Arm verhungern und in der Massenarbeitslosigkeit verharren lässt? Ist ein Europa, in dem nicht die Menschen, sondern die Konzerne die Politik bestimmen, wirklich wünschenswert? Wer all diese Fragen für populistisch oder gar ketzerisch hält, ist damit nicht nur ausreichend qualifiziert, um beim ZDF einen Boulevardtalk zu übernehmen, sondern auch nach herrschender Vorstellung ein guter Europäer. Gute Europäer stellen nämlich keine Fragen, vor allem keine kritischen. Im Umkehrschluss dürfen sich die Fragenden, die Kritiker und die Zweifler das Label „Europagegner“ auf die Stirn kleben.

Noch vergifteter ist das Diskussionsklima nur beim Thema Gemeinschaftswährung. Zwar konnte der Flächenbrand durch die unkonventionellen Maßnahmen der EZB einstweilen eingedämmt werden, dennoch wird wohl nicht einmal ein Jungunionist mit der rosarotesten aller rosaroten Brillen ernsthaft bezweifeln, dass die grundlegenden Probleme nur aufgeschoben aber nicht aufgeboben wurden. Ohne die künstliche Finanzmarktbeatmung der EZB würden die Zinsen für europäische Staatsanleihen wieder zu alten Höchstwerten zurückkehren – nur dass die Gesamtverschuldung heute noch höher als zu Beginn der Eurokrise ist. Und von den Handelsungleichgewichten, die zu den realwirtschaftlichen Auslösern der Eurokrise zählen will ich hier gar nicht anfangen. Soll man davor die Augen schließen und das Denken durch den Glauben ersetzen? Dann wäre der Euro ein Glaubensbekenntnis. Ich glaube an die jungfräuliche Geburt, die heilige Dreifaltigkeit und die grundsolide Gemeinschaftswährung. Wer daran Zweifel hegt, ist ein Ketzer und gehört auf den Scheiterhaufen. Rein oder raus? Ich frage sie noch einmal: Rein oder raus?

Einer der größten Fehler der Eliten war es stets, den gesunden Menschenverstand des Volkes zu unterschätzen. Der deutsche Minirentner ahnt genau so wie der arbeitslose spanische Jungakademiker, dass etwas faul im Staate Europa ist. Ein Europa, dass den Menschen keine Hoffnung mehr geben kann, taugt nicht als ideologischer Kitt – schon gar nicht, wenn es auf ein bloßes Glaubensbekenntnis reduziert wird.

Wenn jeder Kritiker, Zweifler und Ketzer nun („das sagt die AfD auch“) in die rechte Ecke geschoben wird, so kann dies dreierlei Reaktionen auslösen: Der kritische Geist kann diese Drohung ernst nehmen und ins Lager der Gläubigen zurückkehren, da er nicht im ewigen Fegefeuer des Rechtspopulismus schmoren will. Er kann die Drohung aber auch an sich abperlen lassen und weiterhin Kritik üben, ohne sich in irgendeine Schublade stecken zu lassen. Die Drohung könnte jedoch auch zu einer selbsterfüllenden Prophezeiung werden – wenn meine Gedanken rechtspopulistisch sind, dann muss ich wohl auch eine rechtspopulistische Partei wählen, da diese ja dann ganz offensichtlich meine Interessen vertritt.

So ist zu vermuten, dass die Rechtspopulisten die eigentlichen Profiteure der nie ernsthaft geführten Debatten sind. Dann soll sich aber auch bitte niemand wundern, wenn diese Parteien bei den anstehenden Europawahlen die Gewinner sein werden. Wer kritisches Denken unterbinden will, stärkt damit meist diejenigen, die ohnehin ein gestörtes Verhältnis zum Nachdenken haben. Und dann könnte die Frage „rein oder raus?“ eine ganz neue Qualität bekommen. Wollen wir das wirklich?

flattr this!

Reposted byepimetheus epimetheus

February 25 2014

Warum wir Arbeitsrechte im Kontext des EU-US-Freihandelsabkommens anders diskutieren sollten

Pro- und Contra-Stimmen zum EU-US-Freihandelsabkommen (TTIP) haben häufig eine Gemeinsamkeit, wenn es um die Frage der Arbeitsrechte geht: Beide stellen die von den USA nicht unterzeichneten ILO-Kernarbeitsnormen in den Mittelpunkt ihrer Argumentation. Die einen sehen TTIP als Chance, die USA zur Unterschrift unter weitere Kernarbeitsnormen zu bewegen. Die anderen lehnen TTIP ab, gerade weil sie die Arbeitsstandards in den USA für viel zu niedrig halten, erkennbar an der Nichtunterzeichnung von sechs der acht Kernarbeitsnormen. Überzeugend sind beide Argumentationen nicht. Ein Gastartikel von Patrick Schreiner[*].

Richtig ist zunächst, dass die USA lediglich die folgenden zwei Kernarbeitsnormen der Internationalen Arbeitsorganisation (ILO) unterzeichnet haben:

  • Abschaffung der Zwangsarbeit als Disziplinarmaßnahme
  • Abschaffung der schlimmsten Formen der Kinderarbeit

Hingegen haben die USA die folgenden ILO-Kernarbeitsnormen nicht unterzeichnet:

  • Koalitionsfreiheit
  • Recht auf kollektiv verhandelte Tarifverträge
  • Abschaffung der Zwangs- und Pflichtarbeit
  • Gleicher Lohn für gleiche Arbeit von Mann und Frau
  • Mindestalter für den Eintritt in ein Arbeitsverhältnis
  • Verbot der Diskriminierung in der Arbeitswelt wegen Rasse, Hautfarbe, Geschlecht, Religion, politischer Meinung, nationaler und sozialer Herkunft

Problematisch an der aktuellen Debatte ist, dass von Pro- wie auch von Contra-Stimmen häufig der Eindruck erweckt wird, es gründe die (arbeitsbezogene) Relevanz von TTIP in der Nichtunterzeichnung dieser sechs ILO-Kernarbeitsnormen durch die USA. Die Pro-Seite argumentiert, TTIP sei eine Chance, die USA zur Unterzeichnung zu bewegen und dadurch die US-amerikanischen Gewerkschaften zu unterstützen. (In der Tat argumentieren die sonst stets freihandelskritischen US-Gewerkschaften ähnlich – allerdings ausdrücklich nur deshalb, weil die Europäische Union höhere Arbeitsstandards hat.) Die Contra-Seite argumentiert, eine Unterzeichnung durch die USA sei extrem unwahrscheinlich, so dass TTIP letztlich einen einheitlichen Markt mit einem Land schaffe, das die europäischen Schutzstandards unterlaufe. Erkennbar eben an der Nichtunterzeichnung von sechs der acht ILO-Kernarbeitsnormen.

Tatsächlich aber ist die Frage der Unterzeichnung von ILO-Kernarbeitsnormen nur von nachgeordneter Relevanz. Ein wesentlicher Grund hierfür ist, dass Zahl und Titel der unterzeichneten ILO-Kernarbeitsnormen keineswegs das tatsächliche Schutzniveau beschreiben. Wenngleich nicht auf europäischen Niveau, so gibt es in den USA doch durchaus (auch) Arbeitnehmer/innen-Rechte, auch wenn die betreffenden Kernarbeitsnormen nicht unterzeichnet wurden. So gelten in den USA in vielen Fällen weitergehende arbeitsbezogene Diskriminierungsverbote als mancherorts in Europa, auch ohne dass die entsprechende Kernarbeitsnorm unterschrieben wurde. Und dass europäische Staaten die ILO-Kernarbeitsnorm zum gleichen Lohn von Mann und Frau unterschrieben haben, hilft den Frauen in Europa offenbar nur wenig, führt man sich die nach wie vor bestehenden Lohnunterschiede zwischen den Geschlechtern vor Augen.

ILO-Kernarbeitsnormen in den Mittelpunkt der Debatte zu rücken, bringt vor diesem Hintergrund also wenig. Übrigens auch, weil diese ohnehin nur einen untersten Mindeststandard beschreiben. Fragwürdig sind solche Argumentationsstrategien aber vor allem auch, weil die vorrangige Problematik von TTIP und Freihandelsabkommen nicht in der Unterschiedlichkeit von Schutzstandards gründet, sondern in den Intentionen und Effekten solcher Abkommen schlechthin. Wenn

  • Märkte geöffnet,
  • Kapitalbeweglichkeit erhöht,
  • öffentliche Beschaffung liberalisiert und
  • öffentliche Dienstleistungen für private Anbieter zugänglich gemacht

werden, dann geraten die Arbeitnehmerinnen und Arbeitnehmer verschiedener Länder in unmittelbare und verschärfte Konkurrenz zueinander. Nichts anderes ist „Globalisierung“, und nichts anderes verfolgen neoliberale Ideolog/inn/en und Politiker/innen seit 40 Jahren. Was den Beschäftigten als alternativlose Naturgegebenheit präsentiert wird, ist menschengemacht, politisch gewollt und bewusst herbeigeführt. Auch das immer wieder eingeforderte Streben nach mehr „Wettbewerbsfähigkeit“ und die Konkurrenz von „Wirtschaftsstandorten“ sind keine gottgegebenen Notwendigkeiten, sondern Ergebnis von gemachten Zwängen.

Es waren eben solche Handels-, Kapital- und Investitionsliberalisierungen, durch die diese Entwicklung eingeleitet und durchgesetzt wurde. Und nun will man die gleichen Liberalisierungen durch TTIP fortsetzen und ausweiten. Der Druck auf soziale Standards und auf Arbeitsstandards war schon in der Vergangenheit ein wesentlicher Effekt solcher Abkommen, er ist es noch und würde sich durch TTIP erhöhen. Und das völlig unabhängig davon, wer irgendwelche ILO-Kernarbeitsnormen unterschrieben hat und wer mit welchen Schutzniveaus in einen „gemeinsamen Markt“ hineingeht.

Die auf Arbeitsrechte bezogene Forderung des DGB und der deutschen Gewerkschaften in ihrer schriftlichen Stellungnahme [PDF - 108 KB] zur Aufnahme von Verhandlungen über ein EU-US-Freihandelsabkommen ist vor diesem Hintergrund überaus klug formuliert:

Ein Ziel des Abkommens mit den USA muss es aus Sicht der Gewerkschaften sein, überall für eine Verbesserung des Schutzes von Arbeitnehmerrechten zu sorgen. Das heißt auch, überall Standards für Arbeitnehmerrechte, die industriellen Beziehungen und die Mitbestimmungsrechte zu etablieren, die mindestens dem höchsten Niveau entsprechen, das bislang in einem Land erreicht wurde. Es bedarf einer expliziten Klausel im Abkommen, die einen Abbau von Arbeitnehmerrechten und Sozialstandards verbietet und den jeweils höchsten erreichten Standard absichert.

Zumindest, wenn man TTIP nicht von vornherein ablehnen möchte, ist die hier skizzierte Forderung nach einer Art umgekehrter Stand-Still-Klausel die richtige: Alle beteiligten Länder haben ausnahmslos mindestens die Standards für

  • Arbeitnehmerrechte,
  • industrielle Beziehungen und
  • Mitbestimmung

desjenigen Landes zu übernehmen, das hinsichtlich des jeweiligen Standards das höchste Niveau erreicht hat. Und dieses Niveau ist insofern abzusichern, als ein Abbau von Arbeitnehmerrechten und Sozialstandards für alle Zeiten verboten wird.

Unter diesen, und nur unter diesen Bedingungen wäre TTIP akzeptabel, ja sogar ein Fortschritt. Allerdings würde das Kapital die Lust auf TTIP dann gewiss rasch verlieren. Was einerseits ja so schlecht nicht wäre, andererseits aber auch dessen eigentliches Interesse offenlegte.


[«*] Patrick Schreiner lebt und arbeitet als hauptamtlicher Gewerkschafter in Hannover. In seiner Freizeit betreibt er das private Blog annotazioni.de, das sich mit wirtschafts- und sozialpolitischen Fragen befasst.

flattr this!

Reposted byepimetheus epimetheus

„Sarrazins Correctness“

Am Montag dieser Woche erschien Thilo Sarrazins neues Buch „Der neue Tugendterror“ mit einer unglaublichen Erstauflage von 100.000 Exemplaren. Für die Nachdenkseiten sprach Jens Wernicke mit dem Soziologen Andreas Kemper, der sich seit Langem kritisch mit Sarrazin und dessen Thesen auseinandersetzt. Seine Replik auf Sarrazins neues Buch wird ebenfalls in einigen Tagen im Buchhandel erhältlich sein.

Jens Wernicke: Thilo Sarrazins neues Buch trägt den Titel „Der neue Tugendterror. Über die Grenzen der Meinungsfreiheit in Deutschland“. Zeitnah erscheint auch Ihre Replik, in der Sie sich mit Sarrazins Vorwurf der „Political Correctness“ beschäftigen. Worum dreht es sich dabei?

Andreas Kemper: „Political Correctness“ war ursprünglich eine ironisierende Kritik der antiautoritären Linken in den Vereinigten Staaten an dogmatischen Kommunisten, die sich zu sehr an der Parteilinie orientierten. In den so genannten „Culture Wars“ Anfang der 1990er Jahre zwischen erzkonservativen Standpunkten und liberal-emanzipatorischen Positionen – es ging um Fragen wie Abtreibung, Legalisierung von Drogen, Waffenbesitz, Privatisierungen, Verbot von diskriminierender Sprache („Hate Speech“) an Hochschulen, Affirmative Action etc. – wurde „Political Correctness“ (PC) schließlich umgedeutet und von den Konservativen ausgerechnet gegen die emanzipatorische Linke gewendet.

Quasi über Nacht wurde PC in der Bedeutung, dass sich konservative Amerikaner angeblich nicht mehr länger zu ihren wahren Werten bekennen dürften, eine Mega-Schlagwort. Wie absurd das Ganze war, zeigte sich exemplarisch an George Bush senior, der in einer Rede vor der Einschränkung der Redefreiheit durch „Political Correctness“ warnte, die von den Medien massiv verbreitet werde. Sein Vorwurf war vor über zwanzig Jahren schon genauso absurd wie der heutige von Sarrazin es ist. Dennoch bringt Sarrazin nun ein Buch in 100.000er-Auflage heraus, in dem er argumentiert, in Deutschland werde das Rederecht beschränkt.

Der Anti-PC-Diskurs selbst wurde allerdings bereits 1993 nach Deutschland importiert. Zuerst von Matthias Matussek, der vor kurzem in einer großen Tageszeitung mitteilte, er sei homophob und das sei auch gut so.

Jens Wernicke: Wie argumentiert Sarrazin? Es klingt ja nach: „Der Zwang zu Pluralismus und Liberalismus bedrohe die…“ – ja, was eigentlich?

Andreas Kemper: Sarrazin geht davon aus, dass seit den 1968ern die so genannte „Politische Klasse“ mit der „Medienklasse“ eine wechselseitige Verbindung eingegangen ist, die zu einer Meinungsenge und damit zu Denkverboten geführt habe.

Jens Wernicke: Also, dieses Denkmodell der Mainstream-Meinungsenge scheint dem meinem ehrlich gesagt gar nicht unähnlich zu sein…

Andreas Kemper: Das mag sein. Nur, dass Sie – davon gehe ich jedenfalls aus – nicht meinen, dass dies in Deutschland inzwischen zu seinem „Tugendterror“ geführt habe, der sich aus der „mentalen Verwüstung“ durch den Nationalsozialismus speise. Der Angriff, den Sarrazin hier vermeintlich im Namen der Freiheit führt, ist tatsächlich vielmehr ein Angriff auf bzw. gegen eben diese Freiheit… Er konstatiert sozusagen eine „linke“ Verschwörung unserer Eliten – in den heutigen Zeiten, wohl gemerkt!

Jens Wernicke: Inwiefern handelt es sich bei Sarrazins Argumentation um einen Angriff „auf die Freiheit“?

Andreas Kemper: Nun, gegen den Vorwurf der politischen Korrektheit ist zunächst einzuwenden, dass es Sarrazin selbstverständlich nicht darum geht, Korrektheit anzugreifen. Er selbst ist die Verkörperung von Korrektheit – solange es eben nicht etwa darum geht, mit marginalisierten Gruppen korrekt umzugehen.

Vielmehr geht es ihm mit seinem Vorwurf um das Politische, der so genannten „Politischen Korrektheit“. Sarrazin streitet nämlich für eine andere Korrektheit. Bereits in seinem Vorgängerbuch „Deutschland schafft sich ab“ hat er dementsprechend zwei „Korrekturen“ gefordert: Erstens die permanente Disziplinierung von Arbeitslosen, damit diesen die Sekundärtugenden, also Gehorsam, Fleiß und Pünktlichkeit eingebläut würden; und zweitens so genannte Bevölkerungskorrekturen, da – seiner Meinung nach – in Deutschland endlich wieder „die Richtigen“ die Kinder kriegen müssten, nämlich jene, deren Gene auch tüchtiges „Menschenmaterial“ versprächen. Das ist für ihn sozusagen das wirklich Korrekte, um dessen Durchsetzung willen er nun den politischen Wertekonsens unserer Gesellschaft als spießbürgerliche Meinungszensur zu verleumden versucht.

Sarrazin gehört dabei selbst zu jenen Menschen, die gerne Normen aufstellen, die dann für alle verbindlich sein sollen. Seine Normen gehen dabei jedoch von einer grundsätzlichen Ungleichheit der Menschen aus, die sich entlang von hierarchischen Differenzen abbilden: Weiße-Schwarze/ Männer-Frauen/ Mittelschicht-Unterschicht…

Vor einhundert Jahren gab es in Deutschland noch die so genannten „Korrektionsanstalten“, in denen die so genannten „Korrigenden“ und „Korrigendinnen“, also Landstreicher, Prostituierte, alleinerziehende Mütter, unangepasste Jugendliche, Sinti und Roma etc., „angepasst“, also korrigiert werden sollten. Als diese Korrektionsanstalten an ihre Grenzen stießen, weil sich die Menschen nicht beliebig korrigieren ließen, also aufgrund der, wie es dann hieß, so genannten „Bildungsunfähigkeit“ der „Korringenden“, wurde konsequenterweise die Rassenhygiene, die deutsche Version der Eugenik entwickelt. In eben dieser Tradition argumentiert nun Sarrazin. Seine Thesen haben diese Entwicklung jedoch in einer Art Schnelldurchgang durchlaufen: Von der Forderung nach Disziplinierung der Arbeitslosen hin zur Eugenik-Argumentation.

Der Begriff der „Bildungsunfähigkeit“ verbindet diese beiden Diskurse und in der Praxis soll die bürgerliche Heterofamilie zum Dreh- und Angelpunkt für sowohl Disziplinierung als auch für Bevölkerungspolitik gemacht werden. Hierzu hat Michel Foucault einiges geschrieben. Und auch Peter Brückner, der im Gegensatz zu Sarrazin jedoch tatsächlich einen Maulkorb erhielt. Zusammengefasst handelt es sich hier um den Versuch, mittels geschickter Subversion einen deutlich rechten Diskurs in der Mitte unserer Gesellschaft noch weiter salonfähig zu machen.

Jens Wernicke: Da gibt es doch auch eine Website „politically incorrect“, pi-news… Haben die etwas mit der Sache zu tun?

Andreas Kemper: Ja, pi-news nimmt bewusst Bezug auf „Political Correctness“ und wendet sich gegen ein vermeintliches „Gutmenschentum“, welches sich vor allem in einer zu großen Toleranz gegenüber dem Islam zeige. PI-Info wendet sich jedoch nicht nur gegen eine „Islamisierung“, sondern besetzt auch andere konservative Themen, wobei die Selbstkennzeichnung als „politisch inkorrekt“ eher verdeckt, dass es sich faktisch um eine enttabuisierte Hass-Seite handelt.

Zu meiner Person gab es dort 2013 beispielsweise drei Blogbeiträge, ´getagt` mit Stichworten wie Idiot, Lump etc., und jeweils 100-150 Kommentare, die ich hier lieber nicht zitieren möchte. In aller Deutlichkeit angefeindet wurde ich dabei aufgrund der Tatsache, dass ich mich kritisch mit der Partei AfD sowie mit dem „Antifeminismus“ auseinandersetzte. Allein deshalb war ich in den Augen der „Inkorrekten“ zum gefährlichen „politisch Korrekten“ avanciert.

Jens Wernicke: Sarrazins Argumentation ist also nicht nur aus anderen Ländern bereits bekannt – es gibt auch einen direkten Anschluss an deutsche Diskurse?

Andreas Kemper: Ja. In Deutschland verbindet sich dieser Anti-PC-Diskurs vor allem mit der Verharmlosung des Nationalsozialismus, in dem mit Ausdrücken wie „Auschwitz-Keule“ eine Thematisierung des Nationalsozialismus abgewehrt wird.

Der Ausdruck „Tugendterror“ stammt übrigens von Wilhelm Marr, der 1879 eine Antisemiten-Liga gründete und das theoretische Fundament für den Antisemitismus in Deutschland legte. Marr trat gleichzeitig für das Preußentum ein und zielte mit dem Begriff „Tugendterrorismus“ gegen die Jakobiner der Französischen Revolution. Um zu begreifen, warum die Jakobiner ihre Schreckensherrschaft während der Französischen Revolution ausüben konnten, muss man allerdings wissen, dass die preußischen und österreichischen Armeen auf Paris zumarschierten, und die Stadt in Asche legen wollten, wenn das französische Volk sich nicht wieder dem ´Souverän` unterwerfen würde. Die preußischen Tugenden von Gehorsam und Disziplin, für die auch Sarrazin eintritt und steht, marschierten tatsächlich also gegen Freiheit, Gleichheit und Brüderlichkeit.

Jens Wernicke: Wieso wird Sarrazin eigentlich überhaupt so breit rezipiert?

Andreas Kemper: Zum einen natürlich aufgrund der Unterstützung der Medien. Aber dann natürlich auch, weil er die Bedürfnisse des „verrohten Bürgertums“ (Heitmeyer) nach Legitimation seiner Privilegierungen bedient.

Wenn wir aber darüber reden wollen, warum sich der Anti-PC-Diskurs so gut hält, müssen wir weiter ausholen.

Da gibt es zum einen eine berechtigte Kritik. Eine berechtigte Kritik richtet sich gegen die Überbewertung von Sprache, vor allem dort, wo das „korrekte Sprechen“ zur Abwertung benutzt wird. Wir dürfen nicht vergessen, dass beispielsweise die soziale Selektion im Bildungsbereich vor allem damit legitimiert wird, dass die sogenannten ´Unterschichten` angeblich nicht korrekt sprechen würden.

Ich möchte aber noch auf einen weiteren Aspekt legitimer Kritik, die Sarrazin sozusagen zu okkupieren versucht, eingehen. Der Begriff „Political Correctness“ entstand ja in der Linken gegen dogmatische Vorgaben einer politischen Linie, aber auch zum Beispiel gegen die Marginalisierung von politischen Fragen des Alltags, wie sie der Feminismus vor allem aufbrachte, was dann als „Nebenwiderspruch“ abgetan wurde – hier haben wir deutlich die „Political Correctness“ einer Parteilinie vor uns. Wenn sich Sarrazin, schon im Buchtitel, nun gegen den „Tugendterror“ echauffiert, so spielt er, wie erwähnt, auf die Französische Revolution an, auf die Jakobiner um Robespierre, der den Terror mit Tugend gleichsetzte. Nochmals: Erst der Druck von außen durch die preußisch-österreichischen Truppen erlaubte es dem Jakobinismus jedoch, zum mordendem Selbstläufer zu werden, erlaubte es weiter, Machiavelli zur einzigen Handlungsanleitung zu machen.

Diese Kritik am Machiavellismus, an der Verachtung des menschlichen Faktors, gehört tatsächlich auch in jede progressive Kritik. Wenn heute aber der „Tugendterror“ kritisiert wird, dann wird eben nicht der Terror des Machiavellismus kritisiert, den findet man ja sogar gut, sondern wird mit Machiavelli gegen das „Gutmenschentums“ geschimpft, man kritisiert also die Werte der französischen Revolution, weil die den preußischen Sekundärtugenden im Wege stehen.

Jens Wernicke: Ihre Kritik an Sarrazin und seinen Thesen noch einmal auf den Punkt gebracht lautet also…?

Andreas Kemper: Mit dem Vorwurf „Politische Korrektheit“ wird erstens mit der Vokabel „Korrektheit“ eine Spießbürgerlichkeit unterstellt – dies ist die unmittelbar rhetorische Funktion des Anti-PC-Diskurses.

Zweitens richtet sich der Vorwurf „Politische Korrektheit“ jedoch gar nicht gegen Korrektheit an sich, sondern gegen eine notwendige Politisierung. Dies wird besonders deutlich, wenn beispielsweise geschlechtergerechte Sprache als „orwellscher Neusprech“ bezeichnet wird, weil damit die vermeintlich „natürliche Sprache“ künstlich politisiert werde.

Hierzu sei nur am Rande angemerkt, dass Orwell mit seinem Roman „1984“ nicht etwa vor einer Politisierung der Sprache warnte, sondern davor, dass die Sprache in dem Sinne entpolitisiert werde, dass sie einer emanzipatorisch-egalitären Politik im Weg stünde.

Und drittens geht es hier schließlich um eine Biopolitisierung auf Grundlage der schmittschen Freund-Feind-Differenzierung („Kampf der Kulturen“, „innerstaatliche Feinderklärung“), also um die Frage, wie politisiert wird und damit wie Entscheidungsstrukturen gestaltet werden. Allerdings wird einer offenen Diskussion um diese Fragen mit dem politischen Schlagwort „Politische Korrektheit“ eben ausgewichen, da die biopolitische Korrektionspraxis als solche historisch diskreditiert ist.

Zusammengefasst geht es darum, Hochpolitisches, nämlich Rassismus, Biologismus etc., als etwas Unpolitisches zu verschlüsseln und den Kampf gegen emanzipatorische Werte als Kampf gegen spießbürgerlichen Tugendterror zu verkleiden.

Die Positionen des Interviewpartners geben nicht zwingend die Positionen der NachDenkSeiten-Redaktion wieder. Sehr wohl aber sollen sie eines: …zum Nachdenken anregen.


Andreas Kemper arbeitet als Doktorand der Universität Münster zum Thema Klassismus. Er publiziert zum organisierten Antifeminismus und zu Klassendiskriminierung. Weitere Informationen finden sich auf seiner Webseite.

Anmerkung: Offenbar plante die ARD und die Talkerin Sandra Maischberger Sarrazin eine Plattform zu bieten.
Offenbar soll das bei nächster Gelegenheit nachgeholt werden. Es ist ein Skandal, dass das öffentlich-rechtliche Fernsehen Sarrazin eine Werbeplattform bietet.

flattr this!

February 21 2014

Volkswagen USA: Revolution von oben gescheitert

Die Automobilarbeiter-Gewerkschaft United Automobile Workers (UAW) hat die Abstimmung zur Anerkennung im Volkswagen Werk in Chattanooga, Tennessee laut offizieller Auszählung vom Freitag, 14. Februar 2014 mit 626 zu 712 Stimmen deutlich verloren.
Tatsächlich handelt es sich um eine demoralisierende Niederlage für die gesamte US-amerikanische Gewerkschaftsbewegung, die zudem deutlich macht, wie es um die demokratische Kultur in weiten Teilen der USA tatsächlich bestellt ist. Desinformation, Propaganda und teils bizarre Ängste spielten in der begleitenden Medienschlacht eine große Rolle – in der Form vergleichbar mit den hysterischen Kampagnen gegen Waffen-Beschränkung oder die allgemeine Krankenversicherung. Rechte Lobbyisten der Anti-Gewerkschafts-Organisation “Center for Workers Freedom” stellten zuletzt 13 Riesen-Werbetafeln in Tennessee auf, auf denen sie die VW-Gewerkschaftswahl sogar direkt mit Aspekten wie der Waffenfreiheit und dem in Tennessee bei der weißen Mehrheit relativ unbeliebten Präsidenten Obama verbanden. Die UAW wurde einmal als “United Obama Workers” verhöhnt, andererseits für den dramatischen Niedergang der Motor-Town Detroit in den letzten Jahrzehnten verantwortlich gemacht. Von Elmar Wigand [*]

United Obama Workers

Die Wahl bei VW wirft ein Schlaglicht auf manche Aspekte US-amerikanischer Realität, die in Europa weitgehend unbekannt sind. Sie gehen uns mehr denn je an, da Europa mit diesem Staatsgebilde durch das transatlantische Freihandelsabkommen TTIP in Zukunft zu einem gemeinsamen Binnenmarkt verschmolzen werden soll.

Die Right-to-work-Bewegung

Der Begriff “Right-to-Work”-Gesetze [1] ist in den letzten Wochen häufiger in deutschen Qualitätsmedien zu lesen gewesen (Siehe Tagesschau.de und taz). Das könnte auch an unserem Aufruf gegen das TTIP liegen, der das Phänomen thematisierte – 24 von 50 US-Bundesstaaten haben inzwischen gewerkschaftsfeindliche Gesetze. Es ist auffällig, dass sich deutsche Unternehmen in den letzten Jahren bevorzugt in eben solchen Bundesstaaten ansiedelten, in den gewerkschaftliche Organisierung, Tarifverträge und Streiks per Gesetz stark eingeschränkt sind. Der Motorsägenfabrikant Stihl produziert bereits seit 1974 in Virginia Beach; zum Trend wurde der Zug in den Süden der USA vermutlich durch die Eröffnung eines BMW-Werkes in Spartanburg, South Carolina im Jahr 1992. Mercedes-Benz folgte nach Alabama, Thyssen-Krupp setzte im selben Staat Milliarden in den Sand. Von diesen Firmen, die in Deutschland ein sozialpartnerschaftliches Image pflegen, sind in den USA vehemente Anti-Gewerkschafts-Kampagnen ruchbar geworden, bei denen das Management Union-Busting Berater anheuerte, um gewerkschaftliche Organisierungsversuche zu ersticken.

In Tennessee hat VW den folgenden Kostenvorteil gegenüber den Big 3 im traditionellen Auto-Standort Detroit (Ford, GM, Chrysler): Arbeiter, die vor 2007 eingestellt wurden, kommen in Detroit auf 28,- $ pro Stunde; VW zahlt in Chattanooga zwischen 15 und 19,- $, wie Mike Elk für das gewerkschaftsnahe Magazin “In These Times” recherchierte.

Allerdings ist die UAW nach dem Crash von 2008 und der Chrysler-Pleite soweit eingeknickt, dass auch in Detroit für Neueinstellungen vergleichbar niedrige Einstiegslöhne gelten. Der Grund für Produktionsverlagerungen in Right-to-work-Staaten dürfte also vor allem in der Gewerkschaftsfreiheit und damit einher gehender maximaler unternehmerischer Gestaltungsmöglichkeit liegen, sowie einer tendenziellen Erpressbarkeit von Arbeitern in strukturschwachen Region mit schwach entwickelter Zivilgesellschaft.

Rechte Meinungsmache: Republikaner machen mobil

Die VW-Wahl wurde im rechten Lager zur Entscheidungsschlacht stilisiert. Der Chicagoer Rechtsanwalt Thomas Geoghegan schrieb für den Nachrichtendienst Bloomberg über die Idee eines Betriebsrats nach deutschem Vorbild – der zu diesem Zeitpunkt noch gar nicht zur Entscheidung stand: “Wenn diese fortschrittliche Form von Arbeitermitbestimmung im gewerkschaftsfreien Süden beginnen würde, wäre das ebenso explosiv wie ironisch. Das Schauspiel dieser Art von Macht [...] könnte die Welt der Arbeiter des amerikanischen Südens auf den Kopf stellen.” Landrat Tim Boyd aus Hamilton County meinte etwa eine Gewerkschaft bei VW in Chattanooga sei “ein Krebsgeschwür für das wirtschaftliche Wachstum”.

Der UAW Boss King beschuldigte vor allem die Republikaner der unerlaubten Einmischung: “Niemals zuvor haben wir es in diesem Land erlebt, dass ein US-Senator, ein Gouverneur und der Führer der Legislative eine Firma mit dem Entzug von Anreizen bedroht haben und die Arbeiter mit dem Verlust eines Produktes.”
Der republikanische Senator Bob Corker sagte kurz vor der Wahl: “Ich hatte heute Gespräche aufgrund derer ich sicher bin, dass – sollten die Arbeiter gegen die UAW stimmen – VW in den kommenden Wochen bekannt geben wird, dass der neue mittelgroße SUV hier in Chattanooga gebaut wird”.

Bill Haslam, der republikanische Gouverneur von Tennessee, erzählte der Lokalpresse: “Ich glaube die Abstimmung wird Auswirkungen auf unsere Fähigkeit haben, andere Zulieferer anzulocken. Wenn wir andere Firmen rekrutieren wollen, kommt das Thema jedes Mal auf.”
Zwei Tage vor Beginn der Wahlen, schlugen der republikanische Senatssprecher von Tennessee Bo Watson und der republikanische Mehrheitsführer Gerald McCormick vor, dass Volkswagen in Zukunft Subventionen gestrichen werden sollten, falls die Fabrik in Chattanooga gewerkschaftlich organisiert würde.

Grover Norquist, die Koch Brüder und ihre Satelliten

Die erdrückende Wirkung, die rechte bis rechtsextreme Think-tanks und Lobbyorganisationen auf die Meinungsbildung in den USA entfalten können, spielte auch bei der VW-Wahl eine große Rolle. Der konservative Meinungsmacher Grover Norquist zählt zu den einflussreichsten politischen Personen der USA. Eines seiner vielen Projekte ist das “Center for Workers Freedom”, das die oben erwähnten 13 Riesen-Werbetafeln an Highways und Straßenkreuzungen rund um Chattanooga platzierte. Seine Hauptmission ist der Kampf gegen Steuern, sein bekanntestes Vehikel die Organisation “Americans for Tax Reform”. Sie tritt für die weitgehende Senkung bis Abschaffung von Steuern ein und konnte 95% aller republikanische Abgeordnete des US-Kongress vor der Wahl im November 2012 zu einem Schwur bewegen, dass sie niemals Steuern anheben würden (“Taxpayer Protection Pledge”). Norquist ist Teil der Tea Party Bewegung und sitzt in Aufsichtsräten der National Rifle Association und der American Conservative Union.

Finanziert werden Norquists Organisastionen u.a. von den milliardenschweren Brüdern Charles und David Koch (Koch Industries). Diese finanzierten auch den siegreichen Wahlkampf von Scott Walker 2010 zum Gouverneur von Wisconsin, was zur umgehenden Einführung von Right-to-work-Laws in dem Bundesstaat und zeitweise zu einem Bürgeraufstand in der Stadt Milwaukee führte. Wie das Magazin “The Nation” schreibt, zählten 2010 auch Mogule wie Stephen Bechtel (Bechtel Corporation) oder Stephen Schwarzman (Blackstone Group) zu Norquists Finanziers, 2013 unterstützte der kalifornische Internetriese Google Norquists Aktivitäten.

Es wundert nicht, dass die lokale Presse von solchen Schwergewichten und ihren Werbeetats leicht auf ihrer Seite gezogen werden konnte. Zudem war auch das unvermeidliche “National Right to Work Comittee” (NRTWC) involviert. Es wurde 1955 von ultra-konservativen Südstaaten-Unternehmern gegründet, um sich gegen die angeblich drohende Diktatur einer Gewerkschaftsmacht, die mal als mafiös mal als sozialistisch ausgemalt wurde, zu wehren und Reformen aus der Roosevelt-Ära rückgängig zu machen. Das NRTWC wurde 45 Jahre lang vom Anti-Gewerkschafts-Impressario Reed Larson geleitet und wird ebenfalls von den Koch-Brüdern alimentiert.

Dennoch: Wie konnte das passieren?

Die oben geschilderte Einflussnahme war massiv. Die Niederlage der United Automobile Workers bei VW ist dadurch aber nicht vollständig erklärbar. Denn hier schienen die Bedingungen für eine Verankerung der Gewerkschaft günstig wie selten. In den allermeisten Fällen werden Union-Busting-Kampagnen direkt aus dem oberen Management lanciert – unter Zuhilfenahme spezialisierter Berater und Agenturen. Dennoch gelingt es vielen Gewerkschaften in den USA dagegen zu halten und zu siegen. Statistiken der Nationalen Behörde für Arbeitsbeziehungen verzeichnen für 2013 eine Erfolgsquote von 60% bei Gewerkschaftswahlen.

Inzwischen wird Kritik an der Kampagnen-Führung der UAW in Chattanooga laut. So schreibt Mike Elk, dass die UAW ein Neutralitätsabkommen mit VW unterzeichnet habe, dass ihnen negative Kommentare über Volkswagen untersagte [PDF - 1.2 MB]. Schlimmer noch wirkte laut Einschätzung von erfahrenden Beobachtern ein Passus, der den Gewerkschaftern Hausbesuche in den Wohngegenden der VW-Arbeiter untersagte. Diese sind in den USA eine weit verbreitete Methode, um Vertrauen aufzubauen, Fragen zu beantworten und heraus zu finden, wo der Schuh drückt. Im Gegenzug erhielt die UAW aber freien Zugang zum Werk. Wie ihre Gegner hämisch nachhielten, stellte ihnen VW sogar Schutzbrillen für den Aufenthalt in den Produktionsanlagen.

Lokale Aktivisten aus Chattanooga berichteten, so schreibt Elk, dass die UAW keine großen Anstrengungen unternommen habe, mit ihnen in Kontakt zu treten. Und dass obwohl die alternative politische Szene in Tennessee die UAW-Kampagne als Möglichkeit eines neuen Aufbruchs herzlich begrüßte. Eine Nachbarschafts-Aktivistin fand die folgenden Worte: “Du kannst im Süden nicht gewinnen, ohne dass alle, die Dich unterstützen, zusammen mit Dir kämpfen. Denn der Süden ist eine gigantische Anti-Gewerkschafts-Kampagne.”

Das spezielle Image-Problem der UAW

Elk sammelte auch Stimmen aus dem Werk, die sich gegen die UAW aussprachen und dabei nicht Gewerkschaften an sich meinten. “Ich habe nichts gegen Gewerkschaften, ich bin gegen die UAW. Es gibt großartige Gewerkschaften da draußen. Aber die werden uns nicht angeboten. Wenn Du nur eine Wahl hast ist das Bullshit”, sagte der Arbeiter Mike Burton, der die Seite No2UAW.com (Nein zur UAW) aufgesetzt hatte. Nicht wenige Amerikaner werfen der UAW die Milliarden-Rettung der Big 3 mit Steuergeldern im Zuge des Weltfinanzcrashs 2008 vor, andere halten sie für korrupt bis mafiös. Zum einen spiegeln sich hier die Ressentiments der Union-Busting-Propaganda, zum anderen steckt ein größerer Teil historischer Wahrheit darin. Kaum eine Gewerkschaft ließ sich so schnell vom Management ihrer Konzerne zähmen und assimilieren wie die UAW, die im Dezember 1936 mit einem furiosen Streik bei General Motors in Flint scheinbar aus dem Nichts auftauchte, sich aber bereits Ende der 1940er Jahre durch strammen Anti-Kommunismus hervor tat und in den folgenden Jahren z. B. vehement für den Vietnam-Krieg eintrat.

Der Blick in unbekannte Gefilde

Einen Vorteil habe die Wahl bei VW jetzt schon gehabt, schrieb Mark Bail im Portal “Blue Mass Group” mit einer gehörigen Prise Galgenhumor: “In Zeiten wie diesen, kümmert sich der Journalismus kaum um Themen der Arbeiterbewegung. Niemand redet darüber. [...] Die Ablehnung der Gewerkschaft durch die VW-Arbeiter in Tennessee, war eine der wenigen Gelegenheiten, überhaupt etwas über die Organisierung von Arbeitern zu erfahren.”

Es war auch eine seltene Gelegenheit, etwas über die Schwierigkeiten von Gewerkschaften jenseits des Atlantiks zu lernen. Möglicherweise wäre ein Sieg der UAW bei VW sogar Wasser auf die Mühlen von sozialdemokratischen Befürwortern des transatlantischen Freihandelsabkommens TTIP gewesen. Nach dem Motto: Seht her – der gemeinsame Binnenmarkt kann auch Fortschritte bringen. Diese Argumentation zumindest bleibt uns nun erspart.


Anmerkung:

[«1] “Right to work”-Gesetze sind vor allem in den Bundesstaaten im Süden der USA verbreitet. Sie besagen: Beschäftigte werden nicht automatisch Mitglied der Gewerkschaft, wenn sie in einem gewerkschaftlich organisierten Betrieb arbeiten. Das ist ihr gutes Recht, denkt man. Aber in Amerika läuft das so ab: Beschäftigte stimmen darüber ab, ob die Gewerkschaft sie vertreten soll. Stimmt eine Mehrheit mit Ja, darf die Gewerkschaft alle Beschäftigten vertreten und für sie Tarifverträge abschließen. Das gilt nun nicht mehr: Gewerkschaftsgegner können nun ihr “Recht” in Anspruch nehmen, keinen Gewerkschaftsbeitrag zu zahlen. Das ist natürlich eine Schwächung.


[«*] Elmar Wigand hat mit Werner Rügemer die Studie “Union Busting in Deutschland” geschrieben die voraussichtlich im März 2014 von der Otto-Brenner-Stiftung heraus gegeben wird. Beide haben einen Aufruft gegen das TTIP initiert, der hier unterzeichnet werden kann.

flattr this!

February 11 2014

Auf dem richtigen Weg? PISA 2012 und die Migranten

Migrantenkinder machen zwar einen rasch anwachsenden Anteil der Schülerschaft aus (in Köln schon insgesamt 50%), es gibt aber nur wenige Überlegungen, was das heißen könnte für schulisches Lehren und Lernen. In der Grundschuldidaktik wird vielfach übersehen, dass ein wachsender Anteil an Schülern nicht mehr Deutsch als Muttersprache spricht. PISA macht bei aller berechtigten Kritik immerhin auf die Benachteiligung von Kindern und Jugendlichen mit Migrationshintergrund und aus soziökonomisch benachteiligten Familien aufmerksam. Aber die richtigen Konsequenzen werden nicht gezogen, vielleicht auch deshalb, weil Pädagogen zwar Aufgaben für das sprachliche Lernen formulieren, während die eigentlich zuständige Didaktik für das sprachliche Lernen aber höflich schweigt.
Eine fortschrittliche Schulpolitik muss sich Gedanken über diese Situation machen. Additive Maßnahmen bei Weiterbestehen der Regelsysteme helfen nicht mehr, wenn es um eine langfristige Trendwende gehen soll. Ein Kommentar zu PISA 2012 und daraus abzuleitende Schlussfolgerungen für Migrantenkinder von Thomas Jaitner [*]

Vorweg eine Anmerkung der Redaktion: Die NachDenkSeiten nehmen eine kritische Position zu PISA ein. Siehe etwa:

Thomas Jaitner begründet in seinem Anschreiben, warum er für seine Vorschläge zur Überwindung der Benachteiligung von Schülern mit Migrationshintergrund auf die PISA-Tests – die er selbst auch kritisiert – zurückgreift. Schließlich wird die Schulpolitik von PISA-Gläubigen bestimmt und die PISA-Tests beherrschen die öffentliche Debatte. Die in dem nachfolgenden Beitrag skizzierten Handlungs- und Reformvorschlägen für ein weiteres Vorankommen auf dem Weg zu mehr Bildungsgerechtigkeit bei hohen Leistungen decken sich mit den PISA-Resultaten. Auch die PISA-Anhänger können sich also der Auseinandersetzung diesen Anstößen kaum verweigern.


  1. Die Fakten sind bekannt: Die 15-jährigen Schülerinnen und Schüler in Deutschland schneiden in PISA 2012 besser ab.

    Vor allem ein Vergleich mit der ersten, schockierenden Untersuchung aus dem Jahr 2000 macht dies deutlich. Die Schülerleistungen in Mathematik, Lesekompetenz und Naturwissenschaften liegen 2012 über dem Durchschnitt der beteiligten Staaten:

    • In Mathematik erreichten die Schülerinnen und Schüler im Durchschnitt 514 Punkte, das sind deutlich mehr als die 490 aus dem Jahr 2000.
    • Im Bereich Lesekompetenz waren es 2012 508 Punkte gegenüber 484 aus dem Jahr 2000.

    Diese Ergebnisse sind hauptsächlich zurückzuführen auf Leistungssteigerungen unter den leistungsschwächeren und sozioökonomisch benachteiligten Schülerinnen und Schüler, während sich der Anteil der Jugendlichen in den höchsten Kompetenzstufen kaum geändert hat:

    • Der Anteil der besonders Leistungsschwachen in Mathematik (unterhalb von Kompetenzstufe II) sank seit 2003 um 4 Punkte. „Außerdem erzielten die leistungsschwächsten 10% der Schülerinnen und Schüler in PISA 2012 über 20 Punkte mehr als die entsprechende Gruppe in PISA 2003.“ (Ländernotiz Deutschland, S. 2).
    • Ähnliches gilt für die Lesekompetenz: „Zwischen 2000 und 2012 ist es Deutschland gelungen, den Anteil der besonders leistungsschwachen Schülerinnen und Schüler im Bereich Lesekompetenz um 8 Prozentpunkte zu reduzieren; außerdem erzielten die leistungsschwächsten 10% der Schülerinnen und Schüler … fast 50 Punkte mehr als die entsprechende Gruppe in PISA 2000.“ (S. 3) Es gibt also einen „erfreulichen Rückgang schwacher Leserinnen und Leser.“ (Langfassung der Studie, S. 237)

    Besser waren auch die Ergebnisse der Jugendlichen mit Migrationshintergrund, die 2000 besonders schlecht abgeschnitten hatten:

    • „2003 erzielten Schüler mit Migrationshintergrund in Mathematik durchschnittlich 81 Punkte weniger als Schüler ohne Migrationshintergrund; 2012 hatte sich dieser Leistungs-abstand auf 54 Punkte verringert.“ (S. 6)

    Auch der Einfluss sozioökonomischer Faktoren auf die Schülerleistungen ist schwächer geworden (S. 5).

  2. Wie sind die verbesserten Ergebnisse zu bewerten?

    Kann man dem Kommentar der Kultusministerkonferenz vom 3.12.2013 zustimmen: „Die eingeschlagenen Wege sind erfolgreich und müssen konsequent fortgesetzt werden.“? 
    Zunächst einmal muss man die Fortschritte anerkennen, sie sind vor allem dem Engagement und der Arbeit vor Ort zu verdanken. Sie zeigen, dass man ungleiche Bildungschancen nicht einfach hinnehmen muss, dass sie verändert werden können.

    Zum PISA-Verfahren ist in der Vergangenheit viel berechtigte Kritik vorgetragen worden, auch auf den NachDenkSeiten. Aber immerhin hat PISA auf die Benachteiligung von Kindern und Jugendlichen mit Migrationshintergrund und aus sozioökonomisch benachteiligten Familien hingewiesen. Deshalb sollte PISA 2012 gerade auch für diejenigen, die sich ständig auf die Ergebnisse dieses Tests berufen, Anlass sein, über den bisher eingeschlagenen Weg und seine Fortsetzung nachzudenken.

  3. Alte Probleme weiterhin ungelöst

    Bei der Bewertung muss man bedenken, dass die Ergebnisse von 2000 besonders schlecht waren, Deutschland war damals Schlusslicht bei der sozialen Gerechtigkeit in der Bildung. Bei einem so vielfältigen und erfahrenen Bildungssystem wie dem deutschen konnte man durchaus rasche Verbesserungen erwarten. Allerdings zeigt auch PISA 2012, dass alte Probleme weiterhin ungelöst bleiben. Dies gilt vor allem für die Jugendlichen mit Migrationshintergrund, die immer noch deutlich zurückbleiben hinter den durchschnittlichen Schülerleistungen. So erreichten 31% von ihnen in Mathematik nur maximal die Kompetenzstufe I, können also nur einfachste Aufgaben lösen. Bei den Jugendlichen ohne Migrationshintergrund sind es dagegen 14%, also die Hälfte. Die Abhängigkeit der Leistung vom sozioökonomischen Hintergrund der Schülerinnen und Schüler liegt weiterhin über dem Durchschnitt der OECD. Zusätzlich gibt es offensichtlich auch neue Probleme, die mit dem Unterricht zu tun haben:

    • „Die Schuldisziplin hat sich in Deutschland zwischen 2003 und 2012 verschlechtert… Der Anteil der Schülerinnen und Schüler, die in Deutschland angaben, dass es bei ihnen im Unterricht ‘drunter und drüber geht’, ist zwischen 2003 und 2012 um 4 Prozentpunkte von 25% auf 29% gestiegen… Auch der Anteil der Schüler, in deren Klasse ‘es lange dauert, bis die Schüler mit dem Arbeiten anfangen’, hat sich von 26% auf 29% erhöht.“ (Ländernotiz Deutschland, S. 8)
    • „Während im OECD-Durchschnitt 82% der Schülerinnen und Schüler der Aussage ‘Wenn ich zusätzliche Hilfe brauche, bekomme ich sie von meinen Lehrerinnen und Lehrern’ ‘völlig’ oder ‘eher’ zustimmten, war dies in Deutschland nur bei 66% der Fall. Ähnliches gilt für die Aussage ‘Die meisten meiner Lehrerinnen und Lehrer interessieren sich für das, was ich zu sagen habe’, der im OECD-Schnitt 74% der Schülerinnen und Schüler ‘völlig’ oder ‘eher’ zustimmten, während in Deutschland mindestens ein Drittel der Schülerinnen und Schüler anders antwortete.“ (S. 8)

    Diese Befunde hängen sicherlich mit einer wachsenden Überforderung aller Beteiligten mit der zunehmenden Heterogenität in den Klassenzimmern zusammen. Diese wird vor allem als Belastung empfunden, es mangelt an effektiven Strategien des Umgehens damit.

  4. Ergänzungen zum Regelbetrieb reichen nicht

    Das Hauptproblem bei dem bisher eingeschlagenen Weg besteht darin, dass die nach 2000 neu ergriffenen Maßnahmen in der Regel additive, zusätzliche Ergänzungen zum Bestehenden sind, dass der Regelbetrieb aber, und hier vor allem der Regelunterricht wenig einbezogen sind. Dadurch wurde auf der einen Seite ein höheres Maß an Aufmerksamkeit für das jeweilige Problem erreicht, was bereits zu einer Verbesserung der Schülerleistungen ausreichte. Auf der anderen Seite wird aber auch viel Verwirrung gestiftet, widersprüchliche Maßnahmen stehen unverbunden nebeneinander. Für ein weiteres Vorankommen auf dem Weg zu mehr Bildungsgerechtigkeit bei hohen Leistungen wird dies nicht ausreichen. An drei Beispielen aus dem Bundesland NRW soll dies gezeigt werden.

    1. Die Integrationsstellen

      Seit den 80er Jahren stehen den Schulen aller Schulformen zusätzlich zur normalen Lehrerversorgung Lehrerstellen zur Verfügung, die der Verbesserung der Deutschkenntnisse von Kindern und Jugendlichen mit Migrationshintergrund dienen sollen. Aktuell geht es dabei landesweit um ca. 3000 Stellen. Hier stecken also erhebliche Ressourcen. In den 90er Jahren setzte sich allgemein die Tendenz durch, dass diese Stellen zweckentfremdet für die Behebung von Lehrerausfall im Regelunterricht eingesetzt wurden, z.B. für den fehlenden Mathekollegen. Hintergrund war die damals vertretene Auffassung, dass nach Abschaffung aller separaten Beschulungsformen für Migranten Ende der 80er Jahre Ali und Ayşe nun automatisch Deutsch lernen, weil sie neben Lena und Benjamin sitzen und gemeinsam unterrichtet werden. Gezielte Sprachbildungsmaßnahmen erschienen nicht mehr notwendig. Dementsprechend wurden auch umfangreiche landesweite Lehrerfortbildungsprogramme beendet. Durch den PISA-Schock 2000 wurde klar, dass hier etwas schief gelaufen war. Ali und Ayşe hatten zwar unter dem Zwang, die deutsche Sprache benutzen zu müssen, mündliche Sprachfähigkeiten in konkreten Alltagssituationen erlernt, besser als dies jeder Fremdsprachenunterricht könnte (sog. konzeptionelle Mündlichkeit), sie scheiterten aber an den Anforderungen der Schriftsprache und komplexer Texte (konzeptionelle Schriftlichkeit). Das gemeinsame Lernen von Kindern und Jugendlichen war eine pädagogische Entscheidung gewesen, der aber keine didaktischen Schlussfolgerungen für das sprachliche Lernen gefolgt waren. 

      Nach 2000 gab es mehrere Versuche, die Stellen wieder ihrem ursprünglichen Zweck zuzuführen. Sie mündeten 2012 in einem neuen Erlass, der die Stellen nicht nur neu benannte (aus den alten „Integrationshilfestellen“ wurden jetzt „Integrationsstellen“), sondern auch ein umfangreiches Antragsverfahren, Verwendungsnachweise und eine Beratung der Schulen durch die neu geschaffenen Kommunale Integrationszentren einführte. Die alles entscheidende Frage blieb aber ungeklärt: Was soll eigentlich mit den Stellenanteilen im Unterricht gemacht werden, was genau ist unter Sprachförderung zu verstehen? In dieser Frage gibt es viel Unsicherheit, sehr verbreitet (auch in Schulbüchern) sind immer noch die einschlägigen, aber völlig wirkungslosen Grammatikübungen mit Lückentexten, in die man die richtigen Lösungen einzusetzen hat. Viele Schulen führten zusätzliche Förderstunden ein. Wenn allerdings der Regelunterricht unverändert am „Normalfall“ von Kindern und Jugendlichen festhält, die Deutsch als Muttersprache erlernt haben, dann werden ständig die sprachlichen Fähigkeiten vorausgesetzt, die den Schülerinnen und Schülern mit einer anderen Muttersprache zuvor hätten vermittelt werden müssen. Man könnte auch sagen, dass der Regelunterricht überhaupt erst den Förderbedarf schafft, der dann in den Förderstunden aufgearbeitet werden soll. 

      Immerhin hat man erreicht, dass sich die Schulen intensiv mit der Sprachförderung auseinandersetzen, aber die Frage der Unterrichtsqualität bleibt umstritten.

    2. Die Leseförderung

      In den letzten Jahren tauchten an den Schulen viele motivierte Lesepaten, Lesemütter oder Mentoren auf, die das Vorlesen wieder pflegen. Viele Bundesländer legten spezielle Programme auf, in der PISA-Studie 2012 wird z.B. die Aktion „Bücherwurm NRW“ beispielhaft erwähnt. Natürlich mag man all diese Aktivitäten nicht mehr missen, die Frage ist nur: Welchen Bezug haben sie zum Regelunterricht? Vor einigen Jahren wurde im Rahmen von „Bücherwurm“ zu einem Wettbewerb aufgerufen, in dem eine Geschichte mit einem offenen Ende von Peter Härtling, extra für diesen Wettbewerb verfasst, weiter geschrieben werden sollte. Wie aber können auch Kinder, die die deutsche Sprache noch nicht richtig beherrschen, nicht nur eine spannende und anrührende Geschichte schreiben, sondern auch eine sprachlich richtige? Wer ist dafür zuständig? Diese Aufgabe kann nur der Unterricht übernehmen, aber der war in diese Aktivitäten nicht eingeplant…

    3. Sprache im Fachunterricht

      PISA 2000 öffnete die Augen dafür, dass sprachliche Fähigkeiten eine Schlüsselkompetenz sind, die auch Auswirkungen auf den Erfolg im Fachunterricht haben. In der jüngsten Zeit wurden spezielle Studienmodule und Materialien für Fachlehrkräfte entwickelt, die ihren Unterricht in Mathematik oder Geschichte mit der gezielten funktionalen Sprachförderung verbinden sollen. Dabei geht es vor allem um die Vermittlung komplexer schriftsprachlicher Strukturen, die für das Ver*ständnis fachsprachlicher Texte unerlässlich sind. Das ist sicherlich sinnvoll, löst aber nicht die Frage, wer denn zuständig ist für die Vermittlung grundlegender sprachlicher Strukturen wie des so komplexen deutschen Deklinationssystems mit seinen Artikeln, Fällen, Präpositionen und Personalpronomen. Ohne genaue Kenntnisse in diesem Bereich sind aber auch Fachtexte nicht zu verstehen, auch nicht die neuen Aufgabenformate in Mathematik. Die Sprachförderung im Fachunterricht allein hilft nicht weiter. Notwendig ist vielmehr ein Gesamtkonzept für das sprachliche Lernen in mehrsprachigen Klassen, das auch die Rolle des Deutschunterrichts einbezieht.

      Die Rolle der Literatur bei Vermittlung und Erwerb der deutschen Sprache gerät allerdings zunehmend ins Hintertreffen. Gerade poetische Texte aus Kinderliedern, Reimen, Sprachspielen oder Bilderbüchern eignen sich für die implizite Vermittlung sprachlicher Strukturen. „Im Gegensatz zur funktionalen Alltagssprache, die sich auf den Erfolg der sprachlichen Handlung konzentriert, nicht auf sprachliche Korrektheit und Vollständigkeit, lenken poetische Texte die Aufmerksamkeit auf die Sprache als solche. Reim und Rhythmus erfordern eine exakte Reproduktion der vorgegebenen Textmuster. Funktionswörter und Endungen können nicht einfach weggelassen werden. Im Gegensatz zu alltagssprachlichen Äußerungen können poetisch-sprachspielerische Texte beliebig oft wiederholt werden. Gerade bei jüngeren Kindern zeigt sich diese Urlust an der Wiederholung. Sie wollen die gleichen Bilderbücher, Märchen, Kinderlieder und Kinderreime immer wieder hören, bis sie sie korrekt reproduzieren und gezielt abwandeln können.“ (Gerlind Belke, Elementare Literatur als Medium sprachlicher Bildung im Kontext einer Didaktik der Mehrsprachigkeit, S. 5).

      Auch in der Sekundarstufe eignen sich Literatur und Poesie in besonderem Maße für den Spracherwerb. Umso bedenklicher ist es, wenn die Literatur aus dem Unterrichtsalltag und den Richtlinien immer mehr verschwindet zugunsten von Fachtexten oder „Textsorten“. Dies gilt auch für die in PISA 2012 beispielhaft erwähnte Bund-Länder-Initiative „Bildung durch Sprache und Schrift BISS“. Betrachtet man die aktuellen Sprachfördermaßnahmen, „so stellt man mit Erschrecken fest, dass der Gegenstand ihrer Bemühungen, die Sprache selbst und die Freude am kreativen Umgang mit ihren vielfältigen Erscheinungsformen verloren zu gehen droht. Die Publikationen erschöpfen sich in der Diskussion von Begrifflichkeiten, Konzepten, ‘Problemen’ und ‘Maßnahmen’, Test- und Diagnoseinstrumenten, Erhebungsverfahren und Evaluation. Dabei bleiben die Kinder und ihre Freude am Spiel  mit ihren Sprache(n) außer Betracht.“ (Belke, ebda., S. 12). Für die Literatur bleiben dann wieder zusätzliche Maßnahmen zur Leseförderung, siehe oben.

  5. Notwendig ist eine Didaktik des Sprachunterrichts in mehrsprachigen Klassen

    Sicherlich hat der „eingeschlagene Weg“ mit seiner Ausweitung des Ganztages, Sprachförderprogrammen in den Kitas, Rechtschreibprogrammen in den Grundschulen oder den beschriebenen Maßnahmen eine höhere Aufmerksamkeit für tatsächliche Probleme erzeugt. Nicht geklärt sind aber die Qualität und die Frage, wie denn alles zusammenpasst.

    Der Regelbetrieb und vor allem der schulische Regelunterricht sind in die Reformüberlegungen zu wenig eingebunden. Notwendig ist vor allem eine Didaktik des Sprachunterrichts in mehrsprachigen Klassen, insbesondere für die Sprachfächer, die auf den Regelunterricht abzielt und Konzepte für Deutsch als Muttersprache, Deutsch als Zweit- und Fremdsprache miteinander verknüpft. Es reicht nicht, wenn eine der PISA-Verantwortlichen, Petra Stanat, eine verstärkte Beschäftigung mit Deutsch als Zweitsprache fordert, weil dies wiederum die Auslagerung der sprachlichen Bedürfnisse der Kinder und Jugendlichen mit Migrationshintergrund aus dem Regelunterricht in spezifische Fördergruppen bedeutet. Grundzüge einer Didaktik für das sprachliche Lernen in mehrsprachigen Regelklassen, die die Bedürfnisse aller Kinder berücksichtigt, hat die Hagener Didaktikerin Gerlind Belke vorgelegt. (Vgl. G. Belke, Mehr Sprache(n) für alle. Sprachunterricht in einer vielsprachigen Gesellschaft, Baltmannsweiler 2012) Leider ist sie noch immer eine Außenseiterin in der didaktischen Debatte, wenn auch ihre Überlegungen und Anregungen von den Lehrkräften mit großem Interesse angenommen werden. Immerhin hat die Bezirksregierung Köln das auf ihren Anregungen basierende Programm „Deutschlernen in mehrsprachigen Klassen DemeK“ entwickelt, das ein umfangreiches Fortbildungsprogramm und ausführliche Materialien für die Primar- und Sekundarstufe anbietet und auf große Zustimmung bei einer rasch anwachsenden Anzahl von Schulen trifft.

  6. Natürliche Mehrsprachigkeit in ein Konzept des schulischen Sprachenlernens einbeziehen

    Wenn man über Leistungen und Schulerfolge von Schülerinnen und Schülern mit Migrations-hintergrund spricht, dann muss man auch ihren großen Reichtum, nämlich ihre natürliche Mehrsprachigkeit einbeziehen. Dieses Thema wird allerdings in den PISA-Studien ausgeklammert. Stattdessen wird ausführlich untersucht, wie viele Schülerinnen und Schüler mit Migrationshintergrund die Sprache des Einwanderungslandes, also Deutsch, zu Hause sprechen (Langfassung PISA 2012, S. 284). Welche Erkenntnisse kann man aus diesen Tabellen gewinnen? Sie sagen etwas aus über den Grad der kulturellen Assimilation. Es wäre allerdings ein Irrweg darauf zu hoffen, dass die Herkunftssprachen zugunsten der deutschen Sprache allmählich aussterben. Die moderne Welt mit ihren billigen Reisemöglichkeiten, Internet, Skype, eMail-Verkehr oder Satellitenfernsehen ermöglicht das Aufrechterhalten von vielfältigen, eben auch sprachlichen Verbindungen mit dem Herkunftsland über Generationen hinweg. Die Mehrsprachigkeit wird ein dauerhaftes Phänomen auch in Deutschland. Die moderne Migration unterscheidet sich darin entscheidend von der traditionellen, wie sie noch von dem Soziologen S.N. Eisenstadt untersucht worden war und die auf dem endgültigen Bruch mit dem Herkunftsland basierte. 

    Über mögliche Schülerleistungen in Mathematik oder im Bereich der Lesekompetenz kann man aus den Tabellen keine Erkenntnisse gewinnen. Wenn die Schülerinnen und Schüler zu Hause Deutsch sprechen, aber auf dem Niveau der konzeptionellen Mündlichkeit, dann werden sie nicht automatisch Verstehensleistungen erbringen, die Fähigkeiten der konzeptionellen Schriftlichkeit voraussetzen. Wenn sie zu Hause ihre nichtdeutsche Muttersprache sprechen auf dem Niveau der konzeptionellen Schriftlichkeit, dann ist damit zu rechnen, dass ihnen das Erlernen der deutschen Sprache auf diesem Niveau leichter fallen wird. 

    Das Problem ist also komplexer, als es auf den ersten Blick erscheint. Es ist deshalb wichtig, die natürliche Mehrsprachigkeit einzubeziehen in ein Konzept des schulischen Sprachenlernens. 

    1. Die Hirnforschung belegt, dass Mehrsprachigkeit intelligenter macht. Die Münchener Linguistin Claudia Maria Riehl unterscheidet dabei fünf Aspekte: 
      • „Den psychologischen Aspekt: Bei Mehrsprachigen fungiert die Herkunftssprache als Träger der Identität, die Zielsprache ermöglicht Integration in eine andere Sprachgemeinschaft.
      • Den sozialen Aspekt: Sprache befähigt Individuen, einander zu „lesen“. Mehrsprachige können eine größere Bandbreite an Sprechern auf diese Weise „verstehen“.
      • Den kognitiven Aspekt: Mehrsprachige besitzen ein differenziertes Bewusstsein von Sprache und haben eine andere Art des Sprachzugangs, der weniger regelorientiert und natürlicher ist als der Einsprachiger. Sie besitzen ein starkes metasprachliches Bewusstsein und andere Fertigkeiten, die ihnen auch das Erlernen weiterer Sprachen erleichtern.
      • Den pragmatischen Aspekt: Mehrsprachige haben eine differenziertere Sicht auf die Welt. Sie lernen durch die Brille der anderen Sprache andere Sichtweisen kennen und sind daher flexibler im Handeln.
      • Den kulturellen Aspekt: Mehrsprachige, besonders Angehörige von Sprachminderheiten, haben eine Brückenfunktion als Vermittler zwischen verschiedenen Kulturen.“

      (Claudia Maria Riehl, Die Bedeutung von Mehrsprachigkeit [PDF - 110 KB])

      Wenn man bedenkt, dass PISA 2012 zu dem Ergebnis kommt, dass die besonders guten Leistungen nicht zunehmen, dann sollte man bedenken, dass es hier ein großes Potential gibt. Bilinguale Unterrichtsgänge, Angebote in den Herkunftssprachen, die koordiniert werden mit dem Regelunterricht sollten ausgeweitet werden, in der Primarstufe, aber auch in der Sekundarstufe bis zum Abitur.

    2. Es ist einfacher für Kinder mit einer nichtdeutschen Muttersprache, die Schriftsprache in ihrer eigenen Sprache zu erwerben. Es spricht deshalb viel dafür, die Alphabetisierung in der Grundschule zweisprachig und koordiniert auf Deutsch und der Herkunftssprache durchzuführen. Entsprechende Konzepte in NRW wie KOALA haben sich in der Praxis bewährt und sind als erfolgversprechend evaluiert worden, etwa durch die Untersuchung von Prof. Hans H. Reich „Schriftsprachliche Fähigkeiten türkisch-deutscher Grundschülerinnen und Grundschüler in Köln“ (Köln 2011)
    3. Die natürliche Mehrsprachigkeit schafft auch völlig neue Chancen für das Erlernen einer Fremdsprache für die nur deutschsprachigen Kinder und Jugendlichen. Sie können eine weitere Sprache gemeinsam mit „native speakern“ erlernen. Bilinguale Programme schon in der Grundschule haben sich bewährt, sie sind attraktiver und effektiver als ein Englischunterricht ab der Klasse 1, der wenig mit der Lebenswelt der Kinder zu tun hat. 

      Man sollte auch nicht vergessen, dass die schulische Aufwertung der Migrantensprachen und damit auch deren Sprecherinnen und Sprecher eine wichtige politische Funktion hat. Sie ist eine wichtige Waffe gegen den in der Gesellschaft festzustellenden Rassismus. Aufklärung, Mahnmale oder Feste sind unerlässliche Beiträge in der Auseinandersetzung mit dem Rassismus. Dazu muss aber über Einzelereignisse hinaus eine strukturelle Veränderung des Alltags in den Institutionen kommen. Schulische Angebote zur Mehrsprachigkeit eignen sich dazu in besonderem Maße, weil sie für alle einen Gewinn darstellen. Die zusammenwachsende „Eine Welt“ erfordert Mehrsprachigkeit von allen, ob mit oder ohne Migrationshintergrund. Die Bildungspolitik wäre gut beraten, die natürliche Mehrsprachigkeit der Schülerinnen und Schüler mit Migrationshintergrund nicht zu ignorieren, sondern als große Chance zu betrachten. Natürlich bedeutet das auch, dass Lehrerstellen für einen modernen Muttersprachlichen Unterricht zur Verfügung gestellt werden müssen. Das Argument, der Muttersprachliche Unterricht sei überlebt, weil die Gründe für seine Einführung entfallen seien, nämlich die Vorbereitung der Migrantinnen und Migranten auf die Rückkehr in ihr Herkunftsland, überzeugt nicht. Statt einer Abschaffung des Muttersprachlichen Unterrichts (so geschehen bis auf die Bundesländer NRW und Rheinland-Pfalz) steht seine Reform an, als ein wichtiger Beitrag für das vielfältige Sprachenlernen in einer mehrsprachigen Gesellschaft.

  7. Zu einer Zuwanderungsgesellschaft gehört auch ein längeres gemeinsames Lernen

    Auch die Ländernotiz PISA 2012 weist darauf hin, dass in Deutschland bereits die Zehnjährigen auf unterschiedliche Schultypen in der Sekundarstufe verteilt werden. 62% der Schülerinnen und Schüler in Deutschland besuchen selektive Schulen, im OECD-Durchschnitt sind es nur 43%. Mit dem Trend zum 2-Säulen-Modell der letzten Jahre geht gleichzeitig die Entwicklung einher, innerhalb der Schulen zu separieren:

    „Der Anteil der Schülerinnen und Schüler, die Schulen besuchen, die keine Einteilung in Leistungsgruppen vornehmen, ist in Deutschland zwischen 2003 und 2012 von 54% auf 32% zurückgegangen, und ein größerer Anteil der Schüler gab an, dass in ihrer Schule in einigen oder allen Unterrichtsstunden eine Einteilung der Schüler entsprechend ihrer Leistungsfähigkeit erfolgt.“ (Ländernotiz, S. 9)

    Es ist schon oft begründet worden, dass ein mehrgliedriges Schulsystem nicht in eine demokratische Gesellschaft passt und zu wenig leistungsfähig ist. In einer mehrsprachigen Gesellschaft ergeben sich zusätzliche Argumente.

    • Die internationale Forschung und die alltägliche Praxis belegen, dass viele Schülerinnen und Schüler mit Migrationshintergrund 5 – 7 Jahre brauchen, bis sie einen Sprachstand in der deutschen Sprache (konzeptionelle Schriftlichkeit) erreichen, der dem der einsprachig Aufwachsenden entspricht. Das Ende der Primarstufe unterbricht oft wichtige Lernprozesse und führt zu Schulzuweisungen, die dem Leistungsvermögen der Kinder nicht angemessen sind.
    • Das mehrgliedrige Schulsystem ist zu teuer und unflexibel. Mehrsprachige Programme in der Primarstufe sind in ihren Möglichkeiten begrenzt, weil sie in der Sekundarstufe kaum fortgesetzt werden können und wichtige Lernprozesse allzu früh abbrechen. So zerstreuen sich die Kinder aus einer bilingualen Grundschulklasse auf viele weiterführende Schulen und machen eine Fortführung unmöglich.
    • Vor allem in den städtischen Ballungsgebieten hat sich die Hauptschule als Sackgasse erwiesen. Sie ist zu einem Ghetto von Schülerinnen und Schülern mit Migrationshintergrund uns aus schwierigen familiären Bedingungen geworden. Hier sind regelrechte Parallelgesellschaften entstanden, die an anderer Stelle als Schreckgespenst an die Wand gemalt werden und unbedingt verhindert werden sollen. Die aktuelle Abstimmung mit den Füßen gegen die Hauptschule ist sinnvoll.

    Zu einer Zuwanderungsgesellschaft gehört auch ein längeres gemeinsames Lernen aller Kinder und Jugendlicher. Dass Schulen mit einer heterogenen Schülerschaft durchaus mit hohen Leistungen vereinbar sind, zeigt interessanterweise auch das Gymnasium. Über die Lesekompetenz heißt es: „Bei PISA 2000 erreichten die Schülerinnen und Schüler an Gymnasien einen Mittelwert von 582 Punkten; bei PISA 2009 lag der Kennwert bei 575 Punkten, und 2012 bei 579 Punkten. Die durchschnittliche Leseleistung an den Gymnasien ist damit seit PISA 2000 ziemlich genau auf dem gleichen Niveau geblieben. Allerdings hat sich die Bildungsbeteiligung seit PISA 2000 deutlich geändert, von 28.3 Prozent auf 33.5 Prozent (PISA 2009) und schließlich auf 36.0 Prozent (PISA 2012). Die (um knapp 8 Prozent) gestiegene Bildungsbeteiligung am Gymnasium hat zu keinem Niveauverlust geführt.“ (Langfassung der Studie, S. 241)

  8. Inklusion als Umgang mit Heterogenität

    In den letzten Jahren hat sich eine neue Aufmerksamkeit für benachteiligte Schülerinnen und
    Schüler entwickelt, auch unter den Lehrkräften. Der neuseeländische Pädagoge John Hattie hat in seinem Buch „Visible Learning“, das auch hierzulande eine große Resonanz erreichte, die Bedeutung dieser Aufmerksamkeit unterstrichen. Er sieht die Lehrkräfte nicht beschränkt auf die Rolle der Lernbegleiter, die auf die Selbstständigkeit und Eigenverantwortlichkeit ihrer Schülerinnen und Schüler setzen und sie dabei vielleicht auch alleine lassen. Er plädiert für eine Schule, die jedes Kind so akzeptiert, wie es ist, und für es die Verantwortung übernimmt, ohne Abschieben und Ausgrenzen.

    Damit diese Aufmerksamkeit aber ausgebaut werden kann, ist statt isolierter Einzelmaßnahmen, die im Zweifelsfall wenig miteinander zu tun haben, ein Gesamtkonzept notwendig. Der Landesintegrationsrat NRW hat dafür den Begriff „interkulturelle Schule“ in die Diskussion gebracht. Insbesondere steht ein didaktisches Konzept für das sprachliche Lernen unter den Bedingungen der Mehrsprachigkeit an. Ohne ein solches Konzept bleiben Leseförderung, Stellenvergabe oder unterstützende Maßnahmen aus den Kommunen in ihrer Wirksamkeit begrenzt. Die aktuelle Politik der Landesregierung ist dabei insofern wenig hilfreich, als mit ihrem einseitigen, auf Defiziten orientierten Ansatz von Inklusion die Arbeit an der Integration nur noch als Einladungspolitik verstanden wird und dadurch in den Hintergrund gerät. Die Schulleistungen der Schülerinnen und Schüler mit Migrationshintergrund werden sich aber langfristig nur verbessern lassen, wenn Inklusion als Umgehen mit Heterogenität insgesamt verstanden wird und alle Kinder und Jugendlichen mit einbezieht.

 


[«*] Thomas Jaitner ist seit vielen Jahren Bildungsreferent des Landesintegrationsrates und hat bis zur Pensionierung im Sommer 2013 an der Bezirksregierung Köln als Fachberater für Migration in der Schulabteilung gearbeitet.

flattr this!

February 03 2014

Fassadendämmung – Lösung oder Irrweg?

Wer den immer wieder aufflackernden Streit um das Für und Wider der Fassadendämmung verstehen will, muss in Gedanken zurück ins Jahr 1973. Im Zusammenhang mit dem Jom-Kippur-Krieg im Oktober 1973 drosselten zahlreiche OPEC-Staaten ihre Ölförderung um etwa 5%, was einen Preissprung von 3 auf 5$ für ein Barrel (159 Liter) auslöste. In Deutschland reagierte man darauf unter anderem mit den vier autofreien Sonntagen. Als die Deutschen am Sonntag ihr liebstes Kind in der Garage lassen mussten, verloren sie ihr naives Vertrauen in die seit dem Wirtschaftswunder gewohnte sichere Energieversorgung. Von Christoph Jehle.

Obwohl es sich bei der damaligen Krise eher um eine Ölpreiskrise als eine Ölkrise handelte, wurde doch manchen bewusst, dass der Nachschub an fossilen Energieträgern ins Stocken kommen könnte. Die im Jahre zuvor vorgestellte Studie des Club of Rome über die Grenzen des Wachstums wandelten sich urplötzlich von einer akademischen Untersuchung in eine konkret erscheinende Gefahr.

In der Folge beschäftigten sich die Forschung und zunehmend auch die Politik mit der Fragestellung, wie sich die Abhängigkeit von importierten fossilen Energieträgern reduzieren lassen könnte. Kurzfristig wurden alle Ölkraftwerke vom Netz genommen. Dies betraf auch Kraftwerke, die noch lange nicht abgeschrieben waren. In der Folge wurde untersucht, welche weiteren Möglichkeiten zu Energieeinsparen möglich wären. Vor dem Hintergrund, dass damals jeder 7. Arbeitsplatz der Automobilwirtschaft zugeschrieben wurde, wollte man den Hebel damals jedoch nicht beim Auto und seinem Kraftstoffverbrauch ansetzen.

Und so fokussierte man sich auf den Gebäudebereich und fand mit der Verbesserung der Heizkesseltechnik und der Wärmedämmung der Gebäude-Außenhülle zwei Ansatzpunkte, die weniger emotionsbeladen waren als das Automobil. Zudem findet sich die Mehrheit der deutschen Haushalte in gemieteten Räumen. Damit wurde die Entscheidung über das Dämmen des Gebäudes und die Optimierung der Heizungsanlage einem Dritten überlassen.

Bei den Heizungsanlagen gab es beispielsweise mit Brennwertkesseln zumindest bei Gas- und Öl-befeuerten Systemen bald schon deutliche Fortschritte hinsichtlich der Effizienz. Dazu kam die Unterstützung der Warmwasser- und Heizwasser-Bereitung durch solarthermische Kollektoren.

Je größer der Anteil der direkt aus Sonnenenergie gewonnenen Wärme, desto geringer ist im Grunde die Notwendigkeit, den Energiebedarf in einem Gebäude durch eine Dämmung der Außenhülle zu senken. Und in zahlreichen Fällen rechnet sich sogar die Modernisierung einer auf fossilen Brennstoffen basierenden Heizungsanlage schneller, als eine komplette Dämmung der Außenhülle des Gebäudes. Daher drängen gerade die Heizungsanlagenbauer immer wieder, doch zuerst die Heizungsanlage zu modernisieren.

Auf der anderen Seite reduziert eine Dämmung der Gebäude-Außenhülle den Heizenergiebedarf und führt dazu, dass die Heizanlage dann meist deutlich überdimensioniert ist und im weniger effizienten Teillastbereich arbeitet. Daher wird zumeist die Dämmung zuerst angegangen und dann erst die Heizungsmodernisierung. Dazu kam der Druck durch den Gesetzgeber, der forderte, dass bei Arbeiten an der Gebäudehülle, die mehr als 10% der Gesamtfläche betrafen, auch die Dämmung auf den aktuellen Stand gebracht werden müsse. Bei bewohnten Gebäuden setzte man meist auf eine Außendämmung, die auf die Fassade aufgebracht wurde. Auch hier lohnt wieder ein Blick in die Vergangenheit, um zu verstehen, wie es zur Markteinführung der Dämmstoffe kam. Zumeist war das Material vorhanden und der Hersteller suchte eine mögliche Anwendung.

Die Unternehmerfamilie Rhodius in Burgbrohl hatte von der BASF im Jahre 1961 eine Lizenz zur Produktion von Styropor-Verpackungen erworben und suchte eine Möglichkeit zur Verwertung der dabei entstehenden Abfälle. Sie kam dabei auf die Entwicklung von Dämmstoffen. Styropor-Verpackungen sind heute weitgehend von umweltfreundlicheren Materialien verdrängt worden, im Bereich der Wärmedämmung haben sie sich aufgrund ihres Kostenvorteils bei der Herstellung jedoch am Markt gehalten. Und so werden zahlreiche Gebäude noch immer zur Wärmedämmung mit Platten aus dem geschäumten Kunststoff verpackt. Geschützt vor den Einwirkungen von UV-Licht und Lösungsmitteln hält sich das expandierte Polystyrol (EPS), das zwar gegen Wärmeverlust hilft, jedoch schlechte Schalldämmeigenschaften besitzt, durchaus 40 Jahre als Fassadendämmung. Das unverrottbare Material hält damit länger als manches heute neu gebaute Haus, wenn es sicher vor Mäusefraß geschützt wird. Wie der Marder seine Schwäche für Bremsleitungen in PKWs entdeckt hat, so finden Mäuse offensichtlich Gefallen am Zerbeißen von EPS-Platten.

Muss die Dämmung aus baulichen oder sonstigen Gründen entfernt werden, sollte der Hauseigentümer kein Problem haben, sagen die Hersteller der Dämmstoffe. Unverschmutzte Dämmplatten können problemlos einer stofflichen Wiederverwertung zugeführt werden. Das betrifft jedoch nur Verschnitt und anderen Abfall, der bei der Dämmung der Fassade entsteht. Verschmutztes EPS wurde bislang meist als Bauabfall zur Deponie gebracht. Dies ist inzwischen nach den Vorgaben der Ablagerungsverordnung nicht mehr möglich. Und so bleibt meist nur die Nutzung des guten Heizwertes über die Verbrennung in entsprechend ausgerüsteten Müllheizkraftwerken. Da sich bei der Verbrennung in Verbindung mit den eingesetzten Flammschutzmitteln Dioxin bilden kann, ist die Verbrennung nicht in jeder Müllverbrennung möglich. Die Flammschutzmittel werden dem EPS zugesetzt, damit es als schwer entflammbar klassifiziert werden kann.

Auch die als Dämmmaterial zum Einsatz kommende Mineralwolle geht auf einen Hersteller zurück, der für seine Erzeugnisse einen wachstumsfähigen Markt suchte. Franz Haider hatte 1947 in Linz-Wegscheid eine Glasfaserproduktion gegründet und produzierte grobe Glasfasern zur technischen Isolierung und das sogenannte Engelshaar, das als Weihnachtsschmuck eine zeitlich stark begrenzte, saisonale Anwendung fand. 1957 erwarb man vom französischen Saint-Gobain-Konzern die Lizenz Mineralwolle im sogenannten Tel-Verfahren zu produzieren und nannte das Produkt Tel-Wolle. Unter dem Namen Saint-Gobain ISOVER ist das Unternehmen noch heute Lieferant für Dämmstoffe für Gebäude. Engelshaar als Christbaumschmuck ist heute vom Markt verschwunden. Wie andere Fasermaterialien steht auch Mineralwolle immer wieder im Verdacht krebsauslösend zu sein und so wird das Material als gesundheitsschädlich gekennzeichnet. Dies gilt in besonderer Weise für Materialien, die vor 2000 verbaut wurden und kein RAL-Zeichen tragen. Wie bei EPS tritt die Umweltbelastung schwerpunktmäßig bei der Entsorgung des Dämmmaterials auf. Zudem muss man nicht unbedingt die Fassade jedes Gebäudes hinter einer Dämmschicht verstecken, so wie man das bis in die 1970er-Jahre mit Eternit-Schindeln oder Kunststoff-Panelen gemacht hat.

Die Wärmedämmung der Gebäudehülle betrifft im Übrigen nicht nur die Fassade, sondern auch die Bereiche Dach und Keller/Bodenplatte. Im Gebäudebestand ist eine Dämmung der Bodenplatte von unten praktisch nicht mehr möglich und so muss man sich mit einer wasserdichten Dämmung der Kellerwände begnügen. Beim Dach oder der obersten Geschossdecke, falls das Dachgeschoss nicht ausgebaut ist, bieten sich natürliche Dämmstoffe wie Zelluloseflocken aus Altpapier, Schafwolle, Bims, expandierter Kork und zahlreiche andere Materialien an, die umweltverträglicher sind als EPS und problemloser zu verarbeiten als Mineralwolle. Bei einer sehenswerten, möglicherweise sogar denkmalgeschützten Außenfassade, lässt sich die Dämmung der Außenwände auch als Innendämmung realisieren. Der früher vielfach gefürchteten Baracken-Effekt beim Raumklima lässt sich vermeiden, wenn man im Innenraum einen Lehmputz aufbringt. Heutzutage gibt es für den Innenausbau Holzfaserdämmplatten, die schon mit einem Lehmputz versehen sind und nur noch im Fugenbereich verputzt werden müssen, was die Trockenzeiten drastisch reduziert.

Wer unter Gebäudedämmung nur eine Fassadenverpackung mit EPS- oder Mineralfaser-Dämmplatten versteht, hat deutlich zu kurz gedacht. Inzwischen ist zum Glück mit der Novellierung der Energiesparverordnung (ENEV 2014 ) der zeitliche Druck der gesetzlichen Vorgaben etwas reduziert worden und so sollte ein Hausbesitzer nicht zum nächstbesten Dämmstoff greifen, den ihm ein Vertreter des einschlägigen Handwerks andient, sondern in Ruhe und Gelassenheit auch andere Lösungen zur Dämmung hinsichtlich der jeweiligen Anwendbarkeit prüfen. Zudem nützt die beste Fassadendämmung nichts, wenn man die Wärme über alte Fenster ohne entsprechendes Isolierglas entweichen lässt.

flattr this!

January 27 2014

Das Freihandelsabkommen TTIP – eine Neuauflage des „vergoldeten Zeitalters“

1873 schrieben Mark Twain und Dudley Warner die gesellschaftskritische Satire „Das vergoldete Zeitalter – Eine Geschichte von heute“. Über 140 Jahre später ist die Geschichte so aktuell wie damals im sog. „Gilded Age“. Der amerikanische Soziologe Charles Derber stellt in seinem Buch „One World“ Verbindungslinien zwischen dem Kolonialismus und der Globalisierung her und er sieht das “Gilded Age“ als das Fenster zur Seele der Globalisierung. Für Gerber ist mit der Globalisierung die Leiche des „Vergoldeten Zeitalters“ wieder ausgegraben worden, einer Wirtschaftsepoche während der auf der einen Seite sich der Reichtum einiger „Räuberbarone“ auf unglaubliche Weise vermehrt und sich auf der anderen Seite Massenarmut und Korruption verbreitet hat. Mit dem Freihandelsabkommen TTIP könnte sich die Geschichte des „vergoldeten Zeitalters“ wiederholen und tatsächlich eine „Geschichte von heute“ werden. Von Christine Wicht.

Die Geschichte von heute
Transnational agierende Konzerne, deren Lobbyverbände und Denkfabriken träumen seit geraumer Zeit von einem globalen Markt ohne Schranken. Lobbyorganisationen und Politik verbünden sich im Freihandelsfieber, um die Führungsrolle in der Weltwirtschaft zu halten und auszubauen. Mit lockenden Parolen, wie mehr Wirtschaftswachstum oder der Schaffung neuer Arbeitsplätze, soll Akzeptanz in der Bevölkerung für das Handels- und Investitionsabkommens (Transatlantic Trade and Investment Partnership, TTIP) geschaffen werden.

Eine transatlantische Freihandelszone, frei von sozialen und moralischen Verpflichtungen, ohne Kontrolle, ohne Rechenschaftspflicht und ohne politische Gegenmacht, fördert eine anarchische Weltwirtschaft, der eine nie dagewesene Macht zuteil wird. Ein Vergleich mit der Macht der „Räuberbarone“ in den Vereinigten Staaten von Amerika im Ende des 19. Jahrhunderts zum Anfang des 20. Jahrhunderts, wie sie Mark Twain und Dudley Warner im „vergoldeten Zeitalter“ satirisch aufgespießt haben, drängt sich auf.

Die Buchstabenkürzel „ T“ und „I“ im Abkommen stehen für „Trade and Investment“, also für Handels- und Investitionsfreiheit. Die Verhandlungen über das Abkommen werden geheim geführt. Es ist allerdings durchgedrungen, dass Lobbyverbände Vorschläge für das Verhandlungsmandat der europäischen Seite einbringen konnten. Gegenstand der Verhandlungen ist nicht nur die Beseitigung von (ohnehin nicht sehr hohen) Zöllen, sondern vor allem das Schleifen sogenannter „nicht-tarifärer Handelshemmnisse“ [PDF - 8.4 MB], hierunter fallen solche Hemmnisse, die mit Hilfe von Vorschriften außerhalb des Außenhandelsrechts bestehen und ausländischen Anbietern den Marktzugang zu erschweren. Beispielsweise

  • technische Normen, Standards, Umweltklauseln, Verbraucherschutzbestimmungen
  • Kennzeichnungspflichten
  • Einfuhrmindestpreise, Ein- und Ausfuhrsteuern
  • Kontrollen über ausländische Investoren
  • gezielte Geldmarktkontrolle
  • nicht öffentliche Vergaberechte
  • Antidumpingregelungen.

Die Profiteure des Abbaus solcher Hemmnisse verschweigen natürlich, dass dieses Abkommen, um ein paar konkrete Beispiele zu nennen, etwa den Einfuhrzwang von Hormonfleisch, Genmais oder Chlorhühnern in die Europäische Union usw. zur Folge haben würde und somit dem Prinzip der politischen Selbstbestimmung in der Europäischen Union zuwider läuft.

Handels- und Investitionsabkommen schaffen ein Eldorado für Investoren

Der „Mechanismus zur Beilegung von Investor-Staat-Streitigkeiten“ verlagert die Gerichtsbarkeit auf die Wirtschaftsebene und schafft eine dem Gewaltenteilungsprinzip widersprechende Sondergerichtsbarkeit.

Bezüglich des Freihandelsabkommens ist von wesentlicher Bedeutung, dass die Kompetenz der Europäischen Union in Bezug auf die Aushandlung und die Annahme von Handelsverträgen durch den Vertrag von Lissabon unter anderem auf den Bereich ausländischer Direktinvestitionen ausgeweitet wurde. Das bedeutet, dass der Ministerrat überwiegend mit qualifizierter Mehrheit (und ohne Vetorecht eines einzelnen Mitgliedstaates) über die Annahme von Handelsverträgen entscheidet. EU-Handelskommissar Karel De Gucht sagte dazu in einer Pressemitteilung der EU-Kommission, Brüssel am 12. Dezember 2012:

„Dies ist ein entscheidender Fortschritt für die Investitionspolitik der EU und eine der grundlegendsten Aktualisierungen der Handelspolitik seit dem Vertrag von Lissabon. Damit erhalten geltende bilaterale Investitionsabkommen, die zwischen den EU-Mitgliedstaaten und Drittstaaten abgeschlossen wurden, und die nach und nach durch EU-weite Investitionsabkommen ersetzt werden, eine sichere Rechtsgrundlage. Dadurch werden die Auslandsinvestitionen der EU geschützt und die Investoren erhalten rechtliche Möglichkeiten, ihre Interessen bei Bedarf zu verteidigen. Als anschauliches Beispiel kann hier die aktuelle Auseinandersetzung zwischen dem spanischen Unternehmen Repsol und Argentinien dienen. Gleichzeitig wird die Kommission geltende bilaterale Abkommen überprüfen und bewerten, um die Grundlage für künftige EU-weite Investitionsabkommen vorzubereiten, die die bilateralen Abkommen nach und nach ersetzen sollen. Ich möchte erreichen, dass die Auslandsinteressen aller europäischer Investoren mit der Zeit denselben Schutz genießen, was heute nur in manchen Fällen für Investoren aus einer begrenzten Zahl von Mitgliedstaaten der Fall ist“.

Das heißt praktisch: Es soll ein Eldorado für Investoren geschaffen werden, die in der Ausübung ihrer Geschäfte nicht mehr durch nationale Umweltauflagen, Arbeitnehmerrechte oder Verbraucherschutz gehemmt werden wollen. Dieser Traum könnte allerdings zu einem Albtraum für EU-Bürger werden, weil politische erkämpfte Standards und Schutzrechte mit dem Investor-Staat-Klageverfahren sturmreif geschossen werden. Momentan sind die Verhandlungen zum Investor-Staat-Klageverfahren zwar ausgesetzt, doch ist zu erwarten, dass die Forderung, unter einer anderen Überschrift zu schon bald wieder auf den Tisch kommt.

(Die Attac-Jugendgruppe hat einen freihandelskritischen Adventskalender zusammengestellt, in welchem die Auswüchse von Investitionsschutzklauseln aufgeführt sind)

Déjà-vu oder alles schon einmal dagewesen

Mark Twain und Charles Dudley Warner haben im Jahr 1873 in einem gesellschaftskritischen Roman mit dem Titel „Das vergoldete Zeitalter“ die Korruption und den brutalen Materialismus der frühen amerikanischen Kapitalisten angeprangert. Das vergoldete Zeitalter beschreibt die Zeit des „Gilded Age“, als ausgangs des 19. Anfang des 20. Jahrhunderts die sog. „Räuberbarone“, allen voran J.D. Rockefeller, J.P. Morgan, Cornelius Vanderbildt und Andrew Carnegie, gegenseitig im Aufsichtsrat des jeweils anderen saßen, um wie der amerikanische Soziologieprofessor Charles Derber in seiner Untersuchung schrieb, am Ende aus Stahl, Banking, Eisenbahn und Öl das Süppchen eines gemeinsamen, amerikaweiten Marktes zu kochen.

Derber stellt in seinem Buch „One World“ Verbindungslinien zwischen dem Kolonialismus und der Globalisierung her und er sieht das “Gilded Age“ als das Fenster zur Seele der Globalisierung. Für Gerber ist mit der Globalisierung die Leiche des „Gilded Age“ wieder ausgegraben worden, eines „vergoldeten Zeitalters“ das auf der einen Seite
Reichtum auf unglaubliche Weise vermehrt und auf der anderen Seite Massenarmut und Korruption verbreitet hat (ebd. S. 55). Die „Räuberbarone“ betrieben Sweatshops, die eine traurige Vorwegnahme der heutigen Fabriken in Entwicklungsländern darstellten (ebd. S. 34). Von den Arbeitern des „Gilded Age“, die sich 12-16 Stunden täglich abplagten, blieben 80 Prozent ihr Leben lang arm. Der Grund hierfür war das niedrige Lohnniveau, das die „Räuberbarone“ durch Ausbeutung des riesigen Arbeitskräfte-Pools unter den damaligen Einwanderern aufrechterhielten und vor allem durch die Verhinderung der Gewerkschaften.

Die „Räuberbarone“ waren „Globalisierer einer Nation“; der neue riesige US-Markt, den sie schufen, war größer als manches europäische Kolonialreich. Ihre Gallionsfigur war John D. Rockefeller und sie wurden berühmt durch die Gründungen von Standard Oil, U.S. Steel und der Morgan-Banken und wegen der gigantischen Profite, die sie im gewissenlosen Kampf gegen Gewerkschaften und mit der Ausbeutung der Einwanderer erzielten (ebd. S. 57).

Bei ihrer „Integration“ der Wirtschaft von New York bis Kalifornien demolierten die „Räuberbarone“ die Demokratie und hoben die die bestehende soziale Ordnung aus den Angeln. Derber arbeitet heraus, dass die „Räuberbarone“ nicht nur einen Wirtschaftskreuzzug betrieben, sondern auch den Ausverkauf von Gesellschaft und Politik. Sie übernahmen geradezu die Stützpfeiler der Gesellschaft, also die Regierung, die Schulen, die Presse, die Kirche. „Mit einem Wort: Die Wirtschaft begann die gesamte Gesellschaft zu verschlingen“ (ebd. S. 58).

Für Derber ist der Schutzwall zwischen Großunternehmen und Regierungen gefallen. Wirtschaft und Regierung bilden eine intime Partnerschaft, innerhalb der Nationalstaaten und in der Weltordnung. Im neuen System besitze die Regierung zwar formal immer noch die Macht die Kontrolle auszuüben, aber sie wurde an eine Partnerschaft übertragen, die in Friedenszeiten zunehmend die Welt dominiere (ebd. S. 68). In der inzestuösen Verschmelzung von Wirtschaft und verfassungsmäßiger Regierung scheinen Regierungen wie Wirtschaftsunternehmen zu agieren und Unternehmen mehr und mehr wie Regierungsmächte (ebd. S. 69). Derber geht auf die so genannte Marktdemokratie ein, die suggerieren soll, dass wer am Markt teilnimmt, also Konsumenten und Investoren, über ihre Vorlieben abstimmen und dass diese Stimme wichtiger sei als der Wahlzettel. Die Marktdemokratie liefere die Illusion eines Machtanspruchs, sie basiere auf dem Prinzip „Ein Dollar, eine Stimme“, doch das sei zutiefst undemokratisch und vergrößere die Kluft zwischen Arm und Reich, weil es den Reichen eine viel größere politische Interessenvertretung ermögliche (ebd. S. 85).

Der „freie Handel“, so Derber, das Mantra heutiger Tage, war fast immer bestimmt von Regeln und Bedingungen, die der mächtigere Partner bestimmte (ebd. S. 49). Die harsche Ablehnung von Gewerkschaften sind für Derber bezeichnend für globale Freihandelszonen (ebd. S.52).

Durch den Widerstand der Gewerkschaften und von demokratischen Gegenbewegungen gelang es, die „Räuberbarone“ zu zähmen. Die Regierungen der „Progressive Era“ und des „New Deal“ sorgten für mehr sozialen Ausgleich und allgemeinen Wohlstand (ebd. S. 85).

Dirk Jürgensen hat das Buches „Das vergoldete Zeitalter – eine Geschichte von heute“, neu herausgegeben. Er schreibt im Vorwort, dass der Roman von Charles Dudley Warner und Mark Twain auch heute noch aktuell sei:

„Der technologische Fortschritt allgemein und die die absolute Freiheit des ungebremsten Marktes, die Entwicklung hin zu einem ökonomischen Imperialismus, brachten den im Grunde demokratisch organisierten Vereinigten Staaten eine neue Adelsschicht, die des Geldadels oder „high society“, Rockefeller, Vanderbildt und Carnegie sind nur einige Namen der gern als „robber barons“ bezeichneten Spitzenkapitalisten… Zunehmende Korruption, das rücksichtslose Aushebeln demokratischer Grundrechte, Lobbyismus, Vetternwirtschaft, die Arroganz der abgekoppelten Welt der Oberschicht und die Spekulationen mit fiktiven Werten ohne ein real nachweisbares Vermögensfundament sollten dem nicht enden wollenden Aufschwung, sollten der Epoche unendliche Chancen aufzeigen. Zugleich wuchsen Armut und Unzufriedenheit jener zahlenmäßig überwiegenden Gesellschaftskreise, die von all dem Aufschwung nicht profitierten oder gar unter den Begleiterscheinungen des allzu freien Marktes litten…1893 platzte eine Finanzblase. Man hatte den Eisenbahnbau über den eigentlichen Bedarf hinaus betrieben, ihn zum größten Industriezweig werden lassen, Bauprojekte wurden über zukünftig zu erwartende Erträge finanziert, Unternehmen begannen andere zur Beseitigung eines Konkurrenten, ohne wirkliche finanzielle Grundlagen aufzukaufen…“

Wirtschaftsmacht, Medien und Politik bilden damals wie heute eine Allianz gegen die Interessen einer großen Mehrheit der Bevölkerung, mit dem Ziel die soziale Marktwirtschaft einem modernen Feudalismus zu unterwerfen. Das Interesse global agierender Konzerne ist die Öffnung weiterer Märkte, die Schaffung eines günstigen Investitionsklimas und der Abbau von Arbeitnehmerrechten, sozialer Rechte und ökologischer Standards. Diese Entwicklung führt zunehmend zu einer Unterordnung des Verhaltens des Einzelnen unter den Willen der Wirtschaft. Das sind im Kern Wesenszüge eines totalitären Regimes. Der Staat als Hüter der wirtschaftlichen und sozialen Ordnung verliert seine Bedeutung und seine Macht, weil global agierende Konzerne ihre Regeln für allgemeingültig erklären. Dabei wird ignoriert, dass der Wettbewerb Augenmaß und soziale Verantwortung braucht. Sollte die geplante Freihandelszone TTIP geschaffen werden, ist dies ein neuerlicher Versuch, wie Derber schreibt, die Demokratie und die soziale Ordnung aus den Angeln gehoben.

Umweltorganisationen, globalisierungskritische Bewegungen, Gewerkschaften und lobbykritische Netzwerke müssen sich auf europäischer Ebene verbünden und gemeinsam, als Allianz gegen ein neues „vergoldetes Zeitalter“ ankämpfen. Ein Netzwerk allein wird es nicht schaffen gegen die Übermacht der Konzerne anzukommen. Nur wenn die Bürger für die politischen Errungenschaften eintreten und gegen eine konzerngesteuerte Wirtschaftsordnung aufstehen und mit ihren sozialen, umwelt- und verbraucherschutzpolitischen Forderungen einen wirksamen Gegenpol bilden, besteht die Möglichkeit auf eine nachhaltige, soziale und demokratische Globalisierung von unten.

Quellennachweis:
Charles Derber, „One World“ V on globaler Gewalt zur sozialen Globalisierung, Europa Verlag, Hamburg 2003, 256 Seiten, 19.90 Euro

Charles Dudley Warner, Mark Twain, Das vergoldete Zeitalter: Eine Geschichte von heute.
Books on Demand, 2010 – 348 pages; ISBN: 3839182557, 9783839182550

flattr this!

January 22 2014

Eine Million Jobverluste in Deutschland? Zur Diskussion über die Beschäftigungseffekte von Mindestlöhnen

Die Entscheidung von Union und SPD, einen gesetzlichen Mindestlohn von 8,50 Euro brutto je Stunde einzuführen, rief die erwarteten Reaktionen hervor.[1] Bereits im Vorfeld hatte „Star-Ökonom“ („Focus“) Hans-Werner Sinn, Präsident des Ifo-Instituts, vor den verheerenden Folgen gewarnt: „Ein flächendeckender gesetzlicher Mindestlohn von 8,50 Euro würde nach unseren Schätzungen gut eine Million Arbeitsplätze vernichten“ (zit. nach Focus-Online – Ifo-Chef Sinn warnt vor Mindestlohn: „Vernichtet eine Million Arbeitsplätze“). Unterstützung erhielt er von einem zweiten „Star-Ökonomen“ („Focus-Money“), nämlich Thomas Straubhaar, dem Direktor des Hamburgischen Weltwirtschaftsinstituts. Dieser beklagte nicht nur „die Beschäftigung zerstörenden Wirkungen von Mindestlöhnen“, sondern auch die fehlende Einsicht in die negativen Folgen auf Seiten der Politiker und ihrer Wähler: „[...] offensichtlich sind weder die politischen Entscheidungsträger noch deren Wähler(innen) willens, sich die klugen ökonomischen Argumente zu Eigen zu machen“ (Straubhaar 2013).[2] Ein Gastartikel von Günther Grunert.

Auch die auf den 1. Januar 2015 verschobene Einführung des Mindestlohns und die Ausnahmeregelungen bis 2017 (alle Tarifverträge mit Stundenentgelten unter 8,50 Euro gelten bis zum 31. Dezember 2016 weiter; ebenso sind Branchenmindestlöhne von unter 8,50 Euro bis Ende 2016 wirksam) haben die Gemüter nicht beruhigt. So schimpft etwa die Tageszeitung „Die Welt“: „Die November-Zahlen zeigen: Der Arbeitsmarkt befindet sich in einer glänzenden Verfassung. Doch nun kommt der Mindestlohn – und kaum ein Experte hat Zweifel, dass er das Job-Wunder in Gefahr bringt“.

Einmal ganz abgesehen von der schönfärberischen Beschreibung des deutschen Arbeitsmarktes: Die Behauptung der „Welt“, dass sich praktisch alle Experten über die Risiken eines Mindestlohns für die Beschäftigung einig seien, zeigt nur, dass die Zeitung offenkundig die relevante Literatur zum Thema nicht kennt. In Abschnitt 1 wird kurz der empirische Forschungsstand zu den Beschäftigungswirkungen von Mindestlöhnen vorgestellt, der die These der „Welt“ klar widerlegt. Der Schwerpunkt des vorliegenden Beitrags soll aber auf den theoretischen Grundlagen der Mindestlohn-Kritik liegen. Dazu wird in Abschnitt 2 zunächst die neoklassische Position zum Mindestlohn dargelegt und im folgenden Punkt 3 einer kritischen Betrachtung unterzogen. Abschnitt 4 versucht anschließend zu klären, welche Beschäftigungseffekte tatsächlich von Mindestlöhnen ausgehen. Abschnitt 5 beendet mit einem Resümee und einem Ausblick die Analyse.

  1. Empirische Untersuchungen zum Mindestlohn

    In seinem neuesten Jahresgutachten 2013/2014 stellt der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung zu den Beschäftigungswirkungen von Mindestlöhnen fest: „Insgesamt weist die Mehrheit der international durchgeführten Studien dennoch auf negative Beschäftigungseffekte (Hervorhebung im Original, G.G.) von Mindestlöhnen hin, insbesondere die meisten jener Studien, die methodisch als verlässlicher angesehen werden können (Neumark und Wascher, 2006)“ (JG 2013, S. 270).

    Dieser Auffassung wird von Peter Bofinger, einem Mitglied des Rates, in einem Minderheitsvotum zu Recht vehement widersprochen (S. 289ff). Interessant ist aber auch die Tatsache, dass die Mehrheit des Rates als Beleg für ihre These einen Forschungsüberblick von Neumark/Wascher (2006, 2007) anführt, der mehrere wichtige Studien, die erst nach 2007 erschienen, nicht berücksichtigt (darunter Dube et al. 2010 und Allegretto et al. 2011). Zudem müssen berechtigte Zweifel an der Objektivität der beiden Autoren Neumark und Wascher angemeldet werden, etwa wenn sie von den 52 einbezogenen Untersuchungen auf Basis von US-Daten 19 als „besonders glaubwürdig“ einstufen, von denen fünf ihre eigenen Studien sind (Schmitt 2013, S. 6).

    Tatsächlich herrschte zwar bis Anfang der 1990er Jahre auch in den USA unter Volkswirten weitgehender Konsens, dass eine Einführung oder Erhöhung von Mindestlöhnen zu erheblichen Jobverlusten im Niedriglohnsektor führen würde. Nachdem aber eine ganze Reihe empirischer Untersuchungen zu den Auswirkungen gesetzlicher Mindestlohnerhöhungen – sogar von neoklassisch orientierten Autoren – keine negativen Beschäftigungseffekte feststellen konnte, begann unter US-Ökonomen ein Umdenken. Eine zunehmende Zahl an US-amerikanischen Volkswirten bezweifelt mittlerweile, dass ein erhöhter Mindestlohn Jobs im Niedriglohnsektor kostet, so dass die Mehrheitsverhältnisse sogar unter US-Ökonomen bei weitem nicht mehr so klar sind wie noch vor zwanzig Jahren (Dullien et al. 2009, S. 206).

    Der allmähliche Sinneswandel wurde eingeleitet durch eine einflussreiche Studie der Princeton-Ökonomen David Card und Alan B. Krueger (1994). Sie verglichen die Beschäftigungsentwicklung in Fast-Food-Restaurants im US-Bundesstaat New Jersey, in dem im Jahr 1992 der gesetzliche Mindestlohn erhöht wurde, mit der im Nachbarstaat Pennsylvania, in dem es keine solche Mindestlohnanhebung gab, und fanden „keinen Hinweis, dass der Anstieg des Mindestlohns die Beschäftigung verringerte“ (Card/Krueger 1994, S. 772; Übersetzung G.G.). Die Card/Krueger-Studie löste intensive theoretische und empirische Debatten über die Auswirkungen von Mindestlöhnen aus, die hier natürlich nicht nachgezeichnet werden können. Interessant ist aber, dass es inzwischen – nicht nur in den USA – neben einer Reihe von Untersuchungen, die weiterhin die neoklassische Position stützen, dass eine Erhöhung des Mindestlohns zu negativen Beschäftigungseffekten führt (darunter Currie/Fallich 1996; Chapple 1997; Burkhauser et al. 2000; Machin/Wilson 2004), eine Vielzahl empirischer Studien mit ganz anderen Ergebnissen gibt: Sie zeigen, dass von Mindestlöhnen bzw. Mindestlohnerhöhungen keine signifikanten negativen Beschäftigungseffekte ausgehen; einige Untersuchungen weisen sogar positive Auswirkungen auf die Beschäftigung nach (z. B. Benhayoun 1994; Card/Krueger 1995, 1998 und 2000; Dolado et al. 1996 und 2000; Lang/Kahn 1998; Stewart 2004; Dickens/Draca 2005; Draca et al. 2006; OECD 2006; Dube et al. 2010; Allegretto et al. 2011 und 2013; Hirsch et al. 2011; Addison et al. 2012; Bosch/Weinkopf 2012; Manning 2012; Department for Business, Innovation and Skills 2013).

    Natürlich konnten die Vertreter der Neoklassik diese Ergebnisse nicht einfach ignorieren. So wurde von einigen ein Spezialfall wiederbelebt, den Stigler (1946) vor langer Zeit analysiert hatte, nämlich das sog. „Monopson“, ein Nachfragemonopol, mit dem man einen Weg gefunden zu haben glaubte, im Rahmen eines neoklassischen Modells eine steigende Beschäftigung nach einer gesetzlichen Mindestlohnanhebung zu begründen (Dullien et al. 2009, S. 206).[3] Sehr überzeugend ist das nicht, da das Monopson-Phänomen kaum genügend Relevanz besitzen dürfte, um daraus allgemeine makroökonomische Schlussfolgerungen ziehen und das empirische Versagen des neoklassischen Standardmodells erklären zu können. Der Rückzug auf den Monopsoneffekt zeigt aber, wie sehr die Vertreter des neoklassischen Ansatzes durch die neueren empirischen Ergebnisse zum Mindestlohn in die Defensive geraten sind.

  2. Mindestlöhne in der neoklassischen Theorie

    In der neoklassischen Theorie haben Mindestlöhne eindeutig negative Beschäftigungseffekte: Unter der stark vereinfachenden Annahme homogener Arbeit (mit nur einem Lohnsatz für die gesamte Volkswirtschaft) führen Mindestlöhne oberhalb des markträumenden Lohns zu Arbeitslosigkeit; unter der realistischeren Annahme heterogener Arbeit (und damit unterschiedlicher Lohnsätze) bewirkt ein einheitlicher Mindestlohn in der Volkswirtschaft, der über dem markträumenden Lohn für gering qualifizierte Arbeitskräfte liegt, Arbeitslosigkeit in dieser Qualifikationsgruppe, d.h. im Niedriglohnsektor.

    Das neoklassische Modell basiert auf mehreren Voraussetzungen: Erstens wird unterstellt, dass die Arbeitskräfte vollständig über die Löhne in allen Unternehmen informiert und vollständig mobil sind, so dass sie frei entscheiden können, wo sie ihre Arbeit anbieten (es existieren mithin keine Transaktionskosten). Zweitens funktioniert der Arbeitsmarkt in diesem Modell genau wie jeder andere Markt, also etwa der für Äpfel oder Kartoffeln. Drittens führt eine Nominallohn- zu einer Reallohnänderung und viertens besteht eine perfekte Substituierbarkeit zwischen Arbeit und Kapital (Herr et al. 2009, S. 15).

    Neoklassische Ökonomen gehen davon aus, dass das „Grenzprodukt“ eines Produktionsfaktors exakt messbar ist und mit seiner eingesetzten Menge sinkt. Folglich setzt ein Unternehmen immer so viel von einem Produktionsfaktor ein, bis jede weitere eingesetzte Einheit weniger erwirtschaftet, als sie an Kosten verursacht. Nehmen wir an, zehn Arbeiter arbeiten den ganzen Tag in einem Unternehmen und produzieren eine bestimmte Anzahl an Produkten. Jeder zusätzlich eingestellte Arbeiter steigert zwar die Produktion weiter, aber sein Grenzprodukt nimmt ab (d.h. der elfte Arbeiter erhöht die Gesamtproduktion um weniger als der zehnte, der zwölfte um weniger als der elfte usw.). Das Grenzprodukt der Arbeiter sinkt deshalb, weil von einem gegebenen Kapitalstock, d.h. hier von einem fixen Bestand an Maschinen, ausgegangen wird, bei dem jenseits des Auslastungsoptimums der Kapazitäten der zusätzliche Ertrag des Arbeitseinsatzes abnimmt. Ist das Unternehmen mit fünf Maschinen ausgestattet und erreicht es sein technisches Leistungsoptimum bei zwei Arbeitern pro Maschine, dann lässt sich durch den Einsatz von mehr als zehn Arbeitern die Produktion nicht mehr entsprechend steigern: Jeder zusätzlich beschäftigte Arbeitnehmer erhöht zwar den Gesamtertrag, aber mit abnehmenden Zuwächsen, bis sich am Schluss die Arbeiter so sehr gegenseitig „auf die Füße treten“, dass das Grenzprodukt der Arbeit gegen Null geht.

    Das Unternehmen muss, wenn es seinen Gewinn maximieren will, solange Arbeitskräfte einstellen, bis das Grenzprodukt des zuletzt eingestellten Arbeiters gerade den von ihm verursachten Kosten (d. h. seinem Lohn) entspricht. Um in unserem Beispiel zu bleiben: Über die zehn Arbeiter hinaus wird noch ein elfter Arbeiter eingestellt, wenn der Lohn für jeden Arbeiter höchstens so hoch ist wie die Grenzproduktivität des letzten Arbeiters. Denn vorausgesetzt wird, dass gleiche Arbeit gleich entlohnt wird. Lag das gewinnmaximierende Beschäftigungsoptimum des Unternehmens bisher bei zehn Arbeitern, wird ein elfter nur dann eingestellt, wenn er zu einem geringeren Lohn als dem bisher gezahlten arbeitet und darüber hinaus auch die anderen zehn Arbeiter einen Lohnverzicht leisten, der der geringeren Grenzproduktivität des elften gegenüber dem zehnten Arbeiter entspricht.

    Ähnlich verfährt die neoklassische Theorie bei der Bestimmung des gewinnmaximalen Kapitaleinsatzes. Auch hier gilt, dass das Grenzprodukt des Kapitals mit wachsendem Kapitaleinsatz abnimmt. Bei der Entscheidung, wie viel Kapital sie in der Produktion einsetzen wollen, vergleichen die Unternehmen den Wert des Grenzprodukts des Kapitals mit den (Leih- oder Verwendungs-) Kosten des Kapitals. Ein vereinfachtes Beispiel: Unter der Annahme einer gegebenen Anzahl an Arbeitskräften fragt sich ein Unternehmen, wie viele neue Maschinen es anschaffen soll. Jede weitere Maschine trägt weniger als die zuvor eingesetzte zur Produktion bei. Der Grund dafür ist die konstante Anzahl von Arbeitern, mit der zusätzliche Maschinen nicht mit maximaler Wirtschaftlichkeit eingesetzt werden können: Selbst wenn das Unternehmen das Arbeitstempo erhöhte, könnten nicht 10 Arbeiter 100 Maschinen bedienen. Jede weitere Maschine trägt – wegen der begrenzten Zahl an Arbeitern und der begrenzten Fläche – weniger zur Produktion bei als die vorhergehende. Daher sollte ein Unternehmen solange weitere Maschinen installieren, bis das Grenzprodukt einer Maschine genau ihren Kosten entspricht.[4]

    Wichtig ist nun, dass die Unternehmen nach der neoklassischen Denkweise in der Produktion Arbeit durch Kapital oder umgekehrt Kapital durch Arbeit substituieren können. Bei der Herstellung eines gegebenen Outputniveaus lassen sich – so die Idee – eine Vielzahl von Kombinationen von Kapital und Arbeit anwenden, d.h. die Unternehmen sind hier nicht auf eine bestimmte Anzahl von Arbeitskräften angewiesen. Ist Arbeit relativ billig, werden die Unternehmen relativ viel Arbeit verwenden; ist das Kapital relativ kostengünstig, werden sie relativ viel Kapital einsetzen. Je mehr deshalb die Arbeitnehmer real als Entlohnung ihrer Arbeit durchsetzen können oder je mehr etwa die Reallöhne in einem Niedriglohnbereich nach Einführung eines gesetzlichen Mindestlohns angehoben werden, desto größer ist für die Unternehmen der Anreiz, Arbeiter zu entlassen und kapitalintensiver zu produzieren. Mindestlöhne (genauer: Mindestreallöhne) sind in neoklassischer Sicht also entweder wirkungslos oder gefährlich. Wirkungslos seien sie, wenn sie unter dem Gleichgewichtslohnsatz lägen, weil dann der Marktlohn höher sei; gefährlich seien sie, wenn sie über dem Marktlohn lägen, weil sie in diesem Fall Arbeitslosigkeit erzeugten. Mindestlöhne einzuführen, um die Löhne gering qualifizierter Arbeitskräfte anzuheben, sei genau der falsche Weg. Denn die Geringqualifizierten sind ja in neoklassischer Lesart gerade deshalb überdurchschnittlich von Arbeitslosigkeit betroffen, weil ihr Lohn im Vergleich zu ihrer Grenzproduktivität zu hoch sei, ihr Grenzbeitrag also unter ihrem Lohn liege. Wenn man also die Beschäftigungschancen gering qualifizierter Arbeitskräfte verbessern wolle, müsse deren Lohn gesenkt werden, nicht aber via Mindestlohn noch erhöht.

  3. Zur Kritik des neoklassischen Modells

    Die neoklassische Makroökonomie ist derart mit Problemen überfrachtet, dass die nachfolgende Kritik nicht umfassend sein kann, sondern sich aus Platzgründen auf einige wichtige Punkte beschränken muss.[5]

    Allein die Grundidee mit der Grenzproduktivität ist außerordentlich problematisch, obwohl die Grenzproduktivitätstheorie, mit der die funktionelle Einkommensverteilung erklärt werden soll, von vielen neoklassisch orientierten Autoren schon fast wie ein unumstößliches Naturgesetz behandelt wird.[6]

    Dabei könnte dieses Konzept nur dann Gültigkeit beanspruchen, wenn es möglich wäre, die Produktivität einer einzelnen Tätigkeit zu messen, also eindeutig und genau zu identifizieren, wie viel der einzelne Arbeiter bei einem Produktionsprozess beiträgt. Dies ist aber in der Realität in den meisten Fällen unmöglich, da die „Leistung“ eines einzelnen Arbeitnehmers nur in Kooperation mit anderen Arbeitnehmern zu einem messbaren Ergebnis, einem Endprodukt führt. Moderne Produktionsstätten sind ja gerade durch ein sehr komplexes Zusammenwirken von Mitarbeitern mit höchst unterschiedlicher Qualifikation und Motivation gekennzeichnet, das eine individuelle Zurechnung der Gesamtleistung auf die einzelnen Beschäftigten gar nicht zulässt (Flassbeck 2006, S. 113). Flassbeck et al. verdeutlichen das Mess- und Zuordnungsproblem der Grenzproduktivitätstheorie an einem treffenden Beispiel:

    „Wie hoch ist die Produktivität eines Autoreifens in Hinblick auf die Fahrleistung eines Pkw? Und wie hoch ist sie im Vergleich zur Produktivität des Lenkrads oder der Bremse des Fahrzeugs? Diese Fragen klingen nicht nur unsinnig, sie sind es auch, weil klar ist, dass ein Auto ohne Reifen ebenso wenig fährt wie eines ohne Lenkrad oder Bremse. Daher kann nur das Gesamtprodukt ‚Fahrleistung des Autos‘ bestimmt und zum Beispiel mit der Fahrleistung eines anderen Automodells verglichen, nicht aber einzelnen Teilen zugeordnet werden. Genauso unsinnig ist es zu fragen, wie viel die geputzten Böden im Büroturm der Bank x zum Abschluss des Kreditvertrags zwischen dieser Bank und dem mittelständischen Unternehmer y beigetragen haben.“ (Flassbeck et al. 2012, S. 63)

    Doch damit nicht genug: Die Grenzproduktivitätstheorie ist auch in sich nicht stimmig. Wäre sie es, so müsste die Summe der Grenzprodukte aller individuellen Einsatzfaktoren dem gesamten Grenzprodukt entsprechen. Nehmen wir in einem einfachen Beispiel an, drei Personen betrieben ein Unternehmen und produzierten in Zusammenarbeit ein Produkt. Jede von ihnen hat eine Schlüsselfunktion inne, d.h. ohne ihren individuellen Beitrag könnte das Produkt nicht hergestellt werden. Ohne Kooperation würden demnach keine Erlöse anfallen; jeder der drei Mitarbeiter ist also auf die Zusammenarbeit mit seinen beiden Kollegen angewiesen. Nach der Grenzproduktivitätstheorie kann jetzt zwar der „Grenzbeitrag“ jedes Einsatzfaktors (also jedes einzelnen der drei Mitarbeiter) zum Unternehmensertrag ermittelt werden, indem der Gesamtertrag der Kooperation verglichen wird mit dem Ertrag, den das Unternehmen erzielt hätte, wenn der betreffende Faktor nicht an der Produktion mitgewirkt hätte (und dieser Ertrag wäre dann ja gleich Null gewesen, weil ohne Kooperation gar keine Erlöse zustande gekommen wären). Folglich kann jeder der drei Mitarbeiter mit Fug und Recht den gesamten Unternehmensertrag für sich beanspruchen, womit die Summe der drei auf diese Weise ermittelten Grenzbeiträge dem dreifachen realen Unternehmensertrag entspräche, der aber überhaupt nicht zur Verteilung zur Verfügung steht.[7]

    Ein weiteres Argument gegen die Grenzproduktivitätstheorie lautet folgendermaßen: Selbst wenn man messen könnte, wie viel ein Arbeiter in seinem Unternehmen zu dessen Endprodukt konkret beigetragen hat, bleibt unklar, wie man diesen Beitrag objektiv mit dem Beitrag eines anderen Arbeiters in einem anderen Unternehmen, das ganz andere Güter herstellt, vergleichen soll. Das kann man nur, wenn man den Preis der jeweils produzierten Güter in die Betrachtung einbezieht, denn erst dann kann man z.B. eine produzierte Kilowattstunde mit einem Porsche vergleichen. Doch – und das ist der Haken – sind die Produktpreise auch von der Nachfrage nach den Produkten abhängig. Steigt die Nachfrage nach Produkt A relativ zu Produkt B und entsprechend der Preis für A, sähe es gemäß Grenzproduktivitätstheorie so aus, als ob die Arbeiter, die A herstellen, relativ produktiver geworden wären im Vergleich zu denen von B, auch wenn sich an ihren tatsächlichen Produktionsverhältnissen nichts geändert hat. Mit anderen Worten: In Wirklichkeit gibt es keine rein technische Grenzproduktivität eines Arbeiters und damit kann es auch keine Entlohnung geben, die unabhängig von den Nachfrageverhältnissen auf den Gütermärkten ist und nur von der Qualifikation, der persönlichen Einsatzbereitschaft des Arbeiters und der technischen Ausstattung seines Arbeitsplatzes bestimmt wird.

    Die neoklassische Theorie der Entlohnung gemäß „Grenzprodukt“ ist mithin eine Fiktion. Die Arbeitnehmer erhalten in einer Marktwirtschaft im Allgemeinen eine Entlohnung, die der Knappheit von Arbeitskräften mit gleicher oder ähnlicher Qualifikation entspricht, nicht aber irgendeiner „individuellen Grenzproduktivität“. Der Begriff der Knappheit umfasst nämlich beides, die Menge des Angebots und die Menge der Nachfrage nach einer bestimmten Qualifikation von Arbeit.[8]

    Mindestens ebenso problematisch ist die neoklassische Analyse des Kapitalmarktes, die – wie oben dargestellt – nach der gleichen Methode erfolgt wie die des Arbeitsmarktes: Sowohl der Reallohnsatz als auch der Preis des Kapitals (Zinssatz bzw. Profitrate) entsprechen den jeweiligen Grenzproduktivitäten, d.h. sie werden durch die Grenzprodukte der Arbeit bzw. des aggregierten Wertes der Kapitalgüter (über die sog. Cobb-Douglas-Produktionsfunktion[9]) bestimmt. Sind so die Faktorpreise gegeben, ergibt sich die Verteilung, indem man die Faktorpreise mit den Faktormengen multipliziert. Aber wie soll man die „Menge an Kapital“ bzw. den aggregierten Wert der Kapitalgüter bestimmen? Wie soll man Laserschneidegeräte, Computer, Werkbänke, Lastwagen und Teigknetmaschinen zusammenzählen? Die naheliegende Idee, die Preise der verschiedenen, heterogenen Kapitalgüter zu einem gesamtwirtschaftlichen Kapitalstock aufzuaddieren, ist keine Lösung. Denn die Preise der verschiedenen Kapitalgüter lassen sich ohne Kenntnis des Kapitalzinses (der Profitrate) nicht bestimmen. Die Profitrate wird aber angeblich von der eingesetzten Menge an Kapital determiniert, so dass eine zirkuläre Argumentation entsteht:

    „Wenn die Summe der heterogenen Kapitalgüter als ein Aggregat errechnet werden soll, das mit Profiten vergleichbar ist, muss sie in Werteinheiten ausgedrückt werden, um ein homogenes Verhältnis von Profit zu Kapital zu ergeben. Aber wenn die Profitrate dann durch das Grenzprodukt dieser Summe bestimmt wird, ergibt sich ein logischer Fehler in der Argumentation, weil die Preise der Kapitalgüter ursprünglich mit irgendeiner Profitrate berechnet worden sein müssen. Folglich kann das Grenzprodukt des Kapitals – wie durch die aggregierte Produktionsfunktion gegeben – nur die Profitrate bestimmen, die bereits bestimmt ist und in den Preisen der Kapitalgüter ausgedrückt ist, die verwendet werden müssen, um ein homogenes Maß des Kapitalstocks zu finden“ (Kregel 1975, S. 17; Übersetzung G. G.) Man dreht sich also ähnlich im Kreis wie bei der Bestimmung des „Grenzprodukts“ des jeweiligen Arbeiters, die auch nicht unabhängig von Marktpreisen funktioniert.

    Wendet man sich nun den Grundannahmen des neoklassischen Modells zu, die im letzten Abschnitt vorgestellt wurden, so zeigt sich, dass nicht eine einzige von ihnen realistisch ist. Dass nicht alle Arbeitnehmer über perfekte Information und perfekte Mobilität verfügen, dürfte unmittelbar einleuchten und braucht daher nicht näher erläutert zu werden. Aber auch die Vorstellung, dass der Arbeitsmarkt im Prinzip nicht anders funktioniere als der Markt für Kartoffeln, trifft in keiner Weise zu. Beim Preismechanismus auf dem Kartoffelmarkt, wo sich ein bestimmter Preis bildet, zu dem die angebotene und die nachgefragte Menge genau übereinstimmen, wird implizit angenommen, dass Angebot und Nachfrage unabhängig voneinander sind.

    Diese für den Kartoffelmarkt weitgehend zutreffende Annahme ist jedoch auf dem gesamtwirtschaftlichen Arbeitsmarkt bzw. auf seinem Niedriglohnsegment nicht gegeben, denn hier beeinflusst der Preis, d.h. der Lohn, die Güternachfrage der Verbraucher, von der dann wieder die Zahl der von den Unternehmen benötigten und damit nachgefragten Arbeitskräfte abhängt (Flassbeck/Spiecker 2007, S. 62). Es ergeben sich somit zwei entgegengesetzte Effekte einer breit angelegten Lohnsteigerung: Auf der einen Seite sinkt die (gesamtwirtschaftliche) Nachfrage nach Arbeitskräften von Seiten der Unternehmen, weil deren Kostenbelastung mit der Lohnerhöhung zunimmt; auf der anderen Seite steigt die Nachfrage der Unternehmen nach Arbeitskräften, weil die gesamtwirtschaftliche Güternachfrage mit der Lohnerhöhung wächst. Der Gesamteffekt ist daher unbestimmt und lässt sich nicht – wie beim Kartoffelmarkt – mit dem simplen Standard-Diagramm einer ansteigenden Angebots- und einer fallenden Nachfragekurve mit einem markträumenden Preis (Lohn) im Schnittpunkt abbilden.

    Nicht korrekt ist auch die dritte, oben genannte Annahme, dass Nominallohnänderungen mit entsprechenden Reallohnänderungen einhergehen. Behauptet wird damit, dass es die Arbeitnehmer bzw. ihre Gewerkschaftsvertreter selbst in der Hand hätten, die Beschäftigungssituation zu verbessern, indem sie maßvolle Lohnabschlüsse tätigten. Tatsächlich aber geht es in Lohnverhandlungen immer um Nominallöhne und niemals um Reallöhne. Selbst wenn man also die (falsche) neoklassische These akzeptiert, dass die Reallöhne gesenkt werden müssten, um Vollbeschäftigung zu erreichen, überzeugt die Argumentation nicht. Denn Reallöhne sind das Resultat von Marktprozessen, d.h. sie werden durch die Verhältnisse auf den Absatzmärkten bestimmt, nicht aber in Verhandlungsrunden. Stimmen die Gewerkschaften einer Nominallohnsenkung (oder einer Tariflohnanhebung unterhalb – statt im Ausmaß – des Produktivitätsanstiegs) zu, so führt dies zu einem negativen Nachfrageeffekt, der dann die Unternehmen bei intensivem Wettbewerb untereinander (längerfristig) zwingt, die Kostensenkungen in Preissenkungen weiterzugeben. Wenn aber die sinkenden Kosten zu einer mehr oder weniger proportionalen Senkung des Preisniveaus führen, bleibt ex post eine Reallohnsenkung aus und es kann zu keiner Beschäftigungserhöhung kommen, selbst wenn man die (falsche) neoklassische Behauptung einer inversen Beziehung zwischen Reallohnsatz und Beschäftigung anerkennt.

    Ebenso problematisch ist die im neoklassischen Modell unterstellte perfekte Substituierbarkeit zwischen Arbeit und Kapital. Danach gibt es bei einem gegebenen Wissensstand für jedes Produkt eine große Zahl verschiedener Produktionsverfahren, die – bildlich gesprochen – in einem für alle Unternehmen zugänglichen Buch existierender Produktionstechniken aufgezeichnet sind. Je teurer nun Arbeit im Verhältnis zu Kapital ist, desto mehr Kapital wird im Produktionsprozess eingesetzt. Sinkt umgekehrt der relative Preis von Arbeit, wird arbeitsintensiver produziert, d.h. das Unternehmen stellt die gleiche Menge her wie zuvor, setzt jetzt nur weniger von dem relativ teureren Kapital und mehr von der nun relativ billigeren Arbeit ein.

    Aber wie realistisch ist eine solche Vorstellung? Lassen sich tatsächlich alle Produkte mit mehr oder weniger Kapital – jeweils entsprechend dem gerade vorherrschenden Verhältnis der Faktorpreise – herstellen? Und woher sollte das breite Spektrum an Alternativtechniken zur Produktion der jeweiligen Güter stammen? Bedenkt man, dass die Produktion von Wissen im Allgemeinen teuer ist, warum sollten dann z.B. in einem Land, in dem bislang der Preis von Kapital niedrig relativ zu dem von Arbeit war, detaillierte Informationen über arbeitsintensive Produktionstechniken verfügbar sein? Welche Unternehmen dieses Landes sollten Ressourcen in die Erzeugung von derartigem Wissen gelenkt haben, allein aufgrund der vagen Vermutung, dass es ja vielleicht einmal für die Produktionsaktivitäten in der Zukunft von Nutzen sein könnte? Selbst wenn man konzediert, dass in einigen Fällen ein solches Wissen aus anderen Ländern oder auch aus der eigenen jüngeren Geschichte erhältlich ist, darf doch bezweifelt werden, ob mit der früheren, nun veralteten Technik noch sehr viele Produkte von heute, insbesondere solche mit hohem technologischen Gehalt wie etwa moderne Elektronikartikel, herstellbar sind.[10]

    Wesentlich plausibler als die Substitutionsthese erscheint die Annahme, dass die Unternehmen ihre produktiven Inputs in einem festen Verhältnis kombinieren, das durch die verwendete Technologie bestimmt wird. Dies bedeutet, dass sie Maschinen und Ausrüstungen anwenden, die komplementär einen mehr oder weniger fixen Einsatz von Arbeit erfordern und die – wenn sie erst einmal installiert sind – wenig Substitutionsmöglichkeiten bieten. Will ein Unternehmen seinen Output steigern, um eine wachsende Marktnachfrage zu bedienen, muss es seine Nachfrage nach Arbeit und Kapital erhöhen, in den Proportionen, die durch die angewandte Technologie festgelegt sind (Mitchell 2012).

    Interessanterweise ist die neoklassische Substitutionshypothese aber noch nicht einmal dann aufrechtzuerhalten, wenn man die (unrealistische) Annahme akzeptiert, dass den Unternehmen für die Herstellung ihrer jeweiligen Güter tatsächlich eine große Auswahl an technischen Alternativen mit unterschiedlichen Faktorintensitäten zur Verfügung steht. Auch dann führen nämlich sinkende Reallöhne nicht zwingend zu einer arbeitsintensiveren Technikwahl und damit zu einer steigenden Beschäftigung. Dies mag ein Beispiel verdeutlichen (Herr et al. 2009): Nehmen wir an, eine einheitliche Anhebung des Mindestlohns erhöhe die Löhne in arbeitsintensiven Branchen mit einem großen Anteil an gering qualifizierten Arbeitskräften, beispielsweise in der Halbleiterindustrie. Die Löhne in anderen Branchen blieben davon unberührt und änderten sich somit nicht. Wie reagiert nun die Halbleiterindustrie? Sie wird zum einen nach einer neuen gewinnmaximierenden Technik suchen, zum anderen wird sie die Preise ihrer Produkte erhöhen (denn mit der neuen Technik müssen die Preise höher sein, ansonsten wäre diese Technik schon vorher zum Einsatz gelangt). Ein Teil der Beschäftigten in der Halbleiterindustrie wird – je nach dem Ausmaß der Technikänderung und der Preiselastizität der Nachfrage nach Halbleitern – vermutlich arbeitslos werden. Die neue Technik führt zu einer Abnahme der Zahl gering qualifizierter Beschäftigter und zu einer Zunahme des Kapitaleinsatzes (in Form neuer Maschinen) und/oder des Einsatzes von qualifizierten Arbeitskräften. Wie groß der Nettoverlust an Arbeitsplätzen letztlich sein wird, ist schwer zu sagen, denn die Umstellung auf eine kapitalintensivere Technik impliziert eine wachsende Nachfrage nach Investitionsgütern, so dass die Produktion und Beschäftigung in der Kapitalgüterindustrie steigt.

    Jedoch sind damit noch längst nicht alle Effekte benannt. Halbleiter gehen nämlich als Kapitalinputs in viele andere Branchen ein, die – je nach angewandter Technologie – vom Preisanstieg dieser Güter in unterschiedlicher Weise betroffen sind. Alle Branchen, die Halbleiter einsetzen, werden jetzt ebenfalls zu einer neuen Technik wechseln, da sich die Preisrelation ihrer Inputs verändert hat. Vermutlich werden diese Branchen nun eine arbeitsintensivere Technik wählen, da sich für sie ihre Kapitalinputs verteuert haben. Und so kommt es zu Zweit- und Drittrundeneffekten etc. derselben Art: Alle Industriezweige, die Halbleiter verwenden, verändern ihre Preise und die Zusammensetzung ihrer Inputs und viele weitere Branchen sind betroffen und verändern ihre eingesetzte Technik, ihre Nachfrage nach Inputs und ihre Preise. Schließlich kommt es zu einer Veränderung der gesamten Preisstruktur, der Zusammensetzung der Inputs und der Struktur des Outputs in der Volkswirtschaft. Damit aber lässt sich keine Aussage mehr darüber treffen, in welche Richtung der Technikwechsel gehen wird – die kostenminimierende Technik kann am Ende insgesamt kapitalintensiver, aber eben auch arbeitsintensiver sein – und welche Beschäftigungseffekte sich schlussendlich ergeben werden. Dieses Fazit gilt wohlgemerkt selbst bei Akzeptanz der (mehr als fragwürdigen) neoklassischen Annahme, dass es eine perfekte Substituierbarkeit zwischen Arbeit und Kapital gibt.[11]

  4. Wie wirken Mindestlöhne auf die Beschäftigung?

    Im vorangehenden Abschnitt wurde gezeigt, dass das neoklassische Modell nicht in der Lage ist, die Arbeitsmarkteffekte der Einführung eines gesetzlichen Mindestlohns korrekt zu bestimmen. Im Folgenden soll nun versucht werden, die tatsächlichen Beschäftigungswirkungen eines flächendeckenden Mindestlohns abzuschätzen. Nehmen wir dazu an, alle Geringverdiener in Deutschland erhielten von sofort an einen Mindestlohn von zehn Euro in der Stunde.

    Um die ökonomischen Effekte besser herausarbeiten zu können, sollen – in grober Vereinfachung – vier Gruppen von Unternehmen betrachtet werden: So gibt es Unternehmungen, die vor allem für den Bedarf von Geringverdienern produzieren und ihre Güter in den entsprechenden Preissegmenten anbieten. Sie lassen sich wiederum unterteilen in solche, die selbst nur wenige oder gar keine Geringverdiener beschäftigen (Gruppe A) und solche, die in relativ hohem Maße Niedriglohnbezieher einsetzen (Gruppe B). Darüber hinaus existieren Unternehmen, die nicht überwiegend für Geringverdiener produzieren. Auch bei ihnen lässt sich eine Aufteilung vornehmen in solche Unternehmen, die nur in geringem Umfang (oder gar nicht) Geringverdiener beschäftigen (Gruppe C) und solche, die dies in verhältnismäßig starkem Maße tun (Gruppe D).

    Für die Unternehmen aus Gruppe A macht sich der neu eingeführte Mindestlohn von zehn Euro pro Stunde unmittelbar positiv bemerkbar. Denn da sich die Güternachfrage der Geringverdiener (soweit ihnen nicht gekündigt wird) aufgrund des Lohnzuwachses deutlich erhöht, kommt es für diese Firmen zu einer merklichen nachfragebedingten Umsatzsteigerung, während auf der anderen Seite die lohnbedingte Kostensteigerung vergleichsweise unbedeutend ist. Etwas ungünstiger stellt sich die Lage für die Unternehmungen der Gruppe B dar: Hier steht dem Umsatzplus eine Lohnkostenerhöhung gegenüber. Dies heißt, dass das Ergebnis für den Gewinn unbestimmt, nicht aber eindeutig negativ ist, wie die Mindestlohngegner gern behaupten.

    Ein einfaches Beispiel mag das verdeutlichen: Betrachten wir dazu die Unternehmen des Friseurgewerbes (traditionelle Standardfriseure ohne exklusive Hair-Designer), in dem viele Geringverdiener arbeiten und zu dessen Kundschaft zu einem nicht unwesentlichen Teil ebenfalls Geringverdiener gehören. Geht man von der (nicht ganz unrealistischen) Annahme aus, dass technologische Veränderungen im Friseurhandwerk zumindest kurzfristig nur sehr begrenzt möglich sind, so führt die Einführung eines Mindestlohns zu einer Preissteigerung für Friseurdienstleistungen. Je nach der Preiselastizität der Nachfrage nach Friseurdienstleistungen dürfte es dann zu einer mehr oder weniger stark abnehmenden Inanspruchnahme dieser Dienstleistungen und damit zu entsprechenden Arbeitsplatzverlusten im Friseurgewerbe kommen, wobei allerdings gegengerechnet werden muss, dass den Mindestlohnbeziehern unter den Kunden nun auch höhere Einkommen zur Verfügung stehen, die einen positiven Einfluss auf die Nachfrage nach Friseurdienstleistungen und damit auf die Arbeitskräftenachfrage im Friseurgewerbe ausüben.[12]

    Die Lohnsumme im Friseurhandwerk mag daher steigen oder sinken. Steigt sie, schaffen die beschäftigten Friseure zusätzliche Nachfrage. Geben sie nun beispielsweise mehr Geld in Fast-Food-Restaurants aus, erhöhen sie damit die Nachfrage nach Gütern, bei deren Produktion gleichfalls in relativ großem Umfang Geringverdiener resp. Mindestlohnempfänger eingesetzt werden. Zu berücksichtigen ist aber, dass ein Anstieg der Lohnsumme im Friseurgewerbe die Kaufkraft seiner Kunden insoweit verringert, als sie jetzt mehr als vorher für Friseurdienste zahlen müssen.

    Wenn die Lohnsumme im Friseurhandwerk dagegen sinkt, geben die Konsumenten offenbar mehr von ihrem Einkommen für andere Güter aus, abgesehen von den nun Arbeitslosen, deren gesunkenes Einkommen auch zu weniger Konsum führen dürfte. Welche Auswirkungen sich am Ende für welche Branchen ergeben und wie sich die Beschäftigung in der Volkswirtschaft insgesamt verändert, ist sehr schwer abzuschätzen (Herr et al. 2009, S. 12).

    Die Unternehmen, die weder vornehmlich für den Bedarf von Geringverdienern produzieren noch in relevantem Umfang Niedriglohnbezieher beschäftigen (Gruppe C), sind von der Einführung eines flächendeckenden Mindestlohns kaum unmittelbar betroffen. Anders sieht es in den Unternehmungen aus, die nicht vorrangig für Geringverdiener produzieren, aber in relativ großem Unfang Niedriglohnbezieher einsetzen (Gruppe D). In diesen Firmen gleicht keine nachfragebedingte Umsatzsteigerung die lohnbedingte Kostensteigerung aus. Jedoch bedeutet dies nicht notwendigerweise einen gravierenden Arbeitsplatzabbau bei diesen Unternehmen. Denn viele Aufgaben und Tätigkeiten in einer Unternehmung lassen sich nicht einfach streichen, nur weil sie jetzt höher entlohnt werden müssen. Kein Unternehmen der Bank- oder Versicherungswirtschaft beispielsweise würde jemals auf die Idee kommen, nach der Einführung eines gesetzlichen Mindestlohns auf eine Reinigung seiner Räumlichkeiten zu verzichten und seine Kunden sowie Geschäftspartner in verschmutzten Räumen zu empfangen, nur weil die Reinigungskräfte jetzt mehr Geld erhalten. Stattdessen werden die betroffenen Unternehmen entweder die Preise ihrer Dienstleistungen leicht anheben oder etwas weniger Gewinn erzielen oder eine Mischung beider Strategien vornehmen. Da ein flächendeckender Mindestlohn alle konkurrierenden Unternehmen gleichermaßen trifft, entstehen auch niemandem Nachteile gegenüber Mitbewerbern.

    Die bisherigen Überlegungen zeigen bereits, wie absurd das Vorgehen vieler Mindestlohngegner ist, ein einfaches einzelwirtschaftliches Marktmodell, bei dem mit steigendem Preis (Lohn) die Nachfrage (nach Arbeitskräften) sinkt, umstandslos auf den gesamtwirtschaftlichen Arbeitsmarkt oder zumindest auf sein Teilsegment der gering qualifizierten Arbeit zu übertragen, ohne die positiven Einkommensrückwirkungen eines flächendeckenden Mindestlohns auf die Güter- und damit auch auf die Arbeitskräftenachfrage in die Analyse einzubeziehen. Tatsächlich bewirkt die branchenübergreifende Einführung eines Mindestlohns eine Veränderung der gesamten Preis-, Mengen- und Einkommensstruktur in der Volkswirtschaft, deren makroökonomische Effekte auf die Beschäftigung theoretisch und empirisch kaum erfassbar sind (Dullien et al. 2009, S. 207). Die Beschäftigungswirkungen von Mindestlöhnen müssen daher im Ergebnis offen bleiben, zumal sie von weiteren Einflussgrößen wie der Marktstruktur, den vorherrschenden Arbeitsmarktinstitutionen und nicht zuletzt von der Höhe der gesetzlichen Lohnuntergrenze abhängig sind (Brenke/Müller 2013).

    Dennoch gibt es einige Faktoren, die als solche für positive Beschäftigungswirkungen eines gesetzlichen Mindestlohns sprechen. Zum einen ist es möglich, dass ein eingeführter Mindestlohn die Motivation und Arbeitsbereitschaft der nun höher entlohnten Arbeitskräfte steigert, so dass die Arbeitsproduktivität zunimmt.[13] Zum anderen erleichtern höhere Löhne den Unternehmen die Aufgabe, Arbeitskräfte zu finden und zu halten, wodurch die Fluktuationskosten sinken, die entstehen, wenn neue Mitarbeiter gesucht und angelernt werden müssen [14] (Dube et al. 2012). In beiden Fällen kommt es nach der Mindestlohneinführung zu einer nachfragebedingten Umsatzerhöhung bei vergleichsweise geringer (oder gar keiner) Kostensteigerung.

    Der wichtigste Faktor aber ist die mit der Einführung eines Mindestlohns einhergehende Stauchung der Lohnauffächerung (Flassbeck et al. 2012, S. 70)[15]. Da gerade die Bezieher geringer Lohneinkommen vom Mindestlohn profitieren, d.h. im unteren und mittleren Bereich der Lohneinkommen nun – relativ betrachtet – etwas mehr verdient wird und am oberen Ende etwas weniger, Haushalte mit geringem Einkommen aber eine höhere Konsumneigung aufweisen als solche mit hohem Einkommen, wird die aggregierte Nachfrage insgesamt steigen und damit auch – in einer Situation ungenutzter Kapazitäten und Arbeitslosigkeit – die Produktion und die Beschäftigung. Hinzu kommt, dass die Nachfragestruktur der unteren und mittleren Einkommensbereiche in stärkerem Maße auf industriell hergestellte Güter ausgerichtet ist. Verzeichnen deshalb die Branchen, die diese Produkte produzieren, eine zunehmende Auslastung und höhere Investitionen, wird ein Sektor der Wirtschaft gefördert, der traditionell eine überdurchschnittliche Zuwachsrate der Arbeitsproduktivität verzeichnet. Bei einer produktivitätsorientierten Reallohnentwicklung in der gesamten Volkswirtschaft ermöglicht dies dann allen Beschäftigten incl. der Mindestlohnbezieher entsprechende Einkommenszuwächse (Flassbeck et al. 2012, S. 70).

    Auf der anderen Seite sind durch die Etablierung eines ausgedehnten Niedriglohnsektors in Deutschland einige Jobs entstanden, die wahrscheinlich mit der Einführung eines flächendeckenden Mindestlohns zahlenmäßig abnehmen oder ganz wegfallen werden. Gemeint sind hier etwa Dienstboten, Fensterputzer, Tütenbefüller an Supermarktkassen etc., die bislang extrem billige Dienstleistungen angeboten haben. Gleichzeitig könnte es tatsächlich geschehen, dass einzelne wettbewerbsschwache Unternehmen mit dem neu eingeführten Mindestlohn „überfordert“ sind, so dass ihre Existenz gefährdet ist.

    Allerdings stellt sich hier die Frage, ob dadurch wirklich ein gesellschaftlicher Schaden entsteht (Flassbeck et al. 2012, S. 73f). Ist es sinnvoll, denjenigen Konsumenten, die eine Dienstleistung kaufen wollen, aber nicht bereit sind, dafür den Mindestlohn zu zahlen, staatlicherseits zur Hilfe zu kommen, d.h. sie beim Konsum dieser Dienstleistung via Lohnsubvention (d.h. durch die Aufstockung von Hungerlöhnen der Produzenten) zu unterstützen? Wenn den Kunden die Dienstleistung wichtig ist, werden sie dem Verkäufer auch einen entsprechend hohen Preis zahlen und dafür gegebenenfalls andere Konsumwünsche zurückstellen. Ist ihnen die Dienstleistung weniger wichtig, verzichten sie auf einen Kauf und müssen nicht durch staatliche Lohnsubventionen in ihrer Entscheidung umgestimmt werden. Die angebotene Dienstleistung ist dann zum erforderlichen Preis nicht absetzbar und entfällt; stattdessen werden von den Konsumenten andere Güter nachgefragt.

    Was nun die durch den Mindestlohn „überforderten“ Unternehmungen betrifft: Wenn einzelne Unternehmen so ineffizient sind, dass sie den Mindestlohn nicht zahlen können, sie aber gleichzeitig nicht willens oder in der Lage sind, ihre Produktivitätsniveaus – vor allem durch produktionstechnische Veränderungen – hinreichend zu erhöhen, um die gestiegene Kostenbelastung zu verkraften, geraten sie in die Verlustzone und müssen über kurz oder lang aus dem Wettbewerb ausscheiden. Die Marktanteile, die sie einbüßen, gewinnen die effizienteren Unternehmen hinzu, so dass zwar an einer Stelle Arbeitsplätze verloren gehen, an anderer Stelle aber auch neu geschaffen werden. Durch die Beseitigung der produktivitätsschwächeren Unternehmen wird die durchschnittliche Produktivität der Gesamtwirtschaft erhöht, was – wie bereits erwähnt – Einkommenszuwächse insgesamt erlaubt.

    Diese Trennung der Spreu vom Weizen ist in einer Marktwirtschaft nichts Ungewöhnliches – ungewöhnlich und nicht akzeptabel ist es dagegen, wenn produktivitätsschwache Unternehmen, die unter fairen Bedingungen am Markt nicht bestehen würden, Hungerlöhne zahlen und auf diese Weise ihr Überleben sichern können. Genau dem schiebt der Mindestlohn einen Riegel vor.

  5. Fazit und Ausblick

    Die vorangegangenen Ausführungen sollten zeigen, dass die Beschäftigungseffekte von Mindestlöhnen aufgrund der sehr komplexen Zusammenhänge (Einkommensrückwirkungen, Veränderungen der Preis- und Mengenstruktur in der Ökonomie etc.) nicht exakt zu bestimmen sind. Falsch ist aber in jedem Fall die Behauptung, dass von Mindestlöhnen bzw. Mindestlohnerhöhungen zwangsläufig signifikante Beschäftigungsverluste ausgingen. Diese These ist weder theoretisch noch empirisch haltbar und kann daher auch nicht zur Begründung einer ablehnenden Haltung gegenüber Mindestlöhnen herangezogen werden.

    Wenig überzeugend ist zudem der Einwand, Deutschland nähme mit einem gesetzlichen Mindestlohn von 8,50 Euro pro Stunde einen Spitzenplatz in Europa ein. Zur Bewertung der Höhe eines Mindestlohns ist entscheidend, wie er sich zum jeweiligen nationalen Lohngefüge verhält. Dies wird üblicherweise mit Hilfe des sog. „Kaitz-Index“ gemessen, der die Relation des Mindestlohns zum Medianlohn angibt. Entsprechende Berechnungen zeigen, dass Deutschland mit einem Mindestlohn von 8,50 Euro im Industrieländer- und im Europa-Vergleich lediglich im Mittelfeld läge (Böckler impuls 2013; Bofinger 2013). Wenn man als grobe Richtschnur annimmt (Herr/Kazandziska 2011), dass Mindestlöhne sich im Bereich von etwa 40 bis 60 Prozent des Medianlohns bewegen sollten (wie dies auch in der Mehrzahl der Länder der Fall ist), wäre in Deutschland auch ein Mindestlohn von 10 Euro (wie im obigen Beispiel angenommen) ökonomisch unproblematisch.

    Besonders unsinnig ist der oft geäußerte Einwand, dass die Einführung eines flächendeckenden Mindestlohns in Deutschland die internationale Wettbewerbsfähigkeit des Landes und damit Arbeitsplätze gefährden würde. Denn Deutschland erzielt seit vielen Jahren hohe Handels- und Leistungsbilanzüberschüsse (vgl. z. B. hier), die auf einer ausgeprägten Lohnzurückhaltung basieren und ohnehin dringend abgebaut werden müssen. Das ist deshalb erforderlich, weil den anhaltenden Leistungsbilanzüberschüssen von Ländern wie Deutschland entsprechende Leistungsbilanzdefizite anderer Länder gegenüberstehen, die durch diese Defizite in eine wachsende Verschuldung getrieben werden. Trägt also der neu eingeführte Mindestlohn tatsächlich dazu bei, dass Deutschland an Wettbewerbsfähigkeit verliert und damit seine Überschüsse reduziert, so wäre dies kein Nachteil, sondern ein Vorteil.

    Es stellt sich abschließend die Frage, ob die Einführung eines flächendeckenden Mindestlohns ausreicht, um die zunehmende Ungleichheit der Einkommensverteilung in Deutschland und insbesondere die wachsende Armut am unteren Ende der gesellschaftlichen Skala wirkungsvoll zu bekämpfen. Dies ist zweifellos nicht der Fall. Der bedeutende US-amerikanische Ökonom Hyman Minsky stellte mit Recht fest, dass ein gesetzlicher Mindestlohn nur in Verbindung mit einem „Arbeitgeber letzter Instanz“ („employer of last resort“, ELR) voll wirksam sein könne, denn ansonsten sei der wahre Mindestlohn für all diejenigen, die keinen Arbeitsplatz finden könnten, gleich Null: „Die wichtigste Tatsache, die den Diskurs über den Mindestlohn beherrschen sollte, ist die, dass er für die Arbeitslosen $ 0,00 pro Stunde beträgt […]“ (Minsky 1987, S. 2; Übersetzung G.G.). Mindestlöhne und gleichzeitig weiter bestehende Arbeitslosigkeit seien unvereinbar: „Eine Welt mit gemessener Arbeitslosigkeit und Mindestlöhnen ist in sich inkonsistent; ein effektives Mindestlohnprogramm muss sicherstellen, dass Jobs für alle zum Mindestlohn verfügbar sind“ (Minsky 1986, S. 310; Übersetzung G.G.).

    Minsky sprach sich deshalb bereits in den 1960er Jahren für ein ELR-Programm aus, bei dem der Staat allen Arbeitsuchenden, die bereit seien, zum Mindestlohn zu arbeiten, Jobs entsprechend ihren Fertigkeiten und Kenntnissen zur Verfügung stellen sollte (Minsky 1965, 1968, 1973, 1975, 1986). Nur der Staat sei in der Lage, ein „unendlich elastisches“ Angebot an Arbeitsplätzen zum Mindestlohn zu schaffen. Der Staat als „Arbeitgeber letzter Instanz“ zieht damit nicht nur eine Untergrenze für die Löhne, sondern auch für den privaten Konsum (und die aggregierte Nachfrage), und erhöht so die Wirksamkeit antizyklischer Fiskalpolitik (die Staatsausgaben steigen in der Rezession und fallen in der Aufschwungphase, in der die Arbeitnehmer in wachsendem Umfang vom Privatsektor „abgeworben“ werden). Das ELR-Programm würde die Mindestlohngesetzgebung überflüssig machen:

    „Arbeit sollte für alle verfügbar gemacht werden, die zum nationalen Mindestlohn arbeiten möchten. [...] Dies würde das Mindestlohngesetz ersetzen, denn wenn Arbeit für alle zum Mindestlohn vorhanden ist, steht den privaten Arbeitgebern keine Arbeit mehr zu einem Lohn unterhalb dieses Minimums zur Verfügung“ (Minsky 1965, S. 196; Übersetzung G.G.).

    Man mag dies für eine völlig unrealistische Utopie halten. Jedoch gibt es im angloamerikanischen Raum inzwischen eine Reihe von Ökonomen, die Minsky’s ELR-Idee aufgegriffen und – teilweise unter anderem Namen wie etwa „job guarantee“ (JG) – weiterentwickelt haben (z. B. Wray 1998 und 2012; Mosler 1997-98; Mitchell 1998; Burgess/Mitchell 1998; Mitchell/Muysken 2008; Forstater 2003; Fullwiler 2005). Auch positive praktische Erfahrungen mit (begrenzten) ELR/JG-Programmen in neuerer Zeit liegen bereits vor, etwa in Argentinien oder Indien.[16] In jedem Fall erscheint mir eine Diskussion über ELR/JG-Programme weit fruchtbarer zu sein als etwa die Debatte zum bedingungslosen Grundeinkommen, die hierzulande eine relativ große Resonanz in den Medien findet, obgleich die Idee vom Grundeinkommen wohl kaum weniger „utopisch“ ist als das ELR/JG-Konzept.

Literatur

  • Addison, J. T./Blackburn, M. L./Cotti, C. D. (2012): The Effect of Minimum Wages on Labour Market Outcomes: County-Level Estimates from the Restaurant-and-Bar Sector, in: British Journal of Industrial Relations, Vol. 50, No. 3, S. 412-435
  • Akerlof, G. A. (1982): Labor Contracts as Partial Gift Exchange, in: The Quarterly Journal of Economics, Vol. 97, No. 4, S. 543-569
  • Allegretto, S. A./Dube, A./Reich, M. (2011): Do Minimum Wages Really Reduce Teen Employment? Accounting for Heterogeneity and Selectivity in State Panel Data, in: Industrial Relations, Vol. 50, Issue 2, S. 205-240
  • Allegretto, S./Dube, A./Reich, M./Zipperer, B. (2013): Credible Research Designs for Minimum Wage Studies [PDF - 11.7 MB], Working Paper Series, Institute for Research on Labor and Employment, UC Berkeley, letzter Zugriff: 10.01.2014
  • Autor, D. H./Manning, A./Smith, C. L. (2010): The Contribution of the Minimum Wage to U.S. Wage Inequality over Three Decades: A Reassessment” [PDF - 695 KB], MIT Working Paper, letzter Zugriff: 10.01.2014
  • Benhayoun, G. (1994): The Impact of Minimum Wages on Youth Employment in France Revisited: A Note on the Robustness of the Relationship, in: International Journal of Manpower, Vol. 15, Issue 2-3, S. 82-85
  • Böckler impuls (2013): Mindestlohn – Mit 8,50 Euro im europäischen Mittelfeld [PDF - 166 KB], 18/2013, letzter Zugriff: 10.01.2014
  • Bofinger, P. (2013): Eine andere Meinung, in: JG (2013), S. 289-292
  • Bosch, G./Weinkopf, C. (2012): Wirkungen der Mindestlohnregelungen in acht Branchen [PDF - 722 KB], WISO Exkurs, letzter Zugriff: 10.01.2014
  • Boushey, H./Glynn, S. J. (2012): There are Significant Business Costs to Replacing Employees [PDF - 244 KB], Center for American Progress, letzter Zugriff: 10.01.2014
  • Brenke, K./Müller, K. U. (2013): Gesetzlicher Mindestlohn – Kein verteilungspolitisches Allheilmittel, in: DIW Wochenbericht Nr. 39, S. 3-17
  • Burgess, J./Mitchell, W. F. (1998): Unemployment, Human Rights and a Full Employment Policy in Australia [PDF - 73.9 KB], Centre of Full Employment and Equity, Working Paper No. 99-03, letzter Zugriff 10.01.2014
  • Burkhauser, R. V./Couch, K. A./Wittenburg, D. C. (2000): A Reassessment of the New Economics of the Minimum Wage Literature with Monthly Data from the Current Population Survey, in: Journal of Labor Economics, Vol. 18, No. 4, S. 653-680
  • Card, D./Krueger, A. B. (1994): Minimum Wages and Employment: A Case Study of the Fast-Food Industry in New Jersey and Pennsylvania, in: The American Economic Review, Vol. 84, No. 4, S. 772-793
  • Card, D./Krueger, A. B. (1995): Myth and Measurement – The New Economics of the Minimum Wage, Princeton
  • Card, D./Krueger, A. B. (1998): A Reanalysis of the Effect of the New Jersey Minimum Wage Increase on the Fast-Food Industry with Representative Payroll Data [PDF - 1.7 MB], NBER Working Paper No. 6386, letzter Zugriff: 10.01.2014
  • Card, D./Krueger, A. B. (2000): Minimum Wages and Employment: A Case Study of the Fast-Food Industry in New Jersey and Pennsylvania: Reply, in: The American Economic Review, Vol. 90, No. 5, S. 1397-1420
  • Chapple, S. (1997): Do Minimum Wages Have an Adverse Impact on Employment? Evidence from New Zealand, in: Labour Market Bulletin, No. 2, S. 25-50
  • Currie, J./Fallick, B. C. (1996): The Minimum Wage and the Employment of Youth: Evidence from the NLSY, in: The Journal of Human Resources, Vol. 31, No. 2, S. 404-428
  • Department for Business, Innovation and Skills (2013): National Minimum Wage – Interim Government Evidence for the Low Pay Commission’s 2014 Report [PDF - 419 KB], London, letzter Zugriff: 10.01.2014
  • Dickens, R./Draca, M. (2005): The Employment Effects of the October 2003 Increase in the National Minimum Wage, Centre for Economic Performance, CEP Discussion Paper No. 693
  • DiNardo, J./Fortin, N. M./Lemieux, T. (1996): Labor Market Institutions and the Distribution of Wages, 1973-1992: A Semiparametric Approach, in: Econometrica, Vol. 64, No. 5, S. 1001-1044
  • Dolado, J. J./Kramarz, F./Machin, S./Manning, A./Margolis, D./Teulings, C. (1996): The Economic Impact of Minimum Wages in Europe, in: Economic Policy, Vol. 11, No. 23, S. 319-372
  • Dolado, J. J./Felgueroso, F./Jimeno, J. F. (2000): The Role of the Minimum Wage in the Welfare State: An Appraisal [PDF - 479 KB], IZA DP No. 152; letzter Zugriff: 10.01.2014
  • Donges, J. B./Menzel, K./Paulus, P. (2003): Globalisierungskritik auf dem Prüfstand – ein Almanach aus ökonomischer Sicht, Stuttgart
  • Dube, A./Lester, T. W./Reich, M. (2010): Minimum Wage Effects Across State Borders: Estimates Using Contiguous Counties, in: The Review of Economics and Statistics, Vol. 92, No. 4, S. 945-964
  • Dube, A./Lester, T. W./Reich, M. (2012): Minimum Wage Shocks [PDF - 1.1 MB], Employment Flows and Labor Market Frictions, Berkeley, Working Papers, letzter Zugriff: 10.01.2014
  • Dullien, S./Herr, H./Kellermann, C. (2009): Der gute Kapitalismus … und was sich dafür nach der Krise ändern müsste, Bielefeld
  • Flassbeck, H. (2006): 50 einfache Dinge, die Sie über unsere Wirtschaft wissen sollten, Frankfurt/Main
  • Flassbeck, H./Spiecker, F. (2007): Das Ende der Massenarbeitslosigkeit – Mit richtiger Wirtschaftspolitik die Zukunft gewinnen, Frankfurt/Main
  • Flassbeck, H./Spiecker, F./Meinhardt, V./Vesper, D. (2012): Irrweg Grundeinkommen – Die große Umverteilung von unten nach oben muss beendet werden, Frankfurt/Main
  • Forstater, M. (2003): Public Employment and Environmental Sustainability, in: Journal of Post Keynesian Economics, Vol. 25, No. 3, S. 385-406
  • Fullwiler, S. (2005): The Job Guarantee and Economic Stability, in: Wrightson, G. (ed.), Creating a Culture of Full Employment, Newcastle, S. 1-23
  • Garnero, A./Kampelmann, S./Rycx, F. (2013): Minimum Wage Systems and Earnings Inequalities: Does Institutional Diversity Matter? [PDF - 350 KB], DULBEA Working Paper No. 13-06.RS, letzter Zugriff: 10.01.2014
  • Grass, R.-D./Stützel, W. (1983): Volkswirtschaftslehre, München
  • Grunert, G. (2002): Mehr Beschäftigung durch mehr Ungleichheit?, in: WSI-Mitteilungen 2, S. 77-83
  • Grunert, G. (2003): Lohnniveau und Beschäftigung, in: WSI-Mitteilungen 6, S. 353-359
  • Grunert, G. (2009): Droht eine Horror-Inflation?, in: Politik unterrichten [PDF - 413 KB], 2, S. 32-42, letzter Zugriff: 10.01.2014
  • Heine, M./Herr, H. (2012): Volkswirtschaftslehre – Paradigmenorientierte Einführung in die Mikro- und Makroökonomie, München
  • Herr, H./Kazandziska, M./ Mahnkopf-Praprotnik, S. (2009): The Theoretical Debate about Minimum Wages [PDF - 704 KB], Global Labour University Working Papers, No. 6, letzter Zugriff: 10.01.2014
  • Herr, H./Kazandziska, M. (2011): Principles of Minimum Wage Policy – Economics, Institutions and Recommendations [PDF - 201 KB], Working Paper No. 11, International Labour Office, Geneva, letzter Zugriff: 10.01.2014
  • Hirsch, B. T./Kaufman, B. E./Zelenska, T. (2011): Minimum Wage Channels of Adjustment [PDF - 949 KB], IZA DP No. 6132, letzter Zugriff: 10.01.2014
  • Hirway, I. (2006): Enhancing Livelihood Security through the National Employment Guarantee Act – Toward Effective Implementation of the Act [PDF - 334 KB], The Levy Economics Institute of Bard College, Working Paper No. 437, letzter Zugriff: 10.01.2014
  • JG (2013): Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung, Gegen eine rückwärtsgewandte Wirtschaftspolitik, Paderborn
  • Kregel, J. (1975): The Reconstruction of Political Economy – An Introduction to Post-Keynesian Economics, London and Basingstoke
  • Lang, K./Kahn, S. (1998): The Effect of Minimum-Wage Laws on the Distribution of Employment: Theory and Evidence, in: Journal of Public Economics, Vol. 69, Issue 1, S. 67-82
  • Lucifora, C./McKnight, A./Salverda, W. (2005): Low-Wage Employment in Europe: A Review of the Evidence, in: Socio-Economic Review, Vol. 3, Issue 2, S. 259-292
  • Machin, S. J./Wilson, J. (2004): Minimum Wages in a Low-Wage Labour Market: Care Homes in the UK, in: The Economic Journal, Vol. 114, Issue 494, S. C102-C109
  • Manning, A. (2012): Minimum Wage: Maximum Impact [PDF - 881 KB], Resolution Foundation, London, letzter Zugriff: 10.01.2014
  • Minsky, H. P. (1965): The Role of Employment Policy, in: Gordon, M. S. (ed.), Poverty in America, San Francisco, S. 175-200
  • Minsky, H. P. (1968): Effects of Shifts of Aggregate Demand upon Income Distribution, in: American Journal of Agricultural Economics, Vol. 50, No. 2, S. 328-339
  • Minsky, H. P. (1973): The Strategy of Economic Policy and Income Distribution [PDF - 683 KB], Hyman P. Minsky Archive, Paper 353, letzter Zugriff: 10.01.2014
  • Minsky, H. P. (1975): The Poverty of Economic Policy [PDF - 1.8 MB], Hyman P. Minsky Archive, letzter Zugriff: 10.01.2014
  • Minsky, H. P. (1986): Stabilizing an Unstable Economy, New Haven and London
  • Minsky, H. P. (1987): Once More the Minimum Wage [PDF - 229 KB], Hyman P. Minsky Archive, Paper 295, letzter Zugriff: 10.01.2014
  • Mitchell, W. F. (1998): The Buffer Stock Employment Model and the NAIRU: The Path to Full Employment, in: Journal of Economic Issues, Vol. 32, No. 2, S. 547-555
  • Mitchell, B. (2012): Productivity and the response of firms to the business cycle, letzter Zugriff: 10.01.2014
  • Mitchell, W./Muysken, J. (2008): Full Employment Abandoned – Shifting Sands and Policy Failures, Cheltenham
  • Mosler, W. (1997-98): Full Employment and Price Stability, in: Journal of Post Keynesian Economics, Vol. 20, No. 2, S.167-182
  • Neumark, D./Wascher, W. (2006): Minimum Wages and Employment: A Review of Evidence from the New Minimum Wage Research [PDF - 706 KB], NBER Working Paper 12663, Cambridge, letzter Zugriff: 10.01.2014
  • Neumark, D./Wascher, W. (2007): Minimum Wages and Employment, in: Foundations and Trends in Microeconomics, Vol. 3, Issue 1-2, S. 1-182
  • OECD (2006): OECD Employment Outlook – Boosting Jobs and Incomes, Paris
  • Robinson, J./Eatwell, J. (1973): An Introduction to Modern Economics, London/New York
  • Schmitt, J. (2013): Why Does the Minimum Wage Have No Discernible Effect on Employment? [PDF - 556 KB], Center for Economic and Policy Research, Washington, letzter Zugriff: 10.01.2014
  • Stewart, M. B. (2004): The Impact of the Introduction of the UK Minimum Wage on the Employment Probabilities of Low-Wage Workers, in: Journal of the European Economic Association, Vol. 2, Issue 1, S. 67-97
  • Shapiro, C./Stiglitz, J. E. (1984): Equilibrium Unemployment as a Worker Discipline Device, in: The American Economic Review, Vol. 74, No. 3, S. 433-444
  • Stigler, G. J. (1946): The Economics of Minimum Wage Legislation, in: The American Economic Review, Vol. 36, No. 3, S. 358-365
  • Straubhaar, T. (2013): Die vielen Falltüren des gesetzlichen Mindestlohns, in: Die Welt, 22.10.13, letzter Zugriff: 10.01.2014
  • Tcherneva, P./Wray, L. R. (2005): Gender and the Job Guarantee: The Impact of Agentina’s Jefes Program on Female Heads of Poor Households [PDF - 302 KB], Center for Full Employment and Price Stability, Working Paper No. 50, letzter Zugriff: 10.01.2014
  • Van Reenen, J./Draca, M./Machin, S. J. (2006): Minimum Wages and Firm Profitability, CEPR Discussion Paper No. 5456
  • Wray, L. R. (1998): Understanding Modern Money – The Key to Full Employment and Price Stability, Cheltenham
  • Wray, L. R. (2012): Modern Money Theory – A Primer on Macroeconomics for Sovereign Monetary Systems, Houndmills, Basingstoke

[«1] Für wertvolle Hinweise und Anregungen zu diesem Aufsatz möchte ich mich sehr herzlich bei Friederike Spiecker bedanken.

[«2] „Star-Ökonom“ Thomas Straubhaar war zuletzt damit aufgefallen, dass er im Jahr 2009 mit „klugen ökonomischen Argumenten“ zunächst für das gleiche Jahr und später noch einmal für das Jahr 2011 eine „Horror-Inflation“ in Deutschland prognostizierte (dazu ausführlicher Grunert 2009). Ansonsten hatte er jahrzehntelang mit „klugen ökonomischen Argumenten“ seinen unerschütterlichen Glauben an die Effizienz der Finanzmärkte kundgetan, bis er im Jahr 2011 plötzlich zur Erkenntnis gelangte, dass Finanzmärkte doch nicht annähernd so effiziente „Informationsverarbeiter“ sind wie von ihm und anderen angenommen.

[«3] Nach dieser Theorie können unter den außergewöhnlichen Umständen eines Nachfragemonopols mit einem monopolistischen Nachfrager nach Arbeitskräften (also z.B. einem Kohlebergwerk in einer ökonomisch schwach entwickelten Region) höhere Mindestlöhne die Beschäftigung erhöhen. Denn der Nachfragemonopolist (das Kohlebergwerk) ist aufgrund seiner Position in der Lage, Output und Beschäftigung zu reduzieren, damit durch die Erzeugung von Arbeitslosigkeit die Löhne seiner Arbeiter (deren Mobilität gering ist) zu drücken, so die Arbeitnehmer unterhalb ihrer Grenzproduktivität zu entlohnen und einen Monopolgewinn zu erzielen. Wenn nun ein gesetzlicher Mindestlohn die Löhne erhöht, verschwindet der Monopolgewinn und das gewinnmaximierende Unternehmen reagiert mit der Erhöhung seines Outputs.

[«4] Präziser formuliert: Je mehr Kapital – bei gegebenem Arbeitseinsatz – eingesetzt wird, umso mehr nimmt sein Grenzertrag ab. Beide Produktionsfaktoren – Kapital und Arbeit – werden entsprechend ihres jeweiligen physischen Grenzertrags entlohnt und bei beiden sinkt mit steigendem Einsatz der Grenzertrag. Damit glaubte die neoklassische Makroökonomie eine Erklärung der Einkommensverteilung gefunden zu haben, die sog. Grenzproduktivitätstheorie der Verteilung, die zudem zeigte, dass die Entlohnung des Faktors Arbeit und die im Zinssatz ausgedrückte Entlohnung des Faktors Kapital in einem exakt festgelegten Verhältnis zueinander stehen müssen, so dass die Lohnsumme und die Zinssumme zusammengenommen der Neuwertschöpfung entsprechen.

[«5] Der Begriff „neoklassische (reale) Makroökonomie“ ist an sich unpassend. Denn im Kern begnügt sich die neoklassische Makroökonomie damit, das Verhalten eines einzelnen Wirtschaftssubjekts zu untersuchen, also rein mikroökonomische Überlegungen anzustellen, und das Ergebnis dann unstandslos auf die gesamtwirtschaftliche Ebene zu übertragen. Sie verstößt dabei laufend gegen die ceteris-paribus-Klausel, also die Annahme, dass sich durch das einzelwirtschaftliche Verhalten an den Rahmenbedingungen nichts ändere, unter denen es abläuft. Genau diese Konstanz der Rahmenbedingungen ist aber nicht mehr gegeben, wenn man einzelwirtschaftliches Verhalten eins zu eins auf die Gesamtwirtschaft überträgt.

[«6] Dazu vielleicht ein Beispiel aus eigener Erfahrung: Als ich mich vor einer Reihe von Jahren (Grunert 2002) gegen die damals sehr populäre Vorstellung wandte, dass man mit einer stärkeren Lohnspreizung wirkungsvoll die Arbeitslosigkeit bekämpfen könne und dass die Industrieländer „wählen“ müssten zwischen mehr Einkommensungleichheit oder höherer Arbeitslosigkeit, war die Reaktion bezeichnend. So glaubten Donges (früher beim Kieler Weltwirtschaftsinstitut, der neoklassischen Hochburg in Deutschland) und Kollegen meine Kritik mit dem schlichten Hinweis widerlegen zu können, dass ich wohl einfach nicht beachtet hätte, „dass sich die erhöhte Lohndisparität durch bestehende Grenzproduktivitäten erklärt“ (Donges et al. 2003, S. 50). Da ich dies übersehen hätte, müssten alle meine weiteren Überlegungen falsch sein.
Die Idee, dass jemand die Gültigkeit der Grenzproduktivitätstheorie bestreiten könnte, kam den Autoren gar nicht erst in den Sinn, noch viel weniger natürlich der Gedanke, dass diese Theorie vielleicht tatsächlich falsch ist. Vermutlich erscheint ihnen eine Ablehnung der Grenzproduktivitätstheorie ähnlich verrückt wie eine Leugnung des Gesetzes der Schwerkraft.

[«7] Wolfgang Stützel und Rolf-Dieter Grass verdeutlichen das Problem am Beispiel eines Tresors, in dem 1000 DM liegen und der nur mit zwei Schlüsseln gleichzeitig geöffnet werden kann, die im Besitz unterschiedlicher Personen sind. Eine Person allein kommt an das Geld nicht heran, da ihr der zweite Schlüssel fehlt. Wenn aber einer der beiden Schlüssel erst einmal im Schloss steckt, steigt die Grenzproduktivität des jeweils anderen Schlüssels auf 1000 DM an. Nach der Grenzproduktivitätstheorie der Einkommensverteilung dürfte nun jeder der beiden Schlüsselinhaber 1000 DM verlangen, dazu aber müssten im Tresor 2000 DM liegen, was nicht der Fall ist. Vgl. Grass/Stützel 1983, S. 113. Technisch gesprochen handelt es sich in unserer modernen arbeitsteiligen Welt in aller Regel um limitationale Produktionsprozesse und nicht um substitutive. Das Gegenargument der Neoklassiker, das möge auf einzelwirtschaftlicher Ebene zwar der Fall sein, aber auf der gesamtwirtschaftlichen ginge dieser Charakter der Produktionsweise verloren, denn die Summe vieler limitationaler Prozesse ergäbe insgesamt einen substitutiven, ist nicht überzeugend. Schließlich wird nach Qualifikationen und einzelnen Märkten differenziert argumentiert, wenn es darum geht, die Wirkung eines Mindestlohns zu diskutieren. Wer die Entlohnung gemäß Grenzproduktivität auf einzelwirtschaftlicher Ebene für möglich und richtig hält, muss sich auf die Realität der einzelwirtschaftlichen Ebene einlassen (d.h. auf Limitationalität) und kann nicht auf Aggregationsargumente zurückgreifen.

[«8] Genau diese Knappheit als Bestimmungsfaktor des Lohnes erfordert eine vom Staat gesetzte Lohnuntergrenze. Denn in konjunkturellen Flauten und erst recht in Rezessionen, in denen sich die Machtverhältnisse zuungunsten der Arbeitnehmer verschieben, würde die Knappheit ansonsten immer zu einem gegenseitigen „In-Grund-und-Boden-Konkurrieren“ der Lohnempfänger führen, das wegen einzelwirtschaftlicher Rationalität nicht „von allein“ (d.h. durch die „Märkte“) gestoppt werden kann. Deshalb ist eine staatlich durchgesetzte Untergrenze (z.B. durch einen gesetzlichen Mindestlohn) makroökonomisch notwendig.

[«9] Eine Produktionsfunktion liefert eine Beziehung zwischen den Inputs eines Produktionsprozesses (Maschinen, Arbeitseinsatz etc.) und der maximalen Menge des Outputs, der sich mit den Inputs produzieren lässt. Bei der Cobb-Douglas-Produktionsfunktion handelt es sich um eine sog. „unbegrenzt substitutionale Produktionsfunktion“, bei der das Unternehmen über eine große Auswahl bei den Einsatzrelationen der Inputmengen verfügt (bei der also ein gegebenes Outputniveau mit den unterschiedlichsten Faktorkombinationen produziert werden kann). Die Verringerung eines Inputs kann stets durch die Erhöhung eines anderen Inputs kompensiert, kein Input allerdings vollständig substitutiert werden. Vgl. dazu ausführlicher Heine/Herr 2012, S. 53ff.

[«10] Bereits die frühere britische Ökonomin Joan Robinson hatte die Vorstellung eines „Buches“ mit einer großen Zahl alternativer Techniken, die den Unternehmen sofort und kostenlos zur Verfügung stünden, mehrfach heftig kritisiert: „In jedem Fall gehören alle Kontroversen, die über das Konzept eines ‚gegebenen Standes des technischen Wissens‘ – repräsentiert durch ein Buch von Blaupausen – geführt werden, eher in den Bereich ökonomischer Doktrinen als in die Analyse einer realen Volkswirtschaft. Offensichtlich existiert in der realen Industrie nicht eine große Anzahl an alternativen Blaupausen für verschiedene Techniken zeitlich nebeneinander. Im wirklichen Leben werden Techniken beständig neu erfunden und jede wird nur festgehalten, wenn es wahrscheinlich erscheint, dass sie auch benutzt wird“ (Robinson/Eatwell 1973, S. 143; Übersetzung G.G.).

[«11] Diese Argumentation stützt sich auf die Resultate der sog. Cambridge-Cambridge-Debatte in den 1960er Jahren, die im Ergebnis zweifelsfrei aufgezeigt hat, dass es den bis damals behaupteten eindeutigen Zusammenhang zwischen Lohnhöhe, Technikwahl und Beschäftigungsniveau nicht gibt. Vgl. dazu ausführlicher Heine/Herr 2012, S. 234-267; Grunert 2003.

[«12] Technisch gesprochen überlagern sich damit bei der Nachfrage nach Friseurdienstleistungen eine Bewegung entlang der Nachfragekurve (aufgrund der Preisanhebung) und eine Verschiebung der Nachfragekurve (aufgrund der Einkommenssteigerung).

[«13] Von einer solchen Reaktion geht die Effizienzlohntheorie aus, wobei die verstärkten Arbeitsanstrengungen u. a. entweder als Gegenleistung für die höheren ausbezahlten Löhne interpretiert (Akerlof 1982) oder darauf zurückgeführt werden, dass die Beschäftigten ihre nun attraktiveren Arbeitsplätze sichern wollen (Shapiro/Stiglitz 1984).

[«14] Die Kosten der Arbeitskräftefluktuation können erheblich sein, selbst bei Geringverdienern (Boushey/Glynn 2012). Natürlich stellt sich dann die Frage, warum die Unternehmen nicht von sich aus bereits höhere Löhne zahlen. Tatsächlich geschieht dies in einigen Unternehmen bereits. Prinzipiell aber stehen den Unternehmen zwei unterschiedliche Strategien zur Verfügung – niedrigere Löhne und höhere Arbeitskräftefluktuation versus höhere Löhne und geringere Fluktuation – , die beide profitabel sein und nebeneinander existieren können. Ein gesetzlicher Mindestlohn schränkt die Wahlmöglichkeiten der Unternehmen ein (Schmitt 2013, S. 21).

[«15] Diese Kompression der Lohnverteilung als Folge eines Mindestlohns ist empirisch gut belegt (vgl. z.B. DiNardo et al. 1996, Lucifora et al. 2005, Autor et al. 2010, Garnero et al. 2013). Hirsch et al. berichten sogar, dass rund 40 Prozent der von ihnen interviewten Manager angaben, dass sie nach einer Erhöhung des Mindestlohns „Lohnanhebungen/Boni für erfahrenere Arbeitnehmer verschieben oder begrenzen würden“ (Hirsch et al. 2011, S. 28; Übersetzung G.G.).

[«16] In Argentinien garantierte der „Plan Jefes y Jefas“ armen Haushaltsvorständen einen Arbeitsplatz (Tcherneva/Wray 2005); in Indien verpflichtet der „National Rural Employment Guarantee Act“ (2005) die Regierung, jedem Erwachsenen, der in einem ländlichen Gebiet lebt, Beschäftigung in einem Projekt für öffentliche Arbeiten zu beschaffen (Hirway 2006).

flattr this!

January 21 2014

Kritik windiger Rentenprognosen und Familienrechnungen

Die Bertelsmann-Stiftung behauptete letzte Woche in einer Studie, Familien würden vom gegenwärtigen Rentensystem „benachteiligt“. Kinder finanzierten in ihrem späteren Erwerbsleben mit ihren Einzahlungen in die Rentenkasse nicht nur die Altersversorgung ihrer eigenen Eltern, sondern auch die der Kinderlosen aus ihrer Elterngeneration.
Am gleichen Tag klagten der Direktor das arbeitgeberfinanzierten Instituts der deutschen Wirtschaft (IW) und ihm folgend natürlich die CDU-Mittelstandsvereinigung, der Deutsche Industrie- und Handelskammertag (DIHK) und der Bundesverband der Deutschen Industrie (BDI) darüber, dass die Rentenpläne der Koalition von 2014 bis 2020 Mehrausgaben von über 60 Milliarden € verursachen würden. Der Chef des BDI, Ulr