Sonntag, Juni 21, 2015

Debatte: Von linken Parteien geführte Bundesländer diskriminieren Jungen besonders stark – steht das fest?

Die Frage, ob sich tatsächlich nachweisen lässt, dass von linken Parteien geführte Bundesländer Jungen besonders stark diskriminieren, interessiert mich, und ich würde da gerne ein wenig dranbleiben. Diese These war von dem Bildungsforscher Michael Klein in Zusammenarbeit mit Dr. Heike Diefenbach aufgestellt worden, der auch auf die Kritik eines Genderama-Lesers an seiner Argumentation auf Genderama antwortete, um am folgenden Tag eine Überarbeitung seiner These online zu stellen: Erneut belegter Befund: Linke Landesregierung verschärft jungenfeindliches Klima in Schulen. Nun hatte mich inzwischen eine Reihe weiterer Leser mit kritischen Einschätzungen von Kleins Argumentation angeschrieben. Bei dreien von ihnen habe ich zurückgefragt, ob sie den von Michael Klein überarbeiteten Ansatz nun als stichhaltig betrachten.

Der Leser, der sich auf Genderama bereits kritisch geäußert hatte, schreibt mir dazu:

Also ich finde es auf jeden Fall mal gut, dass Michael Klein doch noch eine Überarbeitung gemacht hat, nachdem ich erst den Eindruck hatte, dass er sich vollkommen gegen Kritik verschließt.

Mein Problem mit der Statistik hat er auf jeden Fall gelöst. Mir ging es in erster Linie darum, dass ich es zweifelhaft fand, ob der Index die Linkslastigkeit überhaupt korrekt wiedergibt, weshalb mich Kleins Aussage, mit verschiedener Berechnung des Indexes würde sowieso immer das gleiche rauskommen, auch wenig beruhigt hat. Kann ja gut sein, dass es jedes Mal die gleiche Korrelation mit dem Index gibt, aber das hilft ja nichts, wenn der Index nichts mit Linkslastigkeit zu tun hätte. Da haben wir aneinander vorbeigeredet.

Ein Missverständnis von meiner Seite war auf jeden Fall auch, dass ich mit den theoretisch möglichen Koalitionen gerechnet habe und mir nicht bewusst war, dass die Berechnung bei den Koalitionen, die es dann tatsächlich gibt, auch vorher geklappt hat. Es gibt nun mal keine Alleinregierung der Linkspartei.

Also wie gesagt, bin ich mit der neuen Rechnung zufrieden und nach der Erklärung auch mit der alten.

Etwas befremdlich finde ich nur, dass meine Kritik laut Klein ja scheinbar aus einem linken Abwehrreflex kommen muss. Ich bin durchaus bereit zu glauben, dass es in linken Bundesländern schlechter um die Jungen steht. Das hätte ich auch intuitiv wohl vermutet. Das heißt aber nicht, dass ich jede Studie, die mich darin bestätigt, unkritisch glauben muss. Ich hab den Eindruck, dass Michaels Perspektive auf seine Kritiker dem Diskurs nicht förderlich ist und die Fronten eher verhärtet.


Ein anderer meiner Leser, den ich um seine Einschätzung von Michael Kleins überarbeiteter These gebeten habe, ist studierter Politikwissenschaftler. Er hält auch von der neuen Fassung wenig:

Leider ist auch die neue Analyse leicht zu überprüfender Unfug. Nur um das klar zu stellen: Es liegt nicht daran, dass ich Kleins Ergebnissen nicht glauben will. Es kann sogar gut sein, dass etwas dran ist, das schließe ich überhaupt nicht aus, also dass es Mädchen im Vergleich zu Jungen unter einer SPD/Grünen/Linkspartei-geführten Bildungspolitik relativ leichter haben. Tatsächlich erscheint mir das sogar ein Stück weit plausibel.

Aber der Weg, wie Klein zu der Erkenntnis kommt, ist grober Unfug.

Nebenbei möchte ich noch bemerken, dass ich ein großer Bewunderer von Christina Hoff Sommers bin, die tatsächlich wissenschaftlich seriös feministische Unsinnsuntersuchungen zerpflückt.

Aber ins Detail.

Es fängt schon bei der Datenermittlung an. Es geht in der Statistik um den Abschlussjahrgang 2013. Klein sieht sich sowohl den Anteil der Jungen und Mädchen unter den Schülern mit (Fach-)Hochschulreife an, als auch unter denjenigen, die ohne Abschluss die Schule verlassen haben, ermittelt jeweils die Differenz (die jeweils zulasten der Jungen ausfällt) und addiert beide Differenzen. Allein diese Addierung ist schon fragwürdig, da zwei relative Werte miteinander verrechnet werden, die auf vollkommen unterschiedlichen absoluten Werten beruhen. Die Zahl der Abgänger mit (Fach-)Hochschulreife ist deutlich größer als die derjenigen ohne Abschluss; bei der Addition der relativen Werte werden aber beide gleichgesetzt.

Beispiel: In Bayern haben 69.703 Jungen (davon 17.435 mit (Fach-)Hochschulreife und 3.681 ohne Abschluss) und 67.447 Mädchen (davon 20.252 mit (Fach-)Hochschulreife und 2.311 ohne Abschluss) die Schule verlassen. D.h. 25,013% der Jungen und 30,031% der Mädchen haben mindestens eine Fachhochschulreife erlangt, während 5,281% der Jungen und 3,426% der Mädchen keinen Abschluss haben. Er addiert dann beide Differenzen: 5,018% + 1,855% und kommt somit auf den Wert von 6,87%, der auch in seiner Tabelle zu finden ist.

Man könnte sagen, er macht es sich damit zu einfach; Ich vermute eher, dass Absicht dahinter steckt, denn dadurch wird die Korrelation, die er am Ende ermittelt, deutlich größer. Es handelt sich also wohl eher um eine Methode, um den Zusammenhang, den er behauptet, als größer darzustellen, als er tatsächlich ist.

Er hat dann eine Tabelle, die für jedes Bundesland einzeln aufgeführt diese addierten Differenzen ausgibt. Die Unterschiede, die dabei zwischen den Bundesländern auftreten, sind in der Tat erstaunlich groß und bedürfen einer Erklärung. Er versucht, dies allein durch die Zusammensetzung der Landesregierung zu erklären. Und hier findet sich der vielleicht unsinnigste Fehler. Gemeinhin sollte ja bekannt sein, dass die Ursache eines Ereignisses seiner Wirkung zeitlich vorausgeht. Klein scheint anderer Ansicht zu sein. Ich habe mich die ganze Zeit gefragt, warum er eigentlich nicht die FDP codiert hat, wo die doch 2013 in drei Landesregierungen (Bayern, Hessen, Sachsen) vertreten war. Nun, der Grund ist einfach: Er zieht nicht die Landesregierungen von 2013 heran, sondern die von 2015. Entweder nimmt er an, dass diese über Zeitmaschinen verfügen und somit rückwirkend die Schulabschlüsse des Jahres 2013 manipulieren können, oder er bindet uns vorsätzlich einen Bären auf. Darüberhinaus lässt er auch den SSW vollkommen außer Acht, der damals wie heute in der Regierung Schleswig-Holsteins vertreten ist.

Aber selbst mit den Landesregierungen von 2013 wäre das höchst gewagt, weil er viele mögliche Faktoren außer Acht lässt. Als erstes fällt da sofort ein, dass eine Schullaufbahn ja nicht nur das Abschlussjahr, sondern regulär bis zu 13 Schuljahre umfasst; Natürlich haben alle Schuljahre einen Einfluss auf den Abschluss (sonst könnte man sich die restlichen Jahre ja sparen). Allein schon deswegen müsste man sämtliche Landesregierungen zwischen 2000 und 2013 in die Rechnung aufnehmen, eigentlich aber sämtliche Landesregierungen seit 1949, da das Bildungssystem ja über Jahrzehnte gewachsen ist. Das ist ihm eigentlich auch bewusst, er tut es trotzdem (wider besseres Wissen) nicht:

"Da Bildungspolitik Aufgabe der Länder ist und in den letzten Jahrzehnten Landespolitiker mit Vorliebe an den Curricula von Schulen herumgepfuscht haben, liegt der Verdacht nahe, dass die Nachteile von Jungen durch Landespolitiker verursacht sind, Landespolitiker, die so fixiert auf die Förderung von Mädchen sind, dass sie Jungen über die Bildungsklinge springen lassen, gemäß dem Motto, mit jedem Jungen, der im Hinblick auf die Bildung gescheitert ist, haben Mädchen als Gruppe einen Vorteil."

Und selbst wenn er es täte: Es wären noch eine Menge weiterer Faktoren denkbar, über die er gar nicht nachdenkt. Tut mir Leid, aber das reicht einfach nicht.

Der Index, den er dann aufstellt, umfasst die "Linkslastigkeit" nicht, so wie er behauptet. Er definiert diesen Begriff noch nicht einmal, geschweige denn, dass er ihn operationalisiert. Es ist eine rein willkürliche Festlegung. Warum die CSU den Wert 1 hat, die Linkspartei den Wert 5, das begründet er nicht. Man kann das durchaus so machen, aber das Datenniveau, das man dann hat, ist halt nur nominalskaliert, man kann damit nicht rechnen.

Im ersten Post hieß es: "Mit einem steigenden Wert des Index ist entsprechend eine größere Linkslastigkeit der Landesregierung verbunden." Nein, ist sie nicht. An dieser Aussage hält er grundsätzlich auch im zweiten Post fest: "Die entsprechenden Koalitionen auf Landesebene (und die Alleinregierung der CSU) wurden nach aufsteigender Linkslastigkeit sortiert, und es wurden ihnen Werte von 1 bis maximal 6 zugewiesen." Was "aufsteigende Linkslastigkeit" sein soll, bleibt sein Geheimnis. Mit Politikwissenschaft hat das wenig bis gar nichts zu tun.

Auch das größte Problem, das des Skalenniveaus, bleibt bestehen. Dazu einige Vorbemerkungen. Man unterscheidet zwischen nominalskalierten, ordinalskalierten und metrischen Daten.

Nominalskaliert heißt, dass Kategorien gebildet werden, in die die Daten eingefügt werden können, diese jedoch keine logische Ordnung haben. Ein Beispiel dafür wäre die Augenfarbe. Man kann diese in Kategorien wie braun, blau, grün, grau oder auch Mischvarianten unterteilen. In der Statistik ist es üblich, diese Kategorien zu numerieren. Aber eine logische Ordnung ergibt sich nicht. Keine ist mehr oder weniger als die andere. Nur, weil "blau" beispielsweise die 1 und "braun" die 2 erhält, ist braun nicht mehr als blau. Die Nummerierung erfolgt also willkürlich.

Ordinalskaliert sind Daten dann, wenn sich eine logische Ordnung ergibt. Ein Beispiel dafür wären die Planeten: Man kann sie z.B. durch den Abstand zur Sonne ordnen. Merkur erhält dann die 1, Venus die 2, Erde die 3 usw. Eine höhere Zahl bedeutet dann, dass der entsprechende Planet weiter von der Sonne entfernt ist. Aber: Die Abstände sind nicht interpretierbar. Beispielsweise ist die Differenz zwischen 3 (Erde) und 4 (Mars) kleiner als die zwischen Mars (4) und Jupiter (5). Die Zahlen haben also eine Rangfolge, aber rechnen kann man damit nicht, da wir nichts über den Abstand wissen.

Das nächste wäre dann metrisches Skalenniveau. Dieses unterscheidet man nochmal in Intervall-, Ratio- und Absolutskala. Die Unterschiede spielen für unsere Zwecke keine Rolle, gemeinsam ist ihnen, dass die Abstände zwischen den Zahlen mess- und interpretierbar sind. Ein Beispiel wäre die Temperatur in °C; Der Abstand zwischen 10°C und 20°C ist genauso groß wie der zwischen 20°C und 30°C.

Ignoriert man sämtliche vorher benannten Mängel, dann kann man mit ganz viel gutem Willen und beide Augen zudrücken annehmen, sein Index sei nicht nur nominal-, sondern ordinalskaliert; Vorausgesetzt, man teilt seine Annahme, dass eine schwarzgrüne Landesregierung "linker" sei als eine große Koalition, usw., was aber begründet werden müsste. Der eine Fall, der auftaucht, nämlich in Hessen, dürfte eher dagegen sprechen: Hier haben wir es mit einem Grünen-Landesverband zu tun, der sehr bürgerlich geprägt ist und eher "rechts" der SPD liegen würde, wenn man sich mit derart plakativen Begriffen zufrieden gibt (wie Klein es tut, was aber mit Politikwissenschaft nicht viel zu tun hat). Das erklärt er nicht, wie gesagt, er definiert noch nicht einmal, was er mit "linkslastig" meint, geschweige denn, wie er das misst. Er misst es offensichtlich überhaupt nicht, sondern behauptet es einfach.

Doch selbst, wenn man ihm das alles zugestehen würde, dann wäre die Ermittlung des Pearson'schen Korrelationskoeffizienten, wie er sie durchführt, unzulässig, da sie nicht nur ordinales, sondern metrisches Skalenniveau voraussetzt: Die Abstände zwischen den Werten müssen mess- und interpretierbar sein. Das sind sie nicht. Man kann mit ihnen nicht rechnen, man kann sie nur ordnen und zählen. Und wie gesagt, selbst das ist schon sehr zweifelhaft.

Neu sind jetzt zwei Sachen: Zum einen bildet er zwei neue Indizes, einen gestreckten und einen gestauchten. Die sind übrigens - selbst wenn man von den aktuellen Landesregierungen ausgeht, was er ja unsinnigerweise tut – fehlerhaft. So behauptet er eine CDU/Grüne-Regierung in Mecklenburg-Vorpommern und unterschlägt nach wie vor den SSW in Schleswig-Holstein. Kann man letzteres vielleicht noch akzeptieren, so macht das erste doch einen großen Unterschied, dazu gleich noch.

Zum anderen berechnet er ETA. Warum er dies tut, ist mir schleierhaft, da ETA gar nicht direkt interpretierbar ist. Ich muss annehmen, dass er das nicht weiß. Direkt interpretierbar ist allerdings ETA², das ihm von SPSS natürlich auch ausgegeben wurde. Das ist der einzige wirklich sinnvolle Unterschied zu seiner vorherigen Arbeit, weil ETA² Korrelationen zwischen nominalen Daten (seine Indizes) und metrischen Daten (die Schulabgängerquoten) darstellen kann. ETA² gibt er mit 0,45 (für den gestauchten Index) an. Das ist in der Tat ein bemerkenswerter Zusammenhang, würde es doch besagen, dass 45% des Unterschieds zwischen den Bundesländern durch die jetzige Landesregierung ausgemacht würden (was ja schon physikalisch unmöglich ist). In meiner Rechnung kam ich sogar auf 0,55 (der Unterschied dürfte auf Rundungsungenauigkeiten zurückzuführen sein). Wenn man allerdings die richtige Regierung für Meck-Pomm einberechnet (CDU/SPD statt CDU/Grüne), sinkt ETA² - in meiner Rechnung - bereits auf 0,31, in seiner Rechnung dürfte es sogar noch ein bisschen weniger sein. Allein dieser eine Fehler erklärt also schon fast die Hälfte seines Ergebnisses. (Daher bin ich mir nicht sicher, ob er den nicht sogar absichtlich begangen hat, zumal er Meck-Pomm schon korrigiert hatte - vorher hatte er ihnen eine SPD/Linke-Regierung untergejubelt. Damit war er sogar auf einen noch größeren Zusammenhang gekommen, ein Pearsons R von 0,46. Das ist allein durch diese Korrektur jetzt schon auf 0,3 gesunken - abgesehen davon, dass es sowieso nicht seriös berechnet werden kann, wie gesagt.)

Die Rechnung ist nun schlüssig und gehorcht den Gesetzen der Mathematik. Aber das heißt noch nicht, dass die Ergebnisse auch sinnvoll sind. Der letzte Absatz war reine mathematische Spielerei, die man dann anstellen könnte, wenn alles vorher korrekt gewesen wäre. Und selbst dann wäre das Ergebnis lediglich eine Korrelation - ob dieser auch ein kausaler Zusammenhang zugrundeliegt, könnten wir dann noch nicht sagen. Das hat dein anderer Leser in seiner Mail richtig festgestellt.

Nochmal zusammengefasst:

Die Annahme, dass die jetzigen Landesregierungen einen Einfluss auf die Schulabschlüsse von 2013 haben könnten, widerspricht jeglicher Logik.

Stattdessen müsste eine Vielzahl von Faktoren einberechnet werden. Die Daten legen vor allem einen erheblichen Ost-/West-Unterschied nahe. Würde man allein die Landesregierungen der letzten 13 Jahre einbeziehen, würden die Ergebnisse vermutlich ganz anders aussehen, die Korrelation würde vermutlich auf einen kleinen Bruchteil der von Klein ermittelten zusammenschrupfen. Leider habe ich weder die Zeit, noch das Equipment, um solch eine Untersuchung durchzuführen.

Die Indexbildung erfolgt willkürlich, was zwar okay ist für die Berechnung von ETA² (theoretisch auch ETA, es ergibt nur keinen Sinn), nicht aber für die Berechnung von Pearsons R.

Da die Begriffe "links" oder "linkslastig" weder definiert, noch operationalisiert, noch gemessen werden, verbieten sich alle Aussagen, die sich auf die vermeintliche oder tatsächliche "Linkslastigkeit" einer Regierung beziehen. Das ist reines Geschwafel.

Seine Addition der relativen Werte der Schulabgänger ohne Abschluss und mit (Fach-)Hochschulabschluss ist nicht sinnvoll.

Das ist wirklich schade, denn ich glaube, dass an seiner These, linke Landesregierungen würden eine für Jungen tendenziell schwierigere Bildungspolitik machen, durchaus etwas dran ist. Seine Untersuchung ist aber offensichtlich vom Wunsch getragen, diesen Zusammenhang auf Teufel komm raus zu beweisen und die Zahlen so gut es geht zu manipulieren, um ihn dramatischer erscheinen zu lassen, als er eigentlich ist. Dafür nimmt er schwerwiegende wissenschaftliche Fehler in kauf. Das mag seinen Jüngern recht sein, für den öffentlichen Diskurs aber disqualifiziert er sich damit. In die Gefahr begibt man sich auch, wenn man auf ihn als Quelle verlinkt. Man macht es seinen Kritikern damit unnötig leicht.


Die Einschätzung des dritten Lesers, einem männerpolitisch engagierten Aktivisten namens Uwe Bieser, der sich einige Zeit lang mit Statistik beschäftigt hat, lautet folgendermaßen:

Auch die erneuten Berechnungen ändern am Grundproblem nichts. Nach wie vor ist der Knackpunkt der Statistik, dass der Korrelation zu viel Aussagekraft zugemutet wird. Es liegt unter den Diskussionsteilnehmern Konsens vor, dass eine Korrelation zweier Variablen keinen kausalen Zusammenhang belegen kann. Und selbst wenn eine Kausalität zwischen zwei Variablen als gesichert gilt, kann bei nur zwei Variablen Ursache und Auswirkung nicht immer belastbar getrennt werden. Da muss man natürlich auf logische Überlegungen zurückgreifen. Jeder weiß, dass schlechte Schulnoten einen eher geringen Einfluss auf die Entwicklung der Intelligenz haben, umgekehrt jedoch die Intelligenz einen großen Einfluss auf die Schulnoten hat.

Der Umsatz von Sonnenmilch in den Sommermonaten korreliert in einem hohen Maß mit der Hautbräune seiner Anwender. Ursächlich ist sie dafür jedoch nicht. Im Gegenteil zögert sie diese hinaus. Der hohe positive Korrelationskoeffizient deutet aber das Gegenteil an.

Hier sind die Schlussfolgerungen noch ziemlich einfach. Niemand käme auf die Idee, Sonnenmilch für eine Bräunungscreme zu halten. Bei der Interpretation der geschlechterspezifischen Quoten von Jugendlichen ohne Schulabschluss und Abiturienten, in Korrelation zur politischen Ausrichtung der Landesregierung, ist man angesichts einer Bildungssystemkrise in Versuchung statistische Ergebnisse gegen ignorante zeitgeistliche Bildungspolitik zu verwenden. Dennoch, die eigene Überzeugung darf nicht überhastet in die Interpretation der Ergebnisse einfließen.

Es liegt die Vermutung nah, dass die politische Ausrichtung einer Landesregierung einen Einfluss auf die Qualität und Quantität der Schulabschlüsse von Jungen hat. Im Verhältnis besteht er sowieso durch eine zielgerichtete Förderung von Mädchen. Jedoch ist dies auch ein bundespolitisches Ziel.

Es kann aber auch sein, dass die politische Ausrichtung einer Landesregierung zwar einen nachweisbaren Zusammenhang verursacht, die Ursache aber ohne bewusste politische Stoßrichtung auf einer ganz anderen Ebene zu finden ist. Da kann man zwar einwenden, dass es Jungen ziemlich egal sein kann, wie ein Ergebnis zustande kommt. Im Sinne der zielgerichteten Problembewältigung sollte man die genaue Ursache jedoch sehr wohl kennen. Was mich an der Statistik nach wie vor stört, ist:

* Die Festlegung eines eher willkürlichen Linksrankings. Es spricht nichts dagegen, per Zahlenwert den Grad der linkspolitischen Ausrichtung in eine statische Analyse zu überführen. Aber wie legt man die Reihenfolge fest? Die Grünen sind bei Haushaltsfragen oft näher an der CDU als die SPD. Die Linke ist in der Gesamtbetrachtung sicherlich am weitesten links. Aber die Forderungen im Bereich Mindestlohn, Sozialhilfe, die Haltung zur Griechenlandkrise, Auslandseinsätze, die pazifistische Grundeinstellung schlägt sich ja nicht in der Bildungspolitik nieder. Gibt es bei den relevanten Bildungsthemen überhaupt einen merklichen Unterschied zwischen den GRÜNEN, SPD und Die Linke?

* Das Addieren von Schülern ohne Abschluss und Abiturienten. Das halte ich für unzulässig. Die Ursachen des fehlenden Abschlusses sind möglicherweise ganz andere als die der Differenz zwischen Jungen und Mädchen bei der Anzahl der Abiturienten. Mögliche Ursachen ließen sich nach einigem Nachdenken sicherlich ins Feld führen. Zum Beispiel verläuft einer Studie gemäß die gausssche Normalverteilung bei den Jungen flacher als bei den Mädchen. Der Intelligenzdurchschnitt weicht nur wenig ab, aber bei den Jungen gäbe es der Studie zufolge mehr Höchstbegabte aber auf der anderen Seite auch mehr Geringbegabte. Aus beiden Gruppen lassen sich Schüler ohne Abschluss ableiten. Zusätzliche Faktoren sind denkbar.

* Es fehlen weitere Variablen in der Statistik. Andere Variablen, wie z.B. die Wirtschaftsleistung eines Landes, können sich ähnlich linear auswirken, indem Eltern mehr Geld für die Nachhilfe zur Verfügung haben und so eine vermutlich bundesweit oder systemisch bedingte Benachteiligung teilweise kompensieren. Möglicherweise spielen dabei auch die finanziellen Mittel der Schulen eine Rolle. Auch diese sind von der Wirtschaftsleistung des Landes abhängig. Auch wenn das zunächst nicht überzeugend klingen mag, weil man zunächst von einer gleichmäßigen Verteilung auf die Geschlechter ausgeht. Aber wer weiß jetzt bereits gesichert, dass dies in der Praxis auch wirklich so ist? Der finanzielle Aspekt bringt auch den statistischen Ausreißer, Baden-Württemberg, der im Ranking auf Platz 1 landete, obwohl es seit 2011 von einem Grünen MP und Rot-Grün regiert wird, besser in Einklang. Man sollte auch nicht zu sehr der Idee anhängen, dass es nur die eine mächtige kausale Variable gibt. Das Zusammenspiel mehrerer Variablen (auch Interaktionen) wäre durchaus wahrscheinlich. Es gibt so viele mögliche Ansätze die Einflüsse auf andere Weise herzuleiten. Man kann sich nicht bereits damit zufriedengeben, einen linearen Zusammenhang zweier Variablen festzustellen, ohne die politisch-historischen und ökonomischen Rahmenbedingungen in die Betrachtung mit einzubeziehen.

* Sie stellt nur eine Momentaufnahme dar. Zeitverzögerungen politischer Weichenstellungen werden nicht erfasst.

Der Mitverfasser der Statistik schreibt in einer Erwiderung auf seinem Blog, dass ihm keine Partei geläufig ist, die mit einer besseren Bildung für Jungen wirbt. Ich behaupte, es gibt überhaupt keine Regierungspartei, die sich der Bildungskrise der Jungen annimmt. Von daher erachte ich das Fazit, die bildungspolitische Ausrichtung schlage sich statistisch nieder, als nicht unproblematisch. Gleichwohl ist das Ergebnis beachtenswert und sollte durchaus weiter verfolgt werden. Man sollte es aber nicht jenen gleichtun, die gläserne Decken behaupten und anstatt sich auf belastbare Auswertungen zu stützen, sich darauf berufen, dass es beim Blick auf die Zahlenwerte doch offensichtlich wäre, dass überwiegend männliche Netzwerke der Grund dafür sind.


Nachtrag, einige Stunden später: Nachdem ich Michael klein über diese Kritik informiert hatte, hat er einen neuen Blogbeitrag online gestellt, der auch diese Stimmen aufgreift.

kostenloser Counter