Mittwoch, 23. Mai 2012

Im Netz der Forschung

von Katharina Fritsch / Werner Sturmberger

Die EU will durch Rahmenprogramme wie Horizont 2020 Forschungsnetzwerke in Europa fördern. Aber fördert sie damit auch Wissenschaft und Forschung?

Die Sanierung der Staatsfinanzen und strukturelle Reformen sind notwendig, aber alleine noch nicht ausreichend, um die globale Wettbewerbsfähigkeit Europas zu gewährleisten“, liest man in einer Mitteilung der EU-Kommission zum neuen Forschungsrahmenprogramm „Horizont 2020“.



Die Zukunftshoffnung der EU: Horizont 2020

Es brauche „intelligente Investitionen, insbesondere in Forschung und Innovation“, meint die EU-Kommission, um den Lebensstandard zu halten und aktuelle Probleme wie Klimawandel, Ressourceneffizienz und Bevölkerungsalterung zu bewältigen.

Horizont 2020, das ab 2014 alle forschungsfördernden Aktivitäten der EU zusammenfassen soll, ist mit 80 Milliarden Euro dotiert und zielt darauf ab, Europas Platz in einer „neuen Weltordnung“ zu sichern. Europa leide unter einem strukturellen Innovationsrückstand und müsse wettbewerbsfähiger werden. Durch Investition in Forschung ließe sich „nachhaltiges“ und „smartes“ Wachstum erreichen. Zentrale Ressource sei dabei „Wissen“ – verstanden als technologische Innovationen, die möglichst schnell in neuen Produkten und Dienstleistungen verwertet werden sollen.



Wissensgesellschaft als Wirtschaftskonzept

Diese Idee der EU folgt der „knowledge-based economy“, einer vor allem von den USA vorangetriebene Neuorientierung der Weltwirtschaft. Dieses Paradigma wurde seit den späten Sechzigerjahren von amerikanischen Soziologen wie Robert E. Lane oder Daniel Bell propagiert.

Wissen stelle demnach die wichtigste Ressource der postindustriellen Gesellschaften dar – im Unterschied zur Industriegesellschaft, in der Arbeit, Kapital und Rohstoffe die zentralen Produktivkräfte seien. So erläutert Wolfgang Neurath, Netzwerkexperte des Wissenschaftsministeriums, die Ideen Lanes und Bells.

In den Achtzigerjahren wurde die Wissensgesellschaft vor allem von US-amerikanischen Think-Tanks zur Leitideologie erhoben, schreibt der britische Sozialwissenschafter Bob Jessop.



Netzwerke als Basis der Wissensgesellschaft

In der EU fanden diese Bestrebungen beim wegweisenden Treffen des Europäischen Rates im März 2000 in Lissabon im Leitmotto „Forschung und Innovation” ihren Ausdruck. Im kurz darauf erschienenen Dokument „Towards a European Research Area“ legte die EU-Kommission die Rahmenbedingungen für einen innovationsorientierten, europäischen Forschungsraum fest. Die Maßnahmen weisen Forschungsnetzwerken eine Schlüsselrolle zu. „Sie haben auch dazu beigetragen, dass ein richtiger Forschungsmarkt mit Akteuren entstanden ist. Die Akteure haben sich darauf spezialisiert, in diesem Markt eine Rolle zu spielen“, erklärt der Netzwerkforscher Harald Katzmair von fas.research. Das Wesen dieses neuen Wissenschafts- und Forschungsmarktes sind Netzwerke.



Multidisziplinarität für innovative Forschung

„Ohne Zusammenarbeit gibt es überhaupt keine Wissenschaft. Die Menschen haben schon vor Jahrhunderten gewusst, dass das Leben zu kurz und die Wirklichkeit zu komplex ist, um als Einzelner weit zu kommen“, erläutert Konrad Becker, Forscher, Künstler und Leiter des World-Information Institute.

Der netzwerkartige Charakter von Wissenschaft ist alt. Wissen entsteht immer aus der Zusammenarbeit verschiedener Akteure. Die veränderten Rahmenbedingungen für die Forschung führen nun aber zu einer noch stärkeren Betonung des Netzwerks und seiner Eigenschaften. Netzwerke stehen mittlerweile für Ideen, verstärkte Flexibilität, Dezentralisierung und Mobilität. Forscherinnen und Forscher sollen sich weder an räumliche noch an disziplinäre Grenzen binden.

„Trans-“ oder „Multidisziplinarität“ lauten die Begriffe hierfür. Sie stehen für all jene Methoden, die Forschungsfragen problemorientiert formulieren. Multidisziplinäre Ansätze bringen eine Kombination unterschiedlicher Disziplinen zur Problemlösung in Stellung. Transdisziplinäre Methoden haben die Überschreitung disziplinärer Grenzen zum Ziel. „Ich finde, dass diese problemorientierte Forschung schon in die richtige Richtung geht“, meint Netzwerkforscher Katzmair. „Wir sehen ein Problem – egal, ob Mathematiker, Psychologe oder Ökonom – und wir haben immer die Perspektive, bestimmte Probleme lösen bzw. besser verstehen zu können.“



Netzwerke als Formen der Wissenschaftskritik

Katja Mayer, Lektorin am Institut für Wissenschaftsforschung, betont, dass der Begriff der Forschungsnetzwerke eine Kritik an starren Hierarchien und Forschungsstrategien beinhalte. Gut funktionierende Netzwerke würden „Personen und Institutionen zusammenbringen, den Wissenstransfer verbessern, diverse Ressourcen verbinden und Jungforschern neue Wege eröffnen.“

Diese Vorteile internationaler Vernetzung führt auch Birgit Sauer an, Professorin am Institut für Politikwissenschaft Wien. Hinsichtlich politikwissenschaftlicher
Forschung seien Netzwerke wichtig, da Ähnlichkeiten und Unterschiede in Forschungsfeldern besser herausgearbeitet werden könnten. Derzeit ist sie an einem europäischen Forschungsnetzwerk von fünf EU-Mitgliedsstaaten zum Thema „Gewalt in der Schule“ beteiligt.



EU-Netzwerke fokussieren auf neue Technologien

Die Definition der EU von Wissen als zen-tralem Rohstoff der europäischen Wirtschaft führt zu einem spezifischen Verteilungsmuster des EU-Forschungsbudgets. Der Fokus liegt auf angewandter Forschung und bevorzugt Naturwissenschaften und Technik gegenüber Geistes-, Kultur- und Sozialwissenschaften.

Diese Tendenz lässt sich auch in Österreich bei der Forschungsmittelvergabe des Wissenschaftsfonds FWF ablesen. 2011 gingen 43 Prozent der Fördergelder von rund 195 Millionen Euro an sogenannte Life Sciences (Medizin, Pharmazie, Biologie, etc.), 40 Prozent an Naturwissenschaft und Technik und die verbleibenden 17 Prozent an Geistes- und Sozialwissenschaften.

Die europäischen Rahmenprogramme sollen zur flächendeckenden Verbreitung eines netzwerkartigen Forschungsmodus beitragen. Er soll sich vor allem auf marktorientierte Wissensbereiche konzentrieren. Dass diese Konzentration auch tatsächlich stattfindet, belegen die Analysen bisheriger Forschungsrahmenprogramme von Stefano Breschi und Lucia Cusmano, Ökonomen an der Wirtschaftsuniversität Mailand. Sie stellen eine Bevorzugung technologieorientierter Forschungsnetzwerke fest.

Dabei handelt es sich vornehmlich um Kooperationen zwischen Wissenschaft und Industrie, sogenannte Research Joint Ventures RJV. Österreich ist derzeit an zwei solch großen RJV beteiligt: Lifevalve und Futuresoc.

In Lifevalve, budgetiert mit 16 Millionen Euro, entwickelt die Medizinische Universität Wien gemeinsam mit Instituten in Ungarn, den Niederlanden, Deutschland und der Schweiz Ersatzherzklappen für Babys aus körpereigenen Zellen.

In Futuresoc, mit 2,4 Millionen Euro dotiert, analysiert das Internationale Institut für Angewandte Systemanalyse die durch den Klimawandel bedingten demographischen Entwicklungen.



Forschungsnetzwerke als Beutegemeinschaft

Der Begriff des Netzwerks scheint egalitäre und dezentrale Beziehungen zu implizieren. Stimmt diese Annahme? Mit dieser Frage befasst sich die Soziale Netzwerkanalyse SNA. Sie dient zum einen der Propagierung des Begriffs Netzwerk, liefert aber auch Ansätze, um dessen Funktionieren verständlich zu machen. Ihre Wurzeln liegen in der Mathematik des 19. Jahrhunderts, als sich Vorstellungen relationaler Logik etablierten. Dieser folgend, ist die eigene Position in einem Netzwerk maßgeblich durch die Qualität, Quantität und Intensität der jeweiligen Beziehungen zu anderen Akteuren bestimmt. Die Positionen in einem Netzwerk sind daher nicht gleichrangig sondern hochgradig hierarchisch.

„Es wird eigentlich das Gegenteil von dem bewirkt, was man behauptet zu verfolgen“, sagt Konrad Becker. „Eine Dezentralisierung findet überhaupt nicht statt, genauso wenig werden schwache Akteure gestärkt. Im Wesentlichen ist es so, dass Netzwerke Verstärkungseffekte haben.“ Das heißt, wer wichtige Knoten in einem Netzwerk kon-trolliert, kann seine Machtposition leichter festigen und stetig ausbauen, entsprechend dem „the rich get richer“-Prinzip.

Im europäischen Forschungsraum hat sich eine Oligopol-Struktur herausgebildet. Stefano Breschi und Lucia Cosmano zeigen, dass die Forschungsrahmenprogramme der EU „Core Center“ oder „Cluster“ entstehen lassen. Das sind Knotenpunkte überdurchschnittlich intensiver Beziehungen der Akteure eines Netzwerks. In Europas Forschungsnetzwerken gehören dazu rund 20 bis 25 Akteure, darunter bekannte Forschungseinrichtungen wie das Karolinska Institute in Schweden oder das CNRS in Frankreich, hinter vorgehaltener Hand auch als „Beutegemeinschaft“ bezeichnet.



Forschungsnetzwerke als Speeddating-Szenarien

Teil eines Netzwerks zu sein bedeutet nicht, ein Gleicher unter Gleichen zu sein – ja nicht einmal, tatsächlich vernetzt zu sein, selbst wenn man im gleichen Projekt tätig ist. „Die Projektmitglieder eines Konsortiums gruppieren sich um einen Consortial Leader und kommunizieren wenig untereinander“, erklärt Netzwerkforscher Katzmair. Potenziell produktive Kooperationsgemeinschaften würden so zu Zweckbeziehungen verkommen. Dadurch hat sich ein gewisser Zynismus breitgemacht. „Da verfolgt jeder seine Ziele. Man trifft sich einmal zu einem Workshop, bei dem jeder seinen Beitrag vorstellt. Am Ende erstellt der Consortial Leader daraus einen Bericht.“

Darüber hinaus würde die wettbewerbsförmige Kooperation vorwiegend opportunistische Beziehungen zwischen den Akteuren hervorbringen. Kooperation entstehe nicht aus gemeinsamen wissenschaftlichen Interessen, sondern aufgrund strategischer Positionen der möglichen Partner: „Das ist wie auf Partnerbörsen. Jeder hat mit jedem schon mal kooperiert”, vergleicht Katzmair die Zusammenarbeit in Forschungsprojekten mit Speeddating-Szenarios.

Konrad Becker spricht in diesem Zusammenhang von einem merkwürdigen Vernetzungswahn vonseiten der Politik: „Die blinde Wut der Förderer zu erzwungener Mobilität und Netzwerkbildung führt nur dazu, dass Flugzeugsessel ein bisschen mehr abgenützt werden.“ Abseits von „Forschungssupertankern“ existieren gerade in der außeruniversitären Forschung Kooperationen schon lange, werden aber von der Politik kaum wahrgenommen. Sie funktionieren dezentral und mit geringem Aufwand, da sie sich moderner Kommunikationstechnologien bedienen, erklärt Becker.

Die Rhetorik der Forschungsnetzwerke wird ihrer Realität nicht gerecht. Vorstellungen von Mobilität, Flexibilität und Innovation in der Wissenschaft erzeugen einen Netzwerk-Jargon, der den tatsächlichen Verhältnissen kaum entspricht. Sie seien vornehmlich von einer Bürokratisierung und Ökonomisierung von Forschung und damit verbundenen Ideen von Qualität und Effizienz geprägt. Becker: „Diese Vorstellungen produzieren aber häufig das Gegenteil von dem, was sie vorgeben zu leisten. Da nehmen Wissenschafter oft extreme Anstrengungen auf sich, um durch die vermeintlichen Effizienz-Reifen zu springen, und daneben bleibt dann die Arbeit liegen.“



Behindern Forschungsrahmenprogramme die Forschung?

Als grundlegendes Problem gilt die Ausschreibungspolitik der Rahmenprogramme. Diese sei kurzfristig und projektbezogen und orientiere sich an der Overhead-Finanzierung. Die Förderung von Infrastruktur, Personen und Netzwerken wird damit nicht erreicht. „Von der Overhead-Finanzierung profitieren vor allem Akteure, die bereits über Infrastruktur verfügen“, erklärt Katzmair. „Außerdem Projekte, die innerhalb kurzer Zyklen umgesetzt werden können.“

Das erschwere die Förderung der Grundlagenforschung und begünstige anwendungsorientierte Forschung. Sie ist auch mit der in „Horizont 2020“ vermehrt angestrebten Einbindung privater Drittmittel besser vereinbar. Die Unabhängigkeit der Forschung von privaten Geldgebern wird dadurch geschwächt, die private Aneignung von Forschungsergebnissen etwa in Form von Patenten hingegen gestärkt.

Welches Wissen relevant ist, wird durch den Ausschreibungsmodus der Brüsseler Verwaltung bereits vorweggenommen. Dadurch entstehe vor allem marktkonformes Wissen, dessen thematische Schwerpunkte sehr kurzen Konjunkturzyklen unterliegen würden. Becker: „Da wird halt jedes Jahr oder alle zwei Jahre eine neue Sau durchs Dorf getrieben.“

Die Entscheidung, welches Wissen gerade für die europäische Gesellschaft relevant sei, gestaltet sich demnach keineswegs demokratisch. Wenig demokratisch ist auch der systematische Ausschluss von jenen Akteuren, die die finanziellen, personellen und zeitlichen Ressourcen für die jeweilige Antragsstellung nicht erübrigen können.

Kleineren, meist außeruniversitären Instituten würde sukzessive der Zugang zu den Geldquellen verbaut, während große wissenschaftliche Institutionen eigene Departments allein zur Antragsstellung unterhalten. „So wächst an großen Institutionen der Speckgürtel weiter, während jene, die mit Herz und Seele ein Thema verfolgen, zusehends leer ausgehen“, sagt Becker.



Gibt es auch ein nützliches Wissen jenseits der Verwertbarkeit?

Damit auch kleine Akteure mitspielen können, bedarf es anderer Rahmenbedingungen. „Es bräuchte einen Portfolio-Ansatz“, sagt Netzwerkforscher Katzmair. „Das bedeutet, sowohl Personen wie Infrastruktur und nicht nur Projekte zu unterstützen.“

Das würde nicht nur die Beteiligung kleinerer Akteure erleichtern, sondern auch Raum für langzyklische Formen von Forschung schaffen. Katja Mayer vom Institut für Wissenschaftsforschung erkennt bereits erste Ansätze dafür auf EU-Ebene: „Man hat gelernt, dass Grundlagenforschung im Innovationsdenken nicht fehlen darf, auch wenn dies jetzt nicht unbedingt der Strategie der Forschungsnetzwerke entspricht. Man sollte auch vermehrt Projekte fördern, die keine unmittelbare Umsetzbarkeit oder direkte Verwertungslogik auszeichnet.“

Die Forschungsförderungsstrategie „Horizont 2020“ soll vornehmlich verwertbares Wissen fördern, um durch Wirtschaftswachstum Krisen begegnen zu können.



Demokratisierung des Wissens statt Informationsfeudalismus

Wenn Wirtschaftswachstum nicht die richtige oder einzige Antwort auf Krisen ist, wird auch das ihm verpflichtete Wissen kaum zur Bewältigung von Krisen beitragen können. Nimmt man diese Überlegung ernst und zieht in Betracht, dass Wachstum nicht nur Lösung, sondern auch Ursache von Krisen sein kann, wäre wohl auch Wissen nützlich, das nicht nur in Wirtschaftswachstum übersetzt werden soll.

Becker plädiert für eine Redemokratisierung öffentlichen Wissens als Gegenspieler zu einem voranschreitenden privat finanzierten und privat verwerteten Informationsfeudalismus. Problematisch ist, dass die Entscheidung, welches Wissen für die gegenwärtige Situation relevant ist, durch „Horizont 2020“ büro- und nicht demokratisch beantwortet wird.

Alternative Definitionen aktueller Probleme, ihre Forschungsnetzwerke und Lösungsstrategien, werden damit ausgeblendet.



Harald Katzmair, Netzwerkforscher, fas.research: „Die Frage ist nicht, wer Potenzial hat, sondern wie man Potenzial reproduzieren kann. Es geht immer darum, wie wir unser Vermögen erneuern können.“

Konrad Becker, Leiter des World-Information Institute Wien:
„Es ist ein weit verbreiteter Irrglaube, dass Netzwerke automatisch eine Dezentralisierung mit sich bringen und Schwache stärken.“

Katja Mayer, Wissenschaftsforscherin an der Universität Wien:
„Vernetzung macht besonders da Sinn, wo man sich Infrastrukturen teilen muss, wo man gemeinsam an ihrer Entwicklung arbeiten kann.“

Birgit Sauer, Politikwissenschafterin an der Universität Wien: „Ein Problem innerhalb von Forschungsprojekten besteht im Prozess der sprachlichen und auch kulturellen Übersetzung.“


Erschienen in Falter Heureka - Ausgabe: Im Netz der Forschung (2/12)

Kooperation statt promovierende Einzelkämpfer

Die Akademie der Wissenschaften fördert DOC-teams in den Geistes- und Kulturwissenschaften.

Ich habe zwei DOC-teams betreut und was ich jeweils gut fand, war die Zusammenarbeit; das Promovieren war nicht nur Einzelkämpferdasein”, erklärt Birgit Sauer, Professorin am Institut für Politikwissenschaft der Uni Wien.

DOC-teams sind Teil der von der Österreichischen Akademie der Wissenschaften vergebenen Promotions-Stipendien. Pro Jahr gibt es 30.000 Euro für eine maximale Dauer von drei Jahren pro Doktorand – aber das Geld geht an Teams. Ein DOC-team besteht aus drei oder vier Personen, die nicht älter als 30 Jahre sein sollten, oder deren Studienabschluss nicht mehr als vier Jahre zurückliegt.

Das Ziel dieser DOC-teams ist die problemlösungsorientierte Entwicklung von disziplinübergreifenden Konzepten. Sie sollen stärker an Themen als an wissenschaftlichen Fächern ausgerichtet sein. Dabei müssen mindestens zwei Mitglieder des Teams aus unterschiedlichen Disziplinen der Geistes-, Sozial- und Kulturwissenschaften stammen.

DOC-teams stellen damit eine der wenigen Förderungsmaßnahmen in diesen Wissensbereichen dar. Die Beteiligung von Naturwissenschaftern wird explizit begrüßt. Seit 2004 wurden 22 Teams bewilligt, zwölf Projekte sind mittlerweile abgeschlossen. Knapp 60 Prozent der Stipendiaten haben im Rahmen des Projekts promoviert. Seit 2008 können aus budgetären Gründen nur mehr maximal zehn Stipendien vergeben werden, was bis zu drei DOC-teams entspricht.

„Grundsätzlich wird den Antragstellern schnell klar, wie aufwendig die Vorbereitung eines Antrags für ein DOC-team ist“, sagt Barbara Haberl, die die Stipendien der ÖAW betreut. „Schließlich müssen bis zu vier Betreuer dazu gebracht werden, das Projekt zu unterstützen.“ Da in Österreich das Angebot an Promotions-Stipendien vor allem für Geistes- und Sozialwissenschaften sehr klein ist, sind viele bereit, sich dem Bewerbungsprozess zu stellen. „Vom Konzept her ermöglichen die DOC-team-Stipendien die schönste Art wissenschaftlicher Arbeit, die ich mir vorstellen kann“, sagt Anke Schaffartzik, die gemeinsam mit Alina Brad und Christina Plank soziale und ökologische Konflikte im Kontext internationaler Biotreibstoffproduktion erforscht.

Auch Markus Wissen vom Institut für Politikwissenschaft der Uni Wien, einer der vier Betreuer dieses DOC-teams, zeigt sich von der problemzentrierten Ausrichtung der Teams angetan: „Die DOC-teams schaffen einen Kristallisationspunkt für die Zusammenarbeit über Disziplingrenzen hinweg – auch für die Betreuer.“

Auch Birgit Sauer hat diese Kooperation als bereichernd erlebt, schränkt jedoch ein: „Drei Jahre sind einfach zu kurz.“


Erschienen in Falter Heureka - Ausgabe: Im Netz der Forschung (2/12)

Ökologie - Emissionsgeschäfte

Ein Männlein steht im Walde, um Emissionsgeschäfte zu machen. Alles, um das Klima zu schonen?

Was macht eine Gruppe von Finnen im nepalesischen Dschungel? – Sie zählen und vermessen Bäume.

Was nach dem Auftakt eines billigen Witzes klingt, hat einen möglicherweise lukrativen Hintergrund. Denn die Ergebnisse der Baumzählung werden mit LiDAR-Daten (Light detection and ranging) verknüpft.

LiDAR funktioniert nicht wie Radar mit Radiowellen, sondern mit Licht, das Prinzip ist aber dasselbe. In diesem Fall befindet sich das System in einem Flugzeug und ist auf die Wälder darunter gerichtet. Das zurückgeworfene Licht liefert so Aufschluss über Dichte und Höhe der Bewaldung.

Die Verknüpfung beider Datenquellen wird zur Schätzung der Baumdichte jener Waldgebiete genutzt, die nur mit LiDAR und nicht zu Fuß erfasst wurden.

Die vom finnischen Unternehmen Arbonaut durchgeführte Vermessung der Wälder dient schließlich zur Schätzung der in den Wäldern gespeicherten Menge des Treibhausgases CO2. Mit REDD ließe sich diese für Nepal in bare Münze verwandeln.

Die Überlegungen zu REDD (Reducing Emissions from Deforestation and Degradation) werden seit einigen Jahren als Teil der UN-Klimarahmenkonvention diskutiert. Sie sollen im Süden finanzielle Anreize für eine Reduzierung der Emissionen durch Rodungen schaffen.

Da aber nicht per se die Erhaltung von Wäldern gefördert wird, wäre es prinzipiell denkbar, natürlich gewachsene Wälder durch Plantagen zu ersetzen.

Möglich ist dies durch die schwammige Definition zentraler Begriffe wie „Forest“ oder eben „Deforestation“.

Durch die Betrachtung des in Bäumen gespeicherten CO2 als handelbare Ware werden Wälder vornehmlich als CO2-Lager thematisiert und nicht als Ökosysteme.

Die Erhaltung von Biodiversität und der Schutz der Rechte lokaler Gemeinschaften sind zweitrangig. Offen sind auch noch immer die Finanzierung und die Höhe der Zahlungen sowie der Startzeitpunkt des Programms.


Erschienen im Falter Heureka - Ausgabe: Im Netz der Forschung (2/12)

Mittwoch, 2. Mai 2012

Wie grün ist uns die Wissenschaft?

Dem Begriff „grüne Wissenschaft“ stehen Wissenschafter mit Skepsis oder Unverständnis gegenüber. Also eine gute Gelegenheit, mit ihnen darüber zu reden, um mögliche Bedeutungen auszuloten.

"Grüne Wissenschaft? Man könnte sich vieles darunter vorstellen.“ Markus Wissen, Politikwissenschafter an der Uni Wien, legt sich nicht fest. Verena Winiwarter, Dekanin der Fakultät für Interdisziplinäre Forschung und Fortbildung an der Uni Klagenfurt, präzisiert: „,Grün‘ ist keine wissenschaftsinterne Bezeichnung. Es ist eine Außenzuschreibung.“
Diese Annahme scheint auch Martin Schlatzer zu vertreten, Ernährungsökologe am Institut für Meteorologie des Departments Wasser-Atmosphäre-Umwelt an der BOKU. „Meines Wissens gibt es keine einheitliche Definition. Am ehesten würde ich es mit Nachhaltigkeit assoziieren, obwohl Nachhaltigkeit selbst nicht so präzise gefasst wird und oft zum ,green-washing‘ missbraucht wird.“

Grün ist es, wenn es nachhaltig wirkt
Eine klarere Vorstellung von grüner Wissenschaft vertritt Elisabeth Grabenweger, Pressesprecherin des Wissenschaftsministeriums. Dort werde der Begriff „als Wissenschaft und Forschung für nachhaltige Entwicklung verstanden, also thematisch sehr viele Felder betreffend. Darunter fallen zahlreiche Bemühungen von Wissenschaftern, die im Bereich der nachhaltigen Entwicklung forschen.“

Der Physiker Serdar Sariciftci, Leiter des Instituts für Organische Solarzellen an der Uni Linz, betont einen weiteren Aspekt. Der Begriff müsse nicht nur Ziel einer Forschung für eine nachhaltige Gesellschaft beinhalten, sondern auch eine angemessne Methodik: „Die Substanzen und Verfahren der Wissenschaft und Technologie der Zukunft sollten umweltfreundlicher und nachhaltiger werden.“

Obgleich „grüne Wissenschaft“ als Begriff nicht präzise gefasst ist, lässt sich eins mit Gewissheit festhalten: Die Häufigkeit, mit welcher der Begriff „Nachhaltigkeit“ beim Versuch der Beantwortung verwendet wird, legt nahe, dass dieser eine gewisse Relevanz besitzt.

In den letzten Jahren lässt sich eine Konjunktur des Begriffes erkennen. Und wie es mit Konjunkturen so ist, verringert sich ihr medialer Wert immer dann, wenn das andere K-Wort die Runde macht: nein, nicht Klima – Krise.

Die Konvergenz der Krisen
Die aktuelle Situation ist qualitativ und nicht bloß quantitativ völlig neuartig. Serdar Sariciftci spricht davon, dass wir am Beginn des 21. Jahrhunderts zunehmend eine Konvergenz der Krisen erleben. Ihm folgend lassen sich vier Phänomene beschreiben: Knappheit von Ressourcen und Senken, Bevölkerungswachstum und das Ende des Neoliberalismus. Als Senken versteht man (Öko-)Systeme, die der Umwelt Schadstoffe entziehen – im Falle von CO2 sind das vor allem Regenwälder, Weltmeere und Böden als primäre Aufnahmemedien der globalen Emissionen.

Die ersten beiden Phänomene beschreiben die materiellen Austauschbeziehungen der Menschen mit der Natur. Sie haben sich beginnend mit der Industrialisierung seit Beginn des 20. Jahrhunderts massiv gesteigert.

„Wir haben eine wesentlich größere Materialumsatzmenge als jemals zuvor. Das ist völlig einzigartig und gründet in der fossilen Energie“, führt Verena Winiwarter aus. Diese Energie droht uns in ihrer fossilen Form auszugehen.

Auch Markus Wissen kommt zu einer ähnlichen Einschätzung: „Es sprechen alle Fakten dafür, dass wir mit einer qualitativ neuen Situation konfrontiert sind. Sowohl ressourcen- als auch senkenseitig durch den Aufstieg der Schwellenländer, aber auch durch die Tatsache, dass der Norden auf seinem industriellen Wachstumspfad voranschreitet.“

Dieser Pfad führt zunehmend nach Indien und China. Im Rahmen einer globalen Arbeitsteilung ist die Bedeutung Chinas als Industriestandort beträchtlich gewachsen. Damit steigt aber auch der globale Bedarf an Ressourcen und Senken.

Zusätzlich führt der durch die Industrialisierung geförderte Wohlstand einzelner Bevölkerungsgruppen der Schwellenländer zu einer Verbreitung „fossilistischer“ Konsummuster nach dem Zuschnitt der etablierten Industriestaaten. „Fossilistisch“ sind besonders ressourcen- und emissionsintensive Formen des Konsums: automobiler Individualverkehr, Flugreisen und hoher Fleischkonsum.

Fleischkonsum als Bedrohung
Wer weiß schon, dass Fleischproduktion besonders ressourcen- und emissionsintensiv ist? Fleisch ist ein sehr ineffizientes Nahrungsmittel, wenn man wie in der industriellen Massentierhaltung Tiere mit Getreide und nicht mit agrarischen Abfallprodukten füttert.

Für ein Kilo Fleisch benötigt man ca. drei Kilogramm Getreide, wobei ein Kilogramm Fleisch lediglich halb so viele Kalorien enthält wie eine entsprechende Menge Getreide. Mit den Kalorien, die bei der industriellen Fleischproduktion verlorengehen, könnte man hochgerechnet 3,5 Milliarden Menschen ernähren.

Martin Schlatzer führt weiter aus: „Bereits jetzt werden 40 Prozent der Weltgetreideernte verfüttert. Bei der Weltsojaernte sind es sogar 90 Prozent. Wenn die Prognosen über den steigenden Fleischkonsum eintreffen, werden wir noch mehr Getreide zur Fleischproduktion benötigen.“

Der Druck auf die Ernährungssicherung steigt mit dem wachsenden Konsum von Fleisch. Auch wenn es fraglich ist, was Ernährungssicherheit bedeutet, wenn rund eine Milliarde Menschen auf der Welt Hunger leidet.

Während die Nachfrage nach Fleisch wächst, schrumpfen gleichzeitig die landwirtschaftlich nutzbaren Flächen. Die Gründe dafür: Klimawandel, Verschlechterung der Fruchtbarkeit der Böden, Flächennutzung durch Suburbanisierung, Anbau von Baumwolle oder von Pflanzen für die Biosprit-Produktion.

Sind wir bald zehn Milliarden?
Die Weltbevölkerung wird in Zukunft weiter wachsen. Sie hat sich im 20. Jahrhundert nahezu vervierfacht. Bis zum Jahr 2050 rechnet man mit einem Wachstum auf etwa 9,7 Milliarden Menschen. Subsahara-Afrika ist dabei eine jener Regionen, für die ein besonders hohes Bevölkerungswachstum angenommen wird. Afrika aber ist bereits jetzt von Mangelernährung betroffen. „Selbst bei einem Szenario, in dem man von einer perfekten Anpassung an den Klimawandel ausgeht, was etwa die Wahl der angebauten Sorten betrifft, werden die Ernteerträge beeinträchtigt werden“, sagt Schlatzer.

Wie sich die Situation tatsächlich entwickeln wird, ist schwierig vorherzusehen, meint Anton Huber, Chemiker am Kunststoff-Labor CePoL der TU Graz: „Natur ist kein technisches, sondern ein selbstorganisierendes System, das sich durch zunehmende Kausal-Entkopplung von der Umgebung auszeichnet.“ Eine optimistische Annahme bezüglich der Steuerungsfähigkeit des Klimas durch den Menschen kann daher als unrealistisch gelten.

Leben wir im eigenen Endzeitalter?
Wie sehr die Menschheit in ihre biologischen Grundlagen eingegriffen hat, zeigt die noch recht junge Debatte um den Begriff „Anthropozän“. Geht es nach dem US-amerikanischen Biologen Eugene Stoermer, der den Begriff prägte, und dem niederländischen Atmosphärenphysiker und Nobelpreisträger Paul Crutzen, der ihn popularisierte, leben wir in einem neuen Erdzeitalter.

Bereits im Jahr 2008 befand die stratigraphische Kommission der Geological Society of London, dass hinreichend Beweise für einen erdzeitalterlichen Abschnitt vorliegen, der ohne bisherige Entsprechung sei. Das schrieb der italienische Geologe Antonio Stoppani bereits 1873. Er sprach, jedoch ohne Gehör zu finden, vom Anthropozän, von einer „neuen tellurischen Macht, die es an Kraft und Universalität mit den großen Gewalten der Natur“ aufnehmen könne.

Diese Macht ist die Spezies Mensch selbst. Wir leben nicht nur im Anthropozän, wir haben es sogar selbst erschaffen; nicht bloß als Begriff oder Konzept, sondern als faktische Realität. „Das Anthropozän anzuerkennen bedeutet, dass wir uns selbst in dem Bild, das wir uns von der Natur machen, bewusst berücksichtigen. Nun können wir, statt anzunehmen, dass wir keinen großen Einfluss auf die Natur ausüben, entscheiden, wie wir diesen gestalten“, meint Erle Ellis, Professor am Departement of Geology & Environmental System der University of Maryland.

Bruch mit der Naturbeherrschung
Damit ist ein Auftrag formuliert. Und der erste Schritt könnte der Bruch mit dem Paradigma der Naturbeherrschung sein – oder wie Verena Winiwarter sagt, mit „technologischen Fantasien von Naturbeherrschung. Wir beherrschen die Natur bei Weitem nicht so gut, wie wir das gern täten. Globale und lokale Umweltprobleme sind vor allem Ausdruck dessen, dass wir sie nicht beherrschen.“

Im Angesicht der Umweltkrise greifen technische Lösungen zu kurz. Die Stellschraube der Ressourceneffizienz allein ist ein tückisches Instrument: Effizientere Technologie führt meist zu ihrer Mehrnutzung. Diesen Rebound-Effekt beschrieb der englische Ökonom William Stanley Jevons im Jahr 1865: Er stellte fest, dass die technischen Neuerungen bei Dampfmaschinen ihren Kohleverbrauch deutlich senkten. So wurde Kohle zu einer günstigen Energiequelle, worauf der Gesamtverbrauch deutlich anstieg.

Die technologischen Neuerungen erlauben, mit weniger Ressourcen mehr Güter herzustellen. Doch diese relative Entkopplung von Ressourcenverbrauch und Wirtschaftswachstum wurde durch Letzteres überkompensiert. Das heißt, der Verbrauch stieg an. „Allerdings hat eine absolute Entkopplung, und das ist das einzige, was zählt, nicht stattgefunden. Alle Studien weisen darauf hin, dass mehr Effizienz allein nicht ausreicht“, erklärt Wissen.

Auf Kohle folgte Erdöl, was dann?
William Stanley Jevons Befürchtung, die ihn zu seiner Studie veranlasste, nämlich der Zusammenbruch der Kohleförderung, sollte sich erst hundert Jahre später bewahrheiten. Der Grund für die Verzögerung: das Erdöl. Nun nähert sich auch die Geschichte der Erdölnutzung ihrem Schlussakt.

Eine fixe Zweitbesetzung für die Rolle des Erdöls in der globalen Ökonomie gibt es nicht, nur ein Ersatzensemble alternativer Energien. Das reicht von Biosprit, der Klimaprobleme verstärkt und vor allem den Ländern des reichen Nordens hilft, gängige Konsummuster aufrecht zu erhalten, bis hin zu Wind- oder Solarenergie.

Letztere stellen für Serdar Sariciftci das Rückgrat einer nachhaltigen Energieversorgung dar: „Die dezentrale und delokalisierte Energieversorgung mit Solarenergie und/oder Windenergie, teilweise unterstützt mit delokalisierter Geothermie, ist die vernünftige Antwort auf diese konvergierenden Krisen.“

Dass wir diese Technologien entwickeln konnten, liegt paradoxerweise an der fossilen Energie, erklärt Verena Winiwarter: „Den Innovationsfortschritt, den uns die fossile Energie liefert, werden wir in einer postfossilen Ära dafür nutzen, eine wesentlich technischere Zivilisation haben zu können. Wir werden vielleicht nicht auf alle Annehmlichkeiten, die wir jetzt haben, verzichten müssen.“

Fällt das Paradigma vom Wachstum?
Nimmt man die Definition im Brundtland-Bericht der Weltkommission für Umwelt und Entwicklung für Nachhaltigkeit ernst, heißt dies mit den Rahmenbedingungen zu brechen, in denen der Begriff verortet ist: „Dauerhafte Entwicklung ist Entwicklung, welche die Bedürfnisse der Gegenwart befriedigt, ohne zu riskieren, dass künftige Generationen ihre eigenen Bedürfnisse nicht befriedigen können.“

Wie Markus Wissen erklärt, ist der Begriff Ausdruck des Bemühens, Entwicklung verstanden als Wachstum mit Umweltschutz zu versöhnen. Festhalten am Wachstumsparadigma steht einer nachhaltigen Entwicklung und einem umfassenden gesellschaftlichem Wandel zusehends im Weg. Ohne diesen wird jedoch ein bewusster Umgang mit der Natur, eine bewusste Gestaltung von Naturverhältnissen nicht zu haben sein.

„Man bräuchte eine sozialökologische Transformation. Da müssten Fragen gestellt werden, die in der aktuellen Debatte nicht vorkommen: die Suffizienzfrage – was brauchen wir zu einem guten Leben? Die Frage der Demokratie – wie gestalten wir die Aneignung von Natur demokratisch?“ Nur dort, wo Ressourcen nicht exklusiv zugunsten meist ökonomisch mächtiger Akteure verwendet werden, sei diese Aneignung auch nachhaltig.

Grün ist keine Frage der Technik
Die technischen Wissenschaften haben ihre Hausaufgaben bereits gemacht, folgt man Serdar Sariciftci: „Wissenschaft und Technologie statten uns mit Instrumenten aus, aber die Anwendung dieser Instrumente wird die Gesellschaft verantworten. Falls wir als Gesellschaft eine weise und kluge Wahl treffen, wie Aristoteles schreibt, dann sind die Instrumente heute schon vorhanden.“

Das lenkt den Fokus einer grünen Wissenschaft auf geistes- und sozialwissenschaftliche Disziplinen. Elisabeth Grabenweger erläutert dies so: „Fortschritte in der Entwicklung und im Einsatz innovativer Technologien können Krisen entschärfen. Doch wichtig ist auch Forschung zur Frage, wie die Transformation der Gesellschaft in Richtung Nachhaltigkeit gelingen kann – sind doch gesellschaftliche und kulturelle Veränderungen weitaus schwieriger zu bewirken als beispielsweise eine reine Effizienzsteigerung in technischen Prozessen.“

Weder Markt noch Staat
Wie kann die Gesellschaft angeregt werden, eine kluge Wahl zu treffen? Reichen Markt und Staat als Taktgeber einer solchen Umstrukturierung aus?

Das ist aus mehreren Gründen zweifelhaft. Der Markt ist weitgehend blind gegenüber seinen ökologischen und sozialen Grundlagen – Profitmaximierung und Ressourcenschonung schließen sich weitgehend aus.

Der Wandel des Neoliberalismus hin zu einer „green economy“ könne daher nicht als gesamtgesellschaftliche Transformation, sondern eher als selektive ökologische Modernisierung gelten, so Markus Wissen. Ebenfalls skeptisch betrachtet er die Rolle des Staates: dieser sei ja nie bloß neutraler Akteur – der Staat als Terrain würde einzelnen Akteuren bessere Chancen einräumen, ihre Interessen zu formulieren, während andere und ihre Themen praktisch völlig ausgeschlossen sind – darunter etwa auch das der Suffizienz. Sein Schluss daher: „Ich denke, dass Veränderungen sehr stark von unten ausgehen müssen, dass sie erkämpft werden müssen, statt allzu sehr auf staatliche Politik zu hoffen.“

In diesem Kontext ist auch die Rolle einer emanzipatorischen, sozialökologischen Wissenschaft angesiedelt, wie sie Markus Wissen vorschwebt: „Wissenschaft hat eine wichtige Funktion, wenn es darum geht, nachhaltige Formen des Umgangs mit Natur sichtbar zu machen, Konflikte zu untersuchen, Widersprüche von vorherrschenden Formen der Naturaneignung herauszuarbeiten und dabei auch Ansatzpunkte für emanzipatorisches Handeln zu identifizieren.“ Ähnlich Verena Winiwarter, die ihre Arbeitsweise wie folgt beschreibt: „,Meine‘ Fakultät für interdisziplinäre Forschung und Fortbildung steht dafür, dass man sich nicht zuerst Wissen ausdenkt und es dann transferiert, sondern dass robustes und gesellschaftlich relevantes Wissen am besten dann entsteht, wenn man diejenigen, die dieses Wissen nutzen sollen, schon an seiner Herstellung beteiligt.“

Verena Winiwarter, Uni Klagenfurt: „Es gibt genügend Ansatzpunkte für eine kluge postfossile Politik. Wir werden extrem innovativ sein müssen, wenn wir diese Transformation schaffen wollen.“

Serdar Sariciftci, Uni Linz: „Energieautonomie und Energieautarkie wird eine Demokratisierung der Energieversorgung bringen.“

Markus Wissen, Uni Wien: „Die Kriege des 21. Jahrhunderts wurden und werden um Ressourcen wie Erdöl geführt.“

Martin Schlatzer, BOKU Wien: „Unser Konsum muss sich wieder im Einklang mit der Natur befinden – das sollte selbst bei einer Weltbevölkerung von neun Milliarden Menschen möglich sein.“


Erschienen in Falter Heureka - Ausgabe: Wie grün ist uns die Wissenschaft? (1/12)

Soziologie

Die Rückkehr der Kritik in die „marktaffirmative Begleitwissenschaft“ Soziologie.

Die Soziologie war nie eine per se kritische Wissenschaft. Ein reformerisches Ethos wohnte ihr aber bereits in der Armutsforschung der aufkommenden Industrialisierung inne. Mit den Studierendenbewegungen der Sechzigerjahre entfaltete sich ein kritischer Impetus, der es auch vermochte, die Disziplin institutionell zu verankern.

Kritische Soziologie muss Kapitalismus analysieren, um Krisen zu begreifen

Die Kritikbereitschaft der Disziplin wurde jedoch mit Mitte der Achtzigerjahre von ihren Proponenten selbst weitgehend brach liegen gelassen. Man erwarb sich zusehends den Ruf einer marktaffirmativen Begleitwissenschaft. Nun kommt es jedoch wieder zu einer vermehrten Wiederbelebung der kritischen Forschungstradition.

Das bisher deutlichste Signal kommt dabei vom Institut für Soziologie der Uni Jena. Klaus Dörre, Stephan Lessenich und Hartmut Rosa arbeiten an der „Rückkehr der Kritik in die Soziologie“. Einen ersten Entwurf liefern sie mit ihrem 2010 erschienenen Buch „Soziologie – Kapitalismus – Kritik“. Darin bringen sie ihre Überzeugung zum Ausdruck, eine kritische Soziologie müsse Kapitalismus analysieren, um gesellschaftliche Krisen zu begreifen.

Auch hierzulande manifestieren sich vermehrt Anzeichen einer Rückbesinnung auf die gesellschaftskritischen Aspekte der Disziplin. So wartet die Österreichische Gesellschaft für Soziologie mit zwei Sektions-Neugründungen auf: Die Sektion Soziale Ungleichheit widmet sich der Betrachtung der Verschärfung ökonomischer Ungleichheit und neuartiger Formen der Ungleichheit. Die Sektion Migrations- und Rassismusforschung dient als Plattform für die stetig wachsende Migrationsforschung und soll die „Auseinandersetzung mit Rassismus als Bestandteil einer kritischen Gesellschaftstheorie“ institutionell verankern.


Erschienen in Falter Heureka - Ausgabe: Wie grün ist uns die Wissenschaft? (1/12)