32. Sparkassenpreis

Zum Schutz der Umwelt forschen gehört am Karlsruher Institut für Technologie (KIT) seit langem zum Aufgabengebiet der Wissenschaft. Der Umweltpreis der Sparkasse Karlsruhe Ettlingen wurde in diesem Jahr bereits zum 32. Mal verliehen. Die Stiftung würdigte fünf wissenschaftliche Arbeiten aus den Bereichen Chemieingenieurwesen und Verfahrenstechnik, Physik, Chemie und Biowissenschaften, Bauingenieur-, Geo- und Umweltwissenschaften, sowie Architektur. Im Rahmen der Preisverleihung am 23. Mai 2012 überreichten der Vorstand der Sparkasse Karlsruhe Ettlingen und der Vizepräsident des KIT den Preis, welcher mit 10.000 Euro dotiert ist.

Preisträger und ihre Arbeiten der 32. Ausschreibung des Sparkassenpreises

Übersicht der prämierten Arbeiten

 

Dr.-Ing. Karsten Köhler


Simultanes Emulgieren und Mischen

Bei vielen Produkten oder Zwischenprodukten der chemischen, kosmetischen oder pharmazeutischen Industrie, aber auch der Erdöl- und Lebensmittelindustrie, liegen Tropfen fein verteilt in einer kontinuierlichen Phase vor. Es handelt sich somit um Emulsionen. Typische Produktbeispiele sind Farben, Milch und Milchprodukte, Saucen, Cremes, Papieradditive, Medikamente und Bitumen. Alle diese Einsatzmöglichkeiten haben die Gemeinsamkeit, dass die Herstellung der Emulsionen und damit das Einstellen der Eigenschaften wie Geschmack, Farbe und Konsistenz, aber auch die Sicherstellung der Lager- und Transportfähigkeit ein ganz entscheidender Verfahrensschritt ist.

Beim konventionellen Verfahren des Hochdruckhomogenisierens wird eine Rohemulsion über einen Hochdruckhomogenisator, bestehend aus einer Hochdruckpumpe und einer Zerkleinerungseinheit, zu einer Feinemulsion verarbeitet. Im Rahmen dieser Arbeit wurden die etablierten Grundoperationen der Verfahrenstechnik, Emulgieren und Mischen, in einer Zerkleinerungseinheit kombiniert, wodurch sich Synergien für beide Grundoperationen ergeben. Beim „Simultanen Emulgieren und Mischen“ (SEM) wird somit die konventionelle Zerkleinerungseinheit durch eine neue Zerkleinerungseinheit ersetzt, in der simultan emulgiert und ein Mischstrom zugemischt wird. Hierbei ist die Zumischung des Mischstroms im Bereich der zerkleinerungswirksamen Strömung oder direkt danach entscheidend.

 

In der SEM-Zerkleinerungseinheit ist das Homogenisierergebnis abhängig von der Zerkleinerung der Tropen als auch der Stabilisierung dieser und dem Vermischung der zwei Ströme. Anhand von Simulationen, Modellen und Ergebnisse von Experimenten mit Modellsystemen konnten Einflussfaktoren auf die einzelnen Mechanismen in der SEM-Zerkleinerungseinheit aufgezeigt werden.

Aufbauend auf diesen Ergebnissen wurde in der Arbeit gezeigt, wie die SEM-Technik im Milchverarbeitungsprozess beim Homogenisieren eingesetzt werden kann. Dieses bietet sich an, da standardmäßig im Prozess zuerst das Fett aufkonzentriert wird. Diese fettreiche Phase (Rahm) wird anschließend zum Homogenisieren auf 17 – 12 Vol.-% mit Magermilch zurückgemischt und schlussendlich auf den für das Produkt gewünschten Fettgehalt durch einen erneuten Mischvorgang standardisiert. Mit der SEM-Technik können nun im Vergleich zum konventionellen Teilstromhomogenisieren die zwei Mischschritte eingespart werden, da der aufkonzentrierte Rahm direkt homogenisiert werden kann und die entstehenden Tropfen sofort mit den in der Magermilch enthaltenen Proteinen, die über den Mischstrom zugemischt werden, stabilisiert werden. Abschließend konnte am Milchverarbeitungsprozess gezeigt werden, dass mit der SEM-Technik im Prozess Energieersparnisse von über 90 % erreicht werden können.

Allein in der Milchindustrie werden heute in Deutschland ca. 12 Mio. Tonnen Milch im Jahr bei einem Homogenisierdruck von ca. 100 bar verarbeitet. Wenn somit allein nur die Milchindustrie ihr Verfahren auf die SEM-Technik umstellen würde, könnten ca. 30 GWh Strom pro Jahr eingespart werden, was der Abschaltung eines Atomreaktors für einen Tag gleich käme.

Emulgatoren sind Substanzen die zur Stabilisierung von Tropfen oder Partikeln in Dispersionen eingesetzt werden. Diese stehen allerdings im Verdacht, den menschlichen Organismus zu sensibilisieren oder sogar Allergien auszulösen. Daher gibt es Bestrebungen die Menge an Emulgatoren in Dispersionen wie Cremes oder Medikamenten zu reduzieren oder sogar komplett zu ersetzen. An einem Anwendungsbeispiel gelang es in der Arbeit, ein schmelzemulgiertes Wachs, wie es z.B. in der Kosmetikindustrie eingesetzt wird, ohne die Zugabe eines Emulgators fein zu verteilen. Mit der SEM-Technik ist es somit möglich in Produkten die Emulgatormenge zu minimieren und in Spezialfällen sogar komplett darauf zu verzichten.

In dieser Arbeit konnte gezeigt werden, wie mit Hilfe der SEM-Technik Energie-effizientere Prozesse und Emulgator-reduzierte Produkte gestaltet werden und somit zur Umweltentlastung beim Hochdruckemulgieren beitragen können.

Top

Dipl.-Geoökol. Andreas Holbach

Evaluation of seaward migrations by fish species in the Kosi Bay lake system (South Africa), determined by Otolith Geochemistry analyses

Kosi Bay ist eines der am wenigsten vom Menschen beeinflussten Ästuar-Gebiete in Südafrika. Dieses einzigartige System besteht aus vier über kleine Kanäle miteinander verbundenen Küstenseen sowie einem anschließenden Ästuar-/Mündungsbereich in den Indischen Ozean. Kosi Bay verzeichnete in den letzten Jahren einen besorgniserregenden Rückgang seiner Fischbestände, der sehr wahrscheinlich in Zusammenhang zu einer wachsenden traditionellen Fischerei mit reusenartigen Fallen, zunehmendem Fischerei-Tourismus sowie unbekannten Ausmaßen an illegaler Fischerei mit Kiemennetzen steht. Wanderungen zwischen den ästuarinen Gewässern und dem offenen Meer sind für die Reproduktion vieler in Kosi Bay vorkommender Fischarten absolut notwendig. Eine Behinderung oder gar eine Verhinderung der Fischwanderung durch Fischerei Aktivitäten würde die Produktivität und die derzeitige große Bedeutung von Kosi Bay für das Küstenökosystem daher langfristig stark degradieren.

Das Thema dieser Diplomarbeit ist es daher, Wanderungsbewegungen von Fischen zwischen den verschiedenen Wasserkörpern des Kosi Bay Systems und dem offenen Meer anhand von Otolithen-Geochemischen Analysen zu untersuchen. Dazu wurde im Rahmen dieser Arbeit ein Südafrikanisch-Deutsches Forschungsprojekt zwischen dem South African Institute for Aquatic Biodiversity und dem Institut für Mineralogie und Geochemie des KIT initiiert, um die Infrastruktur und Expertise der beiden Forschungsbereiche Fischbiologie und Mineralogie/Geochemie zu vereinen.

Otolithen sind Gehörknochen, die bei Fischen aus Kalk in der Kristallstruktur von Aragonit aufgebaut sind. Diese Knochen wachsen während der gesamten Lebenszeit des Fisches durch die Kristallisation von neuem Material auf der Oberfläche und bilden so eine Struktur von Jahresringen. Jede neue Schicht an Knochenmaterial spiegelt in gewisser Weise die Umweltbedingungen des Fisches zur Kristallisationszeit wieder. Neben dem Hauptelement Calcium (Ca2+), das zusammen mit Carbonat (CO32-) das Grundgerüst des Knochematerials bildet, werden auch Neben- und Spurenelemente in das Material eingebaut. Die Konzentration von Spurenelementen im Knochenmaterial ist dabei abhängig von verschiedensten äußeren Einflussfaktoren. Der Gehalt an Strontium (Sr2+) ist beispielsweise stark abhängig vom Sr-Gehalt, dem Salzgehalt sowie der Temperatur des, den Fisch umgebenden, Wasserkörpers. Da das Knochenmaterial der Otolithen im Fisch keinen Rücklösungsprozessen mehr unterliegt, werden Änderungen der Umweltbedingungen im Laufe des Fischlebens anhand der Spurenelement-Verteilung im Otolithen schichtweise aufgezeichnet und können später somit rekonstruiert werden.

Otolithenproben und Wasserproben wurden aus dem gesamten ästuarinen Seensystem von Kosi Bay entnommen und am IMG in Deutschland mit verschiedenen analytischen Methoden auf ihre chemische Zusammensetzung untersucht. Die Wasserproben sowie Vollaufschlüsse von Otolithen wurden mit Hilfe von Inductively Coupled Plasma Mass Spectrometry (ICP-MS) und Ionen Chromatographie (IC) auf Haupt-, Neben- und Spurenelementzusammensetzung untersucht. Die Mikro-RöntgenFluoreszenzAnalyse (µ-RFA) im Labormaßstab wurde erstmalig zur ortsaufgelösten  Spurenelementanalytik von Otolithen-Querschnitten genutzt und erwies sich als sehr gut geeignet um die Verteilung von Sr/Ca-Verhältnissen in Otolithen zu detektieren. Außerdem konnten die Verhältnisse der stabilen Sauerstoffisotope in den Wasserproben sowie in ausgewählten Proben von Otolithenmaterial mit Hilfe der Isotope Ratio Mass Spectrometry (IR-MS) bestimmt werden.

Die Ergebnisse zeigten, dass sich die einzelnen Wasserkörper des Kosi Bay Systems in ihren geochemischen Eigenschaften sehr stark voneinander unterscheiden. Der Salz- und Sr-Gehalt steigen von See zu See kontinuierlich von Süßwasser- zu Meerwasserbedingungen an, wohingegen die δ18O-Werte (Vergleichswert für das Verhältnis von stabilen Sauerstoffisotopen) ein Maximum in der Mitte Systems erreichen und sowohl zum Süß- als auch zum Meerwasser hin abfallen. Ebenso weisen die Sr/Ca-Verhältnisse sowie die δ18O-Werte innerhalb der Otolithen teilweise starke Unterscheide auf. Die Gesamtzusammensetzung der aufgeschlossenen Otolithen unterscheidet sich hingegen weder innerhalb der beprobten Fischarten, noch zwischen den einzelnen Fischarten signifikant. Das Kosi Bay System stellt damit ein hervorragendes Untersuchungsgebiet dar um die Otolithen Geochemie von, in ästuarinen Gewässern wandernden, Fischarten zu untersuchen. Die stark wechselnden geochemischen Bedingungen denen ein wandernder Fisch in Kosi Bay zwangsläufig auf seinen Wegen ausgesetzt ist können sich dann in den Otolithen widerspiegeln.

Betrachtet man die Wasserproben unter Ausschluss des reinen Süßwassersees, so ergibt sich alles in allem eine gute Korrelation von Sr Konzentrationen, Sr/Ca-Verhältnissen und Stabilen Sauerstoffisotopen zwischen den Otolithen und den Wasserproben. Hohe Sr Konzentrationen und Sr/Ca-Verhältnisse fallen sowohl in den Otolithen als auch in den Wasserproben mit niedrigen δ18O-Werten zusammen und umgekehrt. Der Ausschluss des Süßwassersees gerechtfertigt, da die betrachteten Fischarten nicht unter reinen Süßwasserbedingungen vorkommen, wohl aber in allen Mischbereichen zwischen Süß- und Meerwasser. Es liegt also die Möglichkeit nahe, die Wanderung von Fischen in Kosi Bay anhand der chemischen Signaturen im Otolithenmaterial zu rekonstruieren. Allerdings reichen die bisherigen Ergebnisse noch nicht aus um abschließende Aussagen über die Reichweite, Dauer und die Häufigkeit von Fischwanderungen aus den gemessenen Werten abzuleiten. Dafür muss die Variabilität der Umweltbedingungen im Kosi Bay System sowie die Empfindlichkeit der chemischen Signale in den Otolithen auf verschiedene Umwelteinflüsse weiter untersucht werden.

Dennoch wurde in dieser Arbeit durch die Kombination von verschiedensten Analyse-Techniken eine Methode entwickelt, die Aussagen über eventuelle Wanderungen der Fische nicht nur auf einen untersuchten Parameter (z.B. Sr/Ca-Verhältnis) stützt. Zwei völlig unterschiedliche und voneinander relativ unabhängige Eigenschaften des Wassers im Kosi Bay System, die Wasserchemie und die Sauerstoffisotopie, deuten hier gleichermaßen auf die wanderungsbedingte Übertragung dieser chemischen Signale in die Fisch Otolithen aus Kosi Bay hin. Diese Erkenntnis kann und soll für die Planung und Durchführung zukünftiger Studien zu Fischwanderungen in ästuarinen Systemen sehr hilfreich sein.

Top

Dipl.-Met. Marie-Luise Kapsch

Langzeitliche Variabilität von hagel-relevanten Großwetterlagen in einem Ensemble regionaler Klimamodelle

Gewitterstürme zählen in Deutschland zu denjenigen Wetterereignissen mit einem erheblichen Schadenspotential. Besonders im Sommerhalbjahr können sich Gewitter zu großen Komplexen ausbilden, die von starkem Regen, Windböen, Tornados oder Hagel begleitet werden. Gewitter und deren Begleiterscheinungen ereignen sich mehrmals pro Jahr in Deutschland und verursachen Schäden an Autos, Gebäuden und anderen Besitztümern. In den vergangenen Jahren konnte die SV SparkassenVersicherung AG eine Zunahme der Tage beobachten, an denen Hagelschäden auftraten.

Dies wirft die Frage auf ob Änderungen der Häufigkeit von Hagelereignissen auch in der Zukunft zu erwarten sind. Problematisch ist allerdings, dass Gewitter nur lokal begrenzt auftreten. Die typische horizontale Ausdehnung liegt häufig bei weniger als einigen Kilometern. Daher können Gewitter von meteorologischen Bodenstationen oft nicht erfasst werden. Auch Fernerkundungsmessgeräte, wie z. B. das Radar, sind noch nicht in der Lage Hagel zu registrieren, da bisher kein eindeutiger Zusammenhang zwischen Radarreflektivität und Hagel bzw. Regen gefunden werden konnte. Zudem können Gewitter von Klimamodellen nicht abgebildet werden, da deren horizontale Auflösung meist geringer ist als die räumliche Ausdehnung der Gewitterzellen. Aufgrund der Problematik bei der Erfassung von Gewitterstürmen stehen daher keine ausreichend lange Zeitreihen zur Verfügung um mögliche Änderungen der Hageltage über einen langen Zeitraum zu untersuchen.

Um dieses Problem zu umgehen wurden in dieser Diplomarbeit die für die Auslösung von Gewittern wichtige Parameter untersucht. Die Prozesse der Auslösung sind zum einen gut verstanden und zum anderen besser messbar. Parameter die die Auslösung beschreiben sind die thermische Schichtung der Atmosphäre, der Feuchtegehalt und die großräumige Hebung. Es wird angenommen, dass Änderungen dieser Parameter die Wahrscheinlichkeit, mit der Gewitter auftreten, beeinflussen. Unter Verwendung dieser Parameter lassen sich Wetterlagen definieren, welche dann zu einer gewissen Wahrscheinlichkeit auch Informationen über das Hagelpotential liefern.

Zur Klassifikation der Wetterlagen wurde die Methode der objektiven Wetterlagenklassifikation (oWLK) des Deutschen Wetterdienstes (DWD) auf das Untersuchungsgebiet Deutschland angewendet. Die oWLK berücksichtigt drei Parameter: Windrichtung als indirektes Maß für die thermische Stabilität, Zyklonalität in zwei Höhenschichten (1000 hPa und 500 hPa) als Index für großräumige Hebung und Feuchte (niederschlagsfähiges Wasser). Mittels Hagelschadendaten der SparkassenVersicherung AG und einem statistischer Verfahren (kategorischer Verifikation) konnten die klassifizierten Wetterlagen in Lagen die häufig mit Hagel in Verbindung stehen (hagelrelevant) und solche die nur selten zusammen mit Hagel auftreten (hagelirrelevant) unterteilt werden. Diese stellen die Grundlage für die Analyse langzeitlicher Trends und möglicher Periodizitäten in der Häufigkeit von Hagelereignissen dar.

Zur Überprüfung ob die oWLK auf verschiedene Modelldaten anwendbar ist wurden Reanalysedaten des European Center for Medium-Range Weather Forecast (ECMWF) sowie das mit Reanalysen angetriebene Klimamodell COSMO-CLM (CCLM-ERA40) verwendet. Vergleiche der absoluten Anzahl der einzelnen Wetterlagen berechnet aus den verschiedenen Datensätzen wurden für einen Kontrollzeitraum C20 (1971 bis 2000) durchgeführt. Geringe Abweichungen zwischen den absoluten Anzahlen implizieren, dass die oWLK auf verschiedene Datensätze anwendbar ist und dass eine unterschiedliche Modellauflösung (125 km, 80 km or 50 km) nur einen geringen Einfluss auf die Klassifikationsergebnisse hat.

Auf Basis des CCLM-ERA40 Datensatzes konnten außerdem vier verschiedene hagelrelevante und fünf hagelirrelevante Lagen identifiziert werden. Drei dieser vier hagelrelevanten Wetterlagen sind auf denselben meteorologischen Prozess zurück zu führen („Spanish Plume“). Durch einen Trog über dem Nordatlantik und einem Rücken über Mitteleuropa kommt es zur Advektion feucht-warmer Luft aus dem Mittelmeerraum oder vom Atlantik. Die Advektion dieser energiereichen Luftmassen erhöht das Potential für hochreichende Konvektion und erklärt, warum es bei den genannten Wetterlagen häufig zur Entwicklung kräftiger Gewitter und damit einhergehend Hagel kommt. Dies zeigt, dass die oWLK nicht zwischen einzelnen meteorologischen Prozessen unterscheiden kann bestätigt aber, dass die klassifizierten Wetterlagen durchaus realistisch sind. Die oWLK ist damit eine geeignete Methode für die Untersuchung hagelrelevanter Wetterlagen.

Im Folgenden wurde die oWLK durch Anwendung auf ein Ensemble aus acht verschiedenen Realisationen des regionalen Klimamodells COSMO-CLM benutzt um nachzuweisen, dass die Klimamodelle in der Lage sind Wetterlagen hinreichend gut wieder zu geben. Die Realisationen unterschieden sich in der Version des Regionalmodells COSMO-CLM, den antreibenden Globalmodellen, den Anfangsbedingungen- und zeiten der Globalmodelle sowie den Emissionsszenarien. Zur Validierung der Modelle wurden die aus den Klimamodellen errechneten Häufigkeitsverteilungen der Wetterlagen mit denen des Referenzmodells CCLM-ERA40 für den Kontrollzeitraum C20 verglichen. Die Ergebnisse sind überraschend: Obwohl keine Initialisierung der Klimamodelldaten mit Beobachtungen stattfindet, sind die Wetterlagenverteilungen zwischen Klimamodellrealisationen und CCLM-ERA40 fast identisch.  Dies ist eine wichtige Grundlage für die Untersuchung der langzeitlichen Variabilität der hagelrelevanten Wetterlagen.

Zur Untersuchung linearer Trends und Periodizitäten in der Häufigkeit von Hagelereignissen wurden verschiedene Methoden angewendet. Zum einen wurden die linearen Trends in den Zeitreihen der hagelrelevanten Wetterlagen analysiert und die statistische Signifikanz mit Hilfe des Mann-Kendall-Tests bestimmt. Statistisch signifikante, positive Langzeittrends der hagelrelevanten Wetterlagen können für den Kontroll- und Projektionszeitraum (ca. 9 Tage bzw. 11 Tage) in einigen der Klimamodellen festgestellt werden. Außerdem kann in fast allen Modellrealisationen durch Anwendung einer Fast-Fourier-Transformation eine Periodizität von 12-16 sowie 2-5 Jahren ermittelt werden. Dies deutet darauf hin, dass das Potential für Hagel harmonisch schwankt. 

Im weiteren wurden die Zeitreihen der Wetterlagen zu einem Ensemble gebündelt (Mittelwert und Standardabweichung), um die potentielle Entwicklung der hagelrelevanten Wetterlagen der verschiedenen Realisationen zusammenzufassen und die Unsicherheiten der einzelnen Modelle zu berücksichtigen. Signifikante Trends sind sowohl für den Kontrollzeitraum (von 35 auf 47 Tage), als auch für den Projektionszeitraum (von 39 auf 46 Tage) zu erkennen. Die Zunahme der Tage mit hagelrelevanten Wetterlagen erklärt vermutlich zum Teil die Häufung der Hagelschäden, welche von der SV beobachtet werden konnten (≈ 15 Tage). Dies impliziert, dass die Ergebnisse durchaus repräsentabel sind.

Zur Verifizierung der Ergebnisse wurde außerdem die Anzahl der Hagelschadentage mit Hilfe eines statistischen Modells modelliert, welches die Wetterlagen als Eingabegröße benutzt. Der Vorteil dieser Methode besteht darin, dass alle 40 möglichen Wetterlagen bei der Berechnung der Tage berücksichtigt werden und nicht, wie vorher erörtert, nur die vier hagelrelevanten Lagen. Die Ergebnisse auf Grundlage der Wetterlagen von Reanalysen und CCLM-ERA40 stimmen sehr gut mit der Anzahl der Schadenstage der SV überein. Auch laut dieser Methode  treten an durchschnittlich 15 Tagen pro Sommerhalbjahr Hagelschäden auf, wobei die Wahrscheinlichkeitsverteilung des Modells zeigt, dass es mit einer Wahrscheinlichkeit von über 90% mindestens 13 und höchstens 17 Hagelschadenstage gab. Um das Modell  auf die Klimamodelldaten des Projektionszeitraumes (2001 bis 2050) anzuwenden wurden die Klimamodelle für den Zeitraum 1986 bis 2000 mit der statistischen Verteilung der Hageltage von CCLM-ERA40 fehlerkorrigiert. Es kann eine Zunahme der Tage mit Hagelschäden beobachtet werden. Für sechs der Modellrealisationen liegt die Wahrscheinlichkeit für mehr als 14 Hageltage pro Sommerhalbjahr für die Jahre 2031-2045 über 90%. Es sollte bedacht werden, dass dies die minimale Anzahl der Hageltage darstellt und daher oft eine höhere Anzahl zu erwarten ist.

Es ist zu bemerken, dass die ermittelten Trends sehr stark von Initialisierungszeit und -bedingungen des antreibenden Globalmodells abhängen. Weiterhin werden Unterschiede vom antreibenden Globalmodell selbst hervorgerufen, wohingegen die Version des Regionalmodells sowie die verschiedenen Emissionsszenarien (A1B und B1) nur wenig Einfluss auf die ermittelten Trends haben. Diese Unterschiede deuten auf große Unsicherheiten in den Klimaszenarien hin. Aufgrund dessen sollten die acht verschiedenen Modellrealisationen nicht als Klimavorhersage, sondern eher als mögliche Entwicklung der hagelrelevanten Wetterlagen gedeutet werden. 

Die Ergebnisse zeigen, dass regionalen Klimamodelle in der Lage sind Wetterlagen hinreichend gut darzustellen, um sie für langzeitliche Analysen zu verwenden. Die Anwendung verschiedener statistischer Methoden ermöglicht es die zukünftigen Entwicklungen von schadensträchtigen Gewitterstürmen abzuschätzen. Damit ist diesed Methode ein erster erfolgreicher Versuch Hagelereignisse klimatisch zu betrachten.

Top

Dipl.-Chem. Mark Pfeifle

Anwendung statistischer Reaktionstheorien auf den Mechanismus der Oxidation von Isopren in der Atmosphäre

 

Die Atmosphäre der Erde ist eine unserer wesentlichen Lebensgrundlagen. Ihre chemische Zusammensetzung, auch bezüglich gering konzentrierter Komponenten, hat gravierende Auswirkungen auf Mensch, Umwelt und Klima. Die Erhaltung beziehungsweise Verbesserung der Luftqualität ist eine der zentralen Herausforderungen der kommenden Generationen. Um beurteilen zu können, welche Faktoren dafür wichtig sind, ist ein tiefgreifendes Verständnis des komplexen Systems Atmosphäre nötig. In diesem finden zahlreiche chemische und physikalische Prozesse statt, die auf unterschiedlichste Weise miteinander gekoppelt sind. Dadurch ist es häufig schwierig vorherzusagen, welchen Effekt eine Veränderung im System letztendlich hat.

Einflussparameter sind beispielsweise Temperatur, Luftdruck und die Art und Menge an emittierten Substanzen. Um ihre Auswirkung auf das Gesamtsystem besser zu verstehen, können Computersimulationen eingesetzt werden, die den zeitlichen und räumlichen Verlauf der stofflichen Zusammensetzung der Atmosphäre modellieren.
Neben physikalischen Vorgängen wie Verdunstung, Kondensation, Adsorption oder Transport durch Luftströme müssen vor allem chemische Reaktionen berücksichtigt werden. Deren Geschwindigkeit ist Forschungsgegenstand der Reaktionskinetik. Eine detaillierte Beschreibung der Reaktionen erfordert die Untersuchung der einzelnen Schritte auf molekularer Ebene. Die sogenannten Elementarreaktionen ergeben in ihrem Zusammenspiel einen Reaktionsmechanismus. Dieser umfasst häufig mehrere hundert Einzelreaktionen, sodass es zweckmäßig ist, die Komplexität zu reduzieren, indem man sich auf die bedeutendsten Reaktionsschritte konzentriert.
Die entscheidende Kenngröße ist die Geschwindigkeitskonstante einer Reaktion, die aussagt, wie schnell die Umsetzung bei gegebenen Konzentrationen der Reaktionspartner abläuft. Sie kann empirisch abgeschätzt, im Labor gemessen oder mit theoretischen Modellen berechnet werden.
Für letzteren Ansatz bedient man sich quantenmechanischer Methoden, die auf einigen wenigen physikalischen Grundprinzipien beruhen. Neben strukturellen und energetischen Änderungen im Reaktionsverlauf werden auch die Rotations- und Schwingungseigenschaften der Moleküle berechnet. Um aus den mikroskopischen Charakteristika die makroskopisch beobachtbare Geschwindigkeitskonstante abzuleiten, werden Methoden aus der statistischen Mechanik eingesetzt.

Im Blickpunkt meiner Diplomarbeit steht die Kohlenwasserstoffverbindung Isopren, die von Pflanzen in sehr großen Mengen in die Atmosphäre abgegeben wird. Dort wird sie im wesentlichen von Sauerstoff oxidiert, nachdem sie vom Hydroxylradikal angegriffen wurde. Diese sehr reaktive Spezies wird ständig aus Ozon und Wasserdampf unter Einfluss von UV-Strahlung erzeugt. Umgangssprachlich wird sie auch als "Persil der Atmosphäre" bezeichnet, da sie den Abbau vieler Schadstoffe und Spurengase initiiert. Ein wichtiger Aspekt der Isopren-Oxidation ist die Entstehung von NO2 im Reaktionsverlauf, welches die Bildung von Ozon fördert.

Der Reaktionsmechanismus der Isopren-Oxidation wurde bereits von zahlreichen Arbeitsgruppen untersucht, allerdings sind noch immer wichtige Details ungeklärt. So können Daten aus Messungen in zivilisationsfernen Gebieten, die niedrige Stickoxidkonzentrationen aufweisen, mit aktuellen Simulationsmodellen nicht in Einklang gebracht werden. Daher wurden in den letzten Jahren neue Reaktionspfade vorgeschlagen, insbesondere unimolekulare Isomerisierungen der Zwischenstufen. Dies sind Reaktionen, bei denen ein energetisch angeregtes Teilchen seine Struktur ändert, indem Atome innerhalb des Moleküls umgelagert werden.

Ziel meiner Diplomarbeit war es herauszufinden, ob sogenannte chemische Aktivierung bei diesen Reaktionen eine Rolle spielt. Darunter versteht man eine Folge von Reaktionen, bei der das Zwischenprodukt aus der ersten Reaktion noch in erheblichem Ausmaß innere Energie in Form von Schwingungsenergie besitzt und diese nicht schnell genug an die Umgebung abgegeben kann. Dadurch wird die Folgereaktion im Vergleich zur rein thermischen Aktivierung beschleunigt. Formal lässt sich das System durch eine sogenannte Mastergleichung beschreiben, deren Lösung die Geschwindigkeitskonstante der chemisch aktivierten Reaktion ergibt.

Im Rahmen der Diplomarbeit wurden diese Geschwindigkeitskonstanten berechnet sowie die Auswirkungen auf den Gesamtmechanismus der Isopren-Oxidation diskutiert. Es konnte gezeigt werden, dass die chemische Aktivierung tatsächlich einen signifikanten Einfluss auf die Geschwindigkeitskonstanten hat. Aufgrund der energetischen Verhältnisse im Gesamtsystem kann allerdings davon ausgegangen werden, dass der Großteil der betrachteten Moleküle erst nach einer Folge weiterer Reaktionen isomerisiert wird und dabei seine Anregungsenergie abgibt. Damit konnte ein Sachverhalt, der in der Literatur bisher nur als Hypothese aufgestellt wurde, mit Hilfe moderner theoretischer Methoden bestätigt werden. Aus der Arbeit folgt, dass nach alternativen Reaktionswegen, eventuell unter Beteiligung von Wasser, gesucht werden muss.

Top

Dipl.-Ing. Franziska Fischer

Open District - die Farben des Wandels, Hyderabad. Gestaltung eines modellhaften sozial durchmischten Stadtteiles unter besonderer Berücksichtigung des Klimas

Die Diplomarbeit hat meine Neugierde für die spannenden, vielseitigen und vor allem  essentiellen Aufgabenbereiche der Fachrichtung der internationalen Stadtplanung vergrößert und meinen Wunsch, in diesem Themenbereich tätig zu sein und gegebenenfalls zu promovieren, verfestigt. Um eine Zusammenarbeit und weitere Kommunikation mit Indien zu fördern, erstellte ich zum schnellen Einstieg in die Thematik eine Kurzfassung und setzte die Arbeit ins Englische. Um die Vergleichbarkeit mit anderen Projekten sowie die schnelle Einordnung zu unterstützen bereitete ich die Arbeit auf und setzte sie in direkten Kontext zu den indischen Normen für Stadtquartiere des Indischen Green Building Council (IGBC). Mittels des Netzwerkes von Prof. Alex Wall und Dr. Peter Gotsch ist eine weitere Zusammenarbeit mit Kooperationspartnern des IGBC in Indien geplant, die die Arbeit, sowie einige Weitere, als Beispiele präsentieren möchte. Des Weiteren wird die Arbeit im Frühjahr in Karlsruhe im Rahmen der Ausstellung der internationalen Arbeit des Fachgebietes Städtebau und Entwerfen gezeigt und es ist angedacht, die Diplomarbeit auf Konferenzen einzubringen (The 11th Asian Urbanization Conference im Dezember 2011; IIHSs India Urban Conferences im November 2011; The Green Building Conference im Oktober 2011).

Die Stadtbevölkerung Asiens wächst jährlich um fast 44 Millionen Menschen, täglich werden 20.000 neue Wohnungen und 260 km Straßen gebaut. Gleichzeitig wuchs der Energieverbrauch in den letzten 10 Jahren um ca. 70 Prozent. Das immense städtische Wachstum, insbesondere Chinas und Indiens, stellt nicht (nur) eine lokal-räumliche Problematik, sondern eine Schlüsselkomponente nachhaltiger Entwicklung dar. In kürzester Zeit werden riesige Areale entwickelt. Die dominierenden Module sind großformatige, teils fast autarke „Townships“ und „Gated communities“ an den städtischen Peripherien.

Genau dort setzt meine Diplomarbeit an: In der fast 460 km² umfassenden neuen Sonderentwicklungszone am südlichen Rand der indischen Stadt Hyderabad. Durch zahlreiche investitionsfördernde Anreize will die wirtschaftlich aufstrebende Stadt das Gebiet um ihren neuen internationalen Flughafen mittels privaten Kapitals möglichst schnell entwickeln. Dabei bedienen sich viele Investoren, wie andere Beispiele zeigen, westlichen und oft veralteten Vorbildern mit vielen problematischen Lösungen: von veralteten Klimakonzepten, einem Schwerpunkt auf den Automobilverkehr oder einer fehlenden Nutzungsmischung. Zugleich werden diese hauptsächlich für homogene Bewohnerschaften entwickelt und bedienen das lukrativere Segment ökonomisch besser gestellter Bevölkerungsschichten. Die Wohnungsnot in Indien betrifft dabei zu 99% die ökonomisch schwache Bevölkerung. Starke reziproke Abhängigkeiten zwingen diese „illegal“ in Nähe ihrer wirtschaftlichen Grundlage zu siedeln. Im Ergebnis entstehen in diesem fast zufälligen und markt-basierten Prozess „ummauerte Inseln des Wohlstandes“ inmitten einem „Meer von informellen Siedlungen“ ohne jegliche Infrastruktur: eine zerstückelte Struktur ohne Ordnung und erkennbaren Zusammenhang.

Die Problematik ist vielschichtig. Auf ökologischer Ebene haben die indischen Städte, wie auch Hyderabad, mit Wassermangel und -verschmutzung, Smog, mangelnder Infrastruktur, steigendem Energieverbrauch und –bedarf sowie steigendem Verkehrsaufkommen zu kämpfen. Die gesellschaftliche Ebene ist geprägt durch eine immense kulturelle Vielfalt und riesige ökonomische Unterschiede, die sich in sozio-ökonomischer Segregation auswirken. Gleichzeitig besteht eine starke gegenseitige Abhängigkeitökonomisch gut und schlecht gestellter Bevölkerungsschichten, auf sozialer oder finanzieller und im gleichen Zuge, aufgrund einer geringen Mobilität finanziell schwächerer Schichten, auch räumlicher Basis. Eine nachhaltige Planung muss somit neben einem grundlegenden Rahmen muss als sozial- ökologisch belastbares System die unterschiedlichen umweltrelevanten Aspekte und Gegebenheiten berücksichtigt sowie Lebensräume für die unterschiedlichsten sozio-ökonomischen Bevölkerungsschichten integrieren und doch flexibel und vielfältig auf die dynamische Entwicklung reagieren.

Der bestehende Masterplan teilt die Sonderentwicklungszone nach dem Vorbild anderer Planstädte in Nutzungszonen sowie ein Raster aus annähernd 300 Sektoren von 80 Hektar. Der Fokus liegt auf großflächigen Entwicklungen sowie der Ausrichtung auf den Automobilverkehr. Der Ansatz einer sozialen Mischung ist vorhanden, scheitert jedoch an der Umsetzung, da er die Lebensräume und – umfelder sowie die Bedeutung und Vielschichtigkeit des Straßenraumes ignoriert. Die Diplomarbeit entwirft exemplarisch auf einem Areal von 280 Hektar einen, aufgrund seiner Lage, eher dichten Stadtteil für 50.000 Einwohner. Die Grenzen werden von vorhandenen Gegebenheiten wie Gewässer oder bestehenden Straßenverbindungen geformt. Auf bestehende ökologische Probleme reagiert der Stadtteil schon in der Grundstruktur: Die Gewässer werden in einen Grünraum eingebettet, das strikte Sektorenraster wird modifiziert, aufgrund von Klimaeinflüssen gedreht und ermöglicht im gleichen Zug die bessere Integration der bestehenden Siedlungen. Durch Steuerung der Gebäudehöhen wird Lärm und heißer Wind ferngehalten oder Übergänge zum 1-geschossigen Bestand der Dörfer geschaffen. Lineare Grünräume leiten den kühlen Wind ein und werden je nach Lage mit unterschiedlichen Nutzungen belegt. Die schnelle Anbindung des Stadtteils wird durch Schnellstraßen und ein Rapid Transit System gewährleistet. Die innenliegenden Straßen werden zugunsten einer multifunktionalen Zone, der „Indischen Zone“ auf 2 Spuren reduziert und ein öffentliches Busnetz eingerichtet. Der Straßenraum erhält Platz für seine Vielfältigkeit. Öffentliche Erdgeschosszonen werden gewünscht. Somit kann ein buntes, städtisches Quartier entstehen, das die Grundlage für eine Durchmischung des Stadtteils bildet, und langfristig einen flexiblen, qualitativen und funktionstüchtigen öffentlichen Raum gestaltet.

Die Frage einer sozialen Mischung verschiedener gesellschaftlicher Gruppen ist ein Kernpunkt der Diplomarbeit. Ein theoretisches Benutzermodell vereinfacht das breite Spektrum der indischen Gesellschaft anhand ökonomischer Verhältnisse auf 4 Bevölkerungsgruppen. Die Analyse zeigt, dass die Bedürfnisse, Lebenslagen und Wohnumfelder so unterschiedlich, oft widersprüchlich zueinander und kaum vereinbar sind, sodass eine gewisse räumliche Trennung der Wohnsituationen und der Wohnumfelder nötig ist. Möglichkeiten zur Verknüpfung der verschiedenen Gruppen bilden religiöse sowie kulturelle Einrichtungen. Diese sind zusammen mit öffentlichen Plätzen an einer Zentrumsachse angelagert, der „Begegnungszone“. Ein Fußwegenetz führt die getrennten unterschiedlichen Quartiere auf dieser linearen Achse zusammen. Die soziale Infrastruktur ist bedarfsorientiert bemessen und in fußläufigen Distanzen im Stadtteil verortet. In Punkto Handel, Versorgung und Arbeit gilt es beides zu bieten, kleine Läden und Handwerksbetriebe, sowie die Malls, den Großhandel und großflächige Büros. Die Erdgeschosszonen entlang der inneren Straßen und der Zentrumsachse werden mit den kleinteiligen Funktionen bespielt und stellen zusammen mit den Attraktoren der Begegnung das “traditionelle Innere” dar. Entlang des äußeren Gürtels, der „schnellen Achsen“ mit Durchgangsverkehr, werden dagegen die modernen Bürobauten, die Malls und Läden mit hochwertigen und nur für einen kleinen Teil der Bevölkerung erschwinglichen Waren angesiedelt. Im Endergebnis entsteht ein Stadtteil, der vielfältige Ansprüche deckt, einen lebendigen, gleichzeitig ruhigen Kern bildet und sehr gut erreichbar bleibt.

Anhand der Analyse der unterschiedlichen Bevölkerungsgruppen ist es möglich, geeignete Wohnformen und Typologien zuzuordnen und im Stadtteil, anhand der gesetzten Vorgaben im Stadtteil zu verorten. Vier Typologien dienen als Vorschläge für die Entwicklung verschiedener Orte und Quartiere. Drei davon werden im Rahmen meiner Arbeit näher betrachtet und anhand von drei Beispielfamilien erklärt.