Start Geschichte der Allergien Pollen Verschmutzung und Allergien – Zivilisation und Krankheit

Pollen Verschmutzung und Allergien – Zivilisation und Krankheit

1864

Pollen Verschmutzung und Allergien
Seit Clemens von Pirquets ersten Ideen im frühen 20. Jahrhundert zu Allergien galten Gräser-, Baum-, Sträucher- und Blumenpollen als die archetypischen Allergene. Sie wurden von Heuschnupfenpatienten gefürchtet, von Allergologen wegen ihrer biologischen Kraft bewundert, von Aerobiologen gesammelt und gezählt, von Botanikern analysiert, von Medikamentenherstellern behandelt und in großem Maßstab verarbeitet, von Forensikern und Paläologen als Hilfsmittel zur Datierung ungeklärter Todesfälle eingesetzt, und von Historikern als eine Art Staub gefeiert, der sich der historisch konstruierten Unterscheidung zwischen reiner Natur und unreiner Zivilisation (oder zwischen Reinheit und Verschmutzung) widersetzte. Um sie untersuchen zu können wurden aber auch Forschungsinstitute wie der National Pollen Research Unit (Nationale Pollenerforschungseinheit) im englischen Worcester eingerichtet und Cartoonisten nutzten sie für politische Parodien. Bemerkenswert auch, dass die große Verbreitung von Pollen in der globalen Atmosphäre zur Jahrtausendwende für die Alltagskultur zu dem Symbol für das ökologische Ungleichgewicht, zu einer Metapher für Medikamentenmissbrauch und sexuelle Freizügigkeit und zu einem Symbol für die Krise der Moderne geworden war. Daher wurde auf Pollen in so unterschiedlichen künstlerischen Auseinandersetzungen Bezug genommen wie in Marilyn Mansons Musikstück „Diamonds and Pollen“, „The pop singer’s fear of pollen count“ von The Divine Comedy und in Jeff Noons metaphorischer Cyberfantasy, deren Titel treffend einfach Pollen lautet und die sich vorstellt, zu welchen Verwüstungen die Rache der Natur an der krebsartigen Ausbreitung von Städten führen könnte.

Kurz nachdem man erkannt hatte, dass Pollen die Hauptauslöser für Heuschnupfen sind und sie schnell zu einem exemplarischen Allergen geworden waren, brachten sowohl örtliche als auch umfassende nationale und internationale Studien zeitliche und geografische Schwankungen der Pollenmenge in der Atmosphäre zutage. Die saisonale Verbreitung verschiedener Baum-, Gräser- und Blumenpollen leuchtete Botanikern und Allergologen sofort ein. Je nach Pollenverteilung und individueller Anfälligkeit konnten so spezielle Heuschnupfengefährdungsperioden ausgewiesen werden. Während die meisten britischen Heuschnupfenpatienten in den Sommermonaten aufgrund von Graspollen Symptome aufwiesen, hatten amerikanische Heuschnupfenkranke größere Angst vor dem herbstlichen Pollenflug des Ragweed, dem Beifußblättrigen Traubenkraut. In anderen Ländern wurden die Patienten hauptsächlich von Baumpollen, je nach Blütezeit und Wetterbedingungen in die Atmosphäre entlassenen, geplagt: Als in Japan zum ersten Mal Heuschnupfen amtlich wurde, schien er von Pollen der japanischen Zeder ausgelöst worden zu sein, während in Frankreich, China und Italien Platanen und Zypressen die heftigsten allergischen Reaktionen hervorriefen. Und in Kuwait war Asthma bis zur Einführung des Prosopisbaumes in den 1950er-Jahren offenbar unbekannt. So waren Pollen nicht nur die überall auf der Welt für Heuschnupfen und Asthma verantwortlichen Allergene, sondern auch solche mit spezifischen Verbreitungsgraden und Bedeutungen für verschiedene Orte und Gebiete.

Als Allergologen und Botaniker, oft in Zusammenarbeit oder in Verbindung mit Pharmaunternehmen, Mitte des 20. Jahrhunderts anfingen, detaillierte Pollenlandkarten zusammenzustellen und tägliche Pollenzahlen zu veröffentlichen, deckten sie zugleich damit auch den engen Zusammenhang zwischen dem Pollengrad in der Luft und den Wetterlagen auf. So konnten Studien der 1960er-, 70er- und 80er- Jahre den Einfluss von Windgeschwindigkeit und -richtung sowie von schweren Regenfällen auf den Pollengehalt der Luft klären. Ebenso wie Wetterveränderungen, so dachte man, würde die überbaute Umgebung das Pollenverhalten in Städten bestimmen. Fehlende Bäume und Gräser in stark bebauten Gebieten und die Pollenzerstreuung durch kräftige Winde an hohen Gebäuden würden im Allgemeinen zu einer niedrigeren Pollenzahl in größeren und kleineren Städten führen. Wie jedoch Gregg Mitman nachgewiesen hat, erwies sich in Nordamerika Anfang des 20. Jahrhunderts als besonders problematisch, dass Ödland und Parks im Stadtinnern nun erfolgreich von Beifußblättrigem Traubenkraut besiedelt wurden. Das veranlasste örtliche und nationale Gesundheits- und Landwirtschaftsbehören, Verfahrensweisen zur Ausrottung dieses urbanen Dissidenten zu entwickeln.

Um 1910 mussten beispielsweise in New Orleans 20 Strafgefangene auf Geheiß des Beauftragten für öffentliche Arbeiten, „die Straßen und Bürgersteige der Stadtaußenbezirke von Unkraut befreien, entsprechend einer vorbereiteten Karte der topografischen Abteilung“ der American Hay-Fever Prevention Association (Amerikanische Vereinigung zur Heuschnupfen Vorbeugung).

Ähnliche Anstrengungen, das auszurotten oder unter Kontrolle zu bringen, was britische Aerobiologen „superallergenes Stadt-Unkraut“ nannten, wurden in Montreal in den 1930er-Jahren, später in Japan und mehreren europäischen Ländern, in die versehentlich Samen des Ragweed aus Amerika eingeschleppt worden waren, unternommen. Die Sorge wegen Pollenverschmut-zungen in Groß- und Kleinstädten führte bis weit ins 20. Jahrhundert zu Auseinandersetzungen um Stadtplanung und landwirtschaftliche Maßnahmen. So wurde auf dem Europäischen Allergieworkshop von 1998 vorgebracht, es wäre absurd in Städten und auf Grundschulgeländen auch weiterhin Birken und Fraxinus, zwei hochgradig allergene Bäume, zu pflanzen.

Zeitbedingte und geografische Unterschiede bei der Pollenkonzentration in der Luft dienten zur Klärung nationaler und saisonaler Asthma- und Heuschnupfenraten. Saisonale Schwankungen bei der Pollenkonzentration wurden nach dem Zweiten Weltkrieg auch von Klinikern herangezogen, die einen Beweis für ihre Beobachtungen suchten, dass Allergiehäufigkeit vom Geburtsmonat abhing. In den 1970er-Jahren vermutete man, dass Kinder, besonders Mädchen, die zwischen Dezember und Februar geboren wurden (d. h. kurz vor der ersten größeren Gräserpollenwelle) eine größere Neigung zu Heuschnupfen aufwiesen. Im Gegensatz dazu trat Asthma am häufigsten bei Kindern auf, die zwischen Mai und Oktober geboren worden waren, kurz vor der herbstlichen Hausstaubmilbenwelle. Auch wenn die Forschung in anderen Ländern, bedingt durch die saisonalen Unterschiede bei der Pollenabgabe der vorherrschenden allergenen Pflanzen in diesen Regionen, zu geringfügig verschiedenen Ergebnissen kam und einige Autoren an der Richtigkeit dieser Erkenntnisse zweifelten, bestätigten Folgestudien im Wesentlichen, dass eine Gefährdung durch Allergene in früher Kindheit die Möglichkeit vergrößert, an atopischen Krankheiten zu erkranken. Allergologen erklärten, das läge generell an einer immunologischen Unreife: Man nahm an, der vorübergehende Mangel an IgA bei Babys mache deren Immunsystem für Allergenattacken anfälliger.

Aber auch wenn aerobiologische Pollenuntersuchungen halfen, einige der epidemiologischen Charakteristika von Heuschnupfen in der Moderne zu klären, blieben andere rätselhaft. Insbesondere wurde deutlich, dass die Pollenanzahl nicht die steigenden Heuschnupfenraten in den meisten Industrieländern in der zweiten Hälfte des 20. Jahrhunderts erklären konnte. Einige Autoren haben nachgewiesen, dass die Vergrößerung der Städte, der Anbau pollenreduzierter Pflanzen, der schädliche Einfluss von Autoabgasen auf das Pflanzenwachstum und andere landwirtschaftliche Praktiken – wie frühe Ernten und das Herstellen von Gras-Silofutter – die Länge der Pollensaison verkürzt und auch die Pollenkonzentration in der Luft verringert hätten. Trotzdem wäre jedoch in den 1960er-Jahren hier das Heuschnupfenvorkommen gestiegen. Mit diesem offenkundigen Widerspruch und mit Berichten über größere Heuschnupfenvorkommen in Großstädten als auf dem Lande konfrontiert, sowie mit Belegen dafür, dass Kinder von
Bauern weniger häufig an Heuschnupfen litten, mussten Allergologen und Atemwegsärzte nach anderen Erklärungen für die modernen Allergietendenzen suchen. So forschten sie insbesondere nach weiteren allergenen Bestandteilen in der freien Atmosphäre und dem möglichen Einfluss von Umweltverschmutzung.

Es war bekannt, dass außer Pollen auch andere biologische Wirkstoffe nicht nur lokale Allergien, sondern auch systemische, manchmal lebensbedrohliche anaphylaktische Reaktionen hervorrufen konnten, so zum Beispiel Insektenstiche. Schwere idiosynkratische Reaktionen auf Bienen- und Wespenstiche waren bereits in antiken medizinischen Schriften beschrieben worden und auch in den folgenden Jahrhunderten hatten Ärzte immer wieder über vereinzelte Todesfälle berichtet.

Im späten 19. und frühen 20. Jahrhundert, als das Interesse an Toxinen und der Überempfindlichkeit aufblühte, erschienen in den Medizinzeitschriften regelmäßig Berichte über Komplikationen, einschließlich plötzlicher Todesfälle. Zu dieser Zeit wurden Gegenreaktionen auf Insektenstiche allgemein als direkte Wirkung eines Toxins oder als Resultat „eines Urtikaria hervorrufenden Bazillus’“ aufgefasst. Kurz nachdem Charles Richet und Clemens von Pirquet die allgemeinen experimentellen und klinischen Umrisse von Anaphylaxie und Allergie bestimmt hatten, begannen Kliniker, auch bei Reaktionen auf Bienen- und Wespenstiche immunologische Vorgänge zu vermuten. Daher meinte der britische Arzt A. T. Waterhouse 1914, das plötzliche Auftreten von Symptomen, der Einfluss auf Herz und Atmung und die Vorgeschichte einer früheren Gefährdung würden alle „sehr stark auf eine Anaphylaxie hindeuten“.

Als Konsequenz versuchten Allergologen daher, die Patienten gegen Insektenstiche zu desensibilisieren. Anfänglich kamen dabei Extrakte zum Einsatz, die aus ganzen Körpern gewonnen worden waren, bis Mary Hewitt Loveless (1899-1991) in den 1950er-Jahren zu diagnostischen wie zu therapeutischen Zwecken die Anwendung reinen Giftes, das vorsichtig aus den Giftbeuteln extrahiert worden war, einführte.

Trotz der Entwicklung wirksamerer Prophylaxe und besserer Behandlungsmethoden (z. B. einfach zu handhabende adrenerge Präparate), bestand die Angst vor Insektenstichen und den Gefahren des Aufenthaltes an frischer Luft zu bestimmten Jahreszeiten auch weiterhin. In den 1950er-Jahren waren in den Vereinigten Staaten Insektenstiche für schätzungsweise einen Todesfall pro Woche verantwortlich. Daher forderten Ärzte, Patienten und Doktoren sollten besser über den Nutzen der Desensibilisierung und die Notwendigkeit, für den Ernstfall Isoprenalintabletten oder eine Adrenalinspritze mit sich zu führen, aufgeklärt werden. Obwohl dieser Ratschlag in der Folgezeit in Zeitungsartikeln auftauchte, die vom „jährlichen Albtraum“ .Wespensaison für Allergiker sprachen und den Patienten rieten, immer eine Notfallausrüstung bei der Hand zu haben, waren einige Kliniker der Ansicht, das Risiko schwerer oder tödlicher Reaktionen würde überschätzt und die Öffentlichkeit ohne Anlass in Panik versetzt.

In den 1980er-Jahren argumentierte Howard S. Rubenstein, dass das Risiko eines tödlichen Bienen- oder Wespenstichs im Vereinigten Königreich bei eins zu fünf Millionen läge. Und in den Vereinigten Staaten würden die jährlichen Todesfälle durch Insektenstiche (etwa 40) von denen durch Autounfälle (50 000), Ertrinken (6000) und Blitze (115) weit in den Schatten gestellt. Die zeitgenössische Konzentration auf die Risikoepidemiologie im Blick, kam Rubenstein nicht nur zu dem Schluss, dass Patienten von „unrealistischen Ängsten vor hochgradig unwahrscheinlichen Ereignissen“ befreit werden sollten, sondern auch, dass angesichts der Unfähigkeit der Ärzte, „gefährdete“ Kinder zu erkennen, die Anwendung von Immuntherapie (die teuer und selbst potenziell gefährlich war) nicht gutgeheißen werden könnte. Auch wenn einige Autoren die Richtigkeit von Rubensteins „Warnung vor einer übertriebenen Angst vor Bienenstichen“ anerkannten, werde ich im 6. Artikel zeigen, dass moderne Allergologen auch weiterhin über den Wert der Immuntherapie für solche Fälle stritten.

Bienen und Wespen waren nicht die einzigen Insekten und Spinnentiere, die für allergische Reaktionen verantwortlich gemacht wurden. In der zweiten Hälfte des 20. Jahrhunderts haben Allergologen in verschiedenen Gegenden ebenso Überempfindlichkeitsreaktionen (einschließlich Hautreizungen, Asthma und Rhinitis) auf Mücken, Milben, Feuerameisen und Heuschrecken festgestellt: 2003 zum Beispiel löste ein Heuschreckenschwarm im Zentralsudan offenbar eine Asthma-Epidemie aus, in deren Verlauf elf Menschen starben und über 1500 ins Krankenhaus eingeliefert werden mussten. Darüber hinaus wurde Allergologen nach und nach die Rolle von Schimmel- oder Pilzsporen in der Atmosphäre bewusster. Über die Möglichkeit, dass eingeatmete Sporen bei Asthmapatienten wie starke Aeroallergene wirken könnten, hatte in den 1920er-Jahren Willem Storm van Leeuwen bereits nachgedacht, was zu einer Zusammenarbeit von Allergologen und Mykologen in britischen Krankenhäusern und Allergieabteilungen führte. Nach dem Zweiten Weltkrieg interessierten sich weltweit immer mehr Allergologen und Atemwegsärzte für die Bestimmung der allergenen Wirkung von Pilzsporen im Haushalt, am Arbeitsplatz und in der Natur. Insbesondere Sporen von Aspergillus fumigatus wurden für eine bestimmte Form von allergischer Alveolitis verantwortlich gemacht, die häufig bei Bauern mit schimmeligem Heu vorkam (weshalb sie auch „Bauernlunge“ genannt wurde) und bei Leuten, die Vögel hielten (Tauben-, Vogel- oder Wellensittichzüchterlunge). Untersuchungen ergaben nicht nur, dass die allergisch-bronchopulmonale Aspergillose durch eine Kombination von Typ- I- und Typ-II- (und womöglich Typ-IV-)Überempfindlichkeitsreaktionen auf Sporen in der Luft ausgelöst wurde, sondern auch, dass genetische Faktoren von Bedeutung sein könnten.

Obwohl die Rolle von Aspergillus bei anderen Asthmafällen unklar blieb, führten Befürchtungen, dass Schimmelpilzallergien (und andere Leiden) von Wildtaubenschwärmen verbreitet werden könnten, in einigen Ländern zu Maßnahmen der Ausrottung dieser Wildvögel, damit zoonotische Krankheiten verringert würden. So brachten 2003 Sorgen über das Gesundheitsrisiko, das die Vögel auf dem Londoner Trafalgar Square darstellten, Ken Livingstone, den Bürgermeister der Stadt, dazu, Geldbußen für diejenigen einzuführen, die beim Taubenfüttern erwischt wurden.

Während die Gefährdung durch Pilzsporen als unmittelbarer Auslöser für allergische Reaktionen richtig erkannt worden war, waren sie nicht mit den steigenden globalen oder nationalen Allergieraten in Verbindung zu bringen. Tatsächlich schien es, als ob die Zahl der Taubenhalter gerade zu der Zeit zurückging, als die Asthmahäufigkeit und -schwere zunahm. Das zwang Allergologen zusätzlich zu der Erkundung sich verändernder Allergenkonzentrationen im Freien auch die Möglichkeit in Erwägung zu ziehen, dass andere atmosphärische Faktoren, insbesondere die Luftverschmutzung, für die Verschlimmerung von Allergien verantwortlich sein könnten. Historisch gesehen hatten Ärzte spätestens seit dem 17. Jahrhundert (und manchmal auch schon viel früher) einen Zusammenhang zwischen der Konzentration von Rauch und Dämpfen einerseits und Atemwegsleiden andererseits erkannt.

Jedoch erst im Verlauf der industriellen Revolution des späten 18. und frühen 19. Jahrhunderts wurde der Rauch der Städte in Großbritannien und später auch in anderen Ländern als große und sich ausbreitende Gesundheitsgefährdung angesehen. Da die industrielle Entwicklung in den Städten zu einer größeren, oft auch ineffektiven Kohleverfeuerung in Haushalten und Fabriken führte, wurde die Rauchbelastung nicht nur in London und in den großen Industriegebieten der britischen Provinz, wie Manchester, zum Problem, sondern auch in Europa (Köln und Essen), Nordamerika (Chicago, Pittsburgh, Ohio und Pennsylvania), Kanada (Toronto), Japan (Osaka) und Australien (Melbourne) oder andernorts.

Mitte des 19. Jahrhunderts machten sich Ärzte und Politiker immer mehr Sorgen über den Einfluss von Rauch auf die Gesundheit. Wie Bill Luckin in einigen Artikeln über die Luftverschmutzung in Großbritannien im späten 19. und frühen 20. Jahrhundert dargelegt hat, wurden die übermäßig vielen Todesfälle durch Bronchitis, Lungenentzündung und Keuchhusten in den wöchentlichen Aufstellungen des Registrar-General (Oberster Standesbeamte) regelmäßig auf eine Kombination des Londoner Nebels und der Luftverschmutzung zurückgeführt. Diese Sorgen bestanden bis in die ersten Jahrzehnte des 20. Jahrhunderts, stärkten das zeitgenössische Interesse an Freiluftkolonien für Schwindsüchtige und Freiluftschulen für Kinder mit Tuberkulose, Bronchitis sowie Asthma und brachten „Luftkurorte“ in den Bergen oder an der Küste in Mode, wo die Luft vermeintlich sauberer und belebender war als in den verschmutzten Städten. Natürlich boten die auf dem Land oder an der Küste gelegenen Freiluftkolonien und -schulen Patienten mit Atemwegsbeschwerden weit mehr als nur saubere Luft. Die hier zunehmende Gesundheit wurde auch der besseren Ernährung, Bewegung und dem Fern sein von häuslichem Druck und Stress zugeschrieben. Nichtsdestotrotz belegt die Verschreibung von sauberer Luft als Vorbeugungs- oder Behandlungsmaßnahme gleichzeitig die Befürchtungen der westlichen Welt vor dem Einfluss städtischer Luftverschmutzung auf die Volksgesundheit.

Im späten 19. und frühen 20. Jahrhundert führten die Ängste vor den wirtschaftlichen und medizinischen Folgen der steigenden Luftverschmutzung zu verschiedenen Initiativen. In Großbritannien wurden in die Gesetzgebung zur Volksgesundheit Bestimmungen zur Rauchverminderung aufgenommen und die Regierung leitete offizielle Unter-suchungen ein, was 1912 zur Einrichtung des Advisory Committee on Atmospheric Pollution (Beratender Ausschuss zum Thema Verschmutzung der Atmosphäre) führte. Und Interessengruppen wie die National Smoke Abatement Society (Nationale Gesellschaft zur Rauchverminderung) – die spätere National Society for Clean Air (Nationale Gesellschaft für saubere Luft) die 1929 durch den Zusammenschluss von Gesellschaften aus London und Manchester entstanden war, machten sich für eine stärkere staatliche Kontrolle der Verschmutzung stark.

In ähnlicher Absicht führte der Stadtrat von Chicago 1881 das erste amerikanische Gesetz gegen Luftverschmutzung ein. Und in der ersten Hälfte des 20. Jahrhunderts erließen auch andere nordamerikanische Städte wie St. Louis und Pittsburgh effektivere Bestimmungen. Dennoch konnten die Gesetzgebung, staatliche Untersuchungen und lokale Aktivitäten insgesamt wenig am Grad der Rauchentwicklung im späten 19. und frühen 20. Jahrhundert in Europa oder Amerika ändern. Politische Zurückhaltung, sich gegen industrielle Interessen auszusprechen, Auseinandersetzungen über die genauen gesundheitlichen Auswirkungen von Verschmutzung (einschließlich der gelegentlichen Andeutung, die Stadtluft könnte für Asthmatiker gut sein) und das fortgesetzte ideologische Festhalten am heimischen Herd als Symbol des individuellen und nationalen Wohlstands unterminierten allesamt die Reformargumente.

In der Zwischenkriegszeit und unmittelbar nach dem Krieg begann der Widerstand gegen ein staatliches Eingreifen zu bröckeln. Das war in erster Linie auf von der Luftverschmutzung verursachte Zwischenfälle zurückzuführen, bei denen viele Menschen starben, so 1930 im belgischen Maastal, 1948 in Donora, Pennsylvania und, vielleicht am deutlichsten, 1952 in London. In den 1930er- und 40er-Jahren hatte eine Kombination von klimatischen Bedingungen und Luftverschmutzung regelmäßig zu dichten „Smogs“ (ein erstmals 1905 zur Beschreibung einer Kombination von Rauch [smoke] und Nebel [fog] angewandter Begriff) in London und anderen Städten geführt, was zu einem Anstieg der Erkrankungs- und Sterblichkeitsraten durch Atemwegs- und Herzleiden geführt hatte.

Im Dezember 1952 hielt jedoch eine thermische Inversionswetterlage eine besonders kompakte und undurchdringliche Smogschicht über London fest. Da die Sicht dramatisch abnahm, wurde der Verkehr in der Stadt praktisch unmöglich und Unfälle häuften sich. Zusätzlich vermehrten sich stark Krankenhauseinweisungen und Todesfälle, die meisten wegen Herz- und Atemswegsproblemen. Die große öffentliche Unruhe, die sich deutlich in Leitartikeln und Beiträgen in Zeitungen niederschlug, brachte Parlamentarier dazu, in aller Dringlichkeit eine sofortige staatliche Untersuchung und eine effektivere Gesetzgebung zu fordern, bevor ein erneuter Wintersmog das Land noch stärker in Aufruhr versetzen würde. Obwohl die Regierung mit der Behauptung, es gäbe dringlichere Sorgen (z. B. die große Wohnungsnot), versucht hatte, das Eingreifen zu verzögern, wurde im Juli 1953 ein Luftverschmutzungsausschuss unter Vorsitz des südafrikanischen Ingenieurs und Industriellen Sir Hugh Beaver (1890-1967) eingesetzt.

Der Beaver-Ausschuss begutachtete nicht nur die wirtschaftliche Belastung durch Luftverschmutzung, sondern auch deren Einfluss auf die Gesundheit. Erstens: Es wurde anerkannt, dass der Smog von 1952 von „einem sofortigen und plötzlichen Anstieg sowohl von Krankheits- als auch Todesfällen begleitet“ worden sei und dass in den ersten drei Dezemberwochen 4000 Menschen direkt an den Folgen des Smogs gestorben wären.

Zweitens: Der Ausschuss legte Beweise vor, dass die durch den Smog verursachten Bronchitis-Todesfälle um das Neunfache angestiegen waren, die durch Lungenentzündungen um das Vierfache und die durch andere Atemswegserkrankungen ungefähr um das Fünf- bis Sechsfache.

Diese Zahlen belegten, dass der Smog von 1952 sehr viel schlimmer gewesen war, als frühere Luftverschmutzungszwischenfälle. Hervorzuheben ist, dass der Ausschuss in seinem Abschlussbericht ziemlich besorgt vermerkte, die Bronchitis-Sterblichkeit läge in Großbritannien 50-mal höher als in Dänemark, und die durch Lungenentzündung wäre in Städten bei Weitem höher als auf dem Lande. Auch wenn das Stadt-Land-Gefälle bei anderen Atemwegserkrankungen weniger auffällig war und erkannt wurde, dass weitere Faktoren (z. B. Klima oder Wohnsituation) auch von Bedeutung waren, schloss der Ausschuss, dass es „eine deutliche Verbindung zwischen Luftverschmutzung [besonders durch Rauch und Schwefeldioxid] und dem Auftreten von Bronchitis und anderer Atemwegserkrankungen“ geben würde. Der offenkundige Zusammenhang zwischen sichtbarer Luftverschmutzung durch Rauch und Lungenkrankheiten brachte den Beaver-Ausschuss dazu, Abhilfemaßnahmen für „eines der dringendsten Gegenwartsprobleme auf dem Gebiet der Umwelthygiene“ zu fordern.

Der Londoner Smog von 1952, ebenso wie der Zwischenfall im amerikanischen Donora, erwies sich letzten Endes als ein Katalysator für die Einführung nationaler Gesetzte für saubere Luft, so zum Beispiel den ersten Clean Air Act (Verordnung für saubere Luft) von 1956. Einigen Historikern folgend kann Smog auch als ein hervorragendes Geschichtsbeispiel für den Einfluss von Luftverschmutzung auf Asthma angesehen werden. Aber retrospektive Interpretationen, die nahelegen, dass die Sterblichkeit während winterlicher Luftverschmutzungsperioden mit der Verschlimmerung von Asthma in Verbindung stünde, werden von den zeitgenössischen Belegen nicht gestützt. Obwohl der Beaver-Ausschuss den Einfluss von Luftverschmutzung auf Bronchitis und Lungenentzündung anerkannte, waren in seinen Aufstellungen Erkrankungen und Todesfälle durch Asthma unerheblich. Folgeuntersuchungen des Einflusses von Luftverschmutzung auf die Atemwegsgesundheit haben diese Ansicht bestätigt.

Weder ein 1954 vom Gesundheitsministerium, noch ein 1970 vom Royal College of Physicians veröffentlichter Bericht sah einen ursächlichen Zusammenhang zwischen städtischer Luftverschmutzung und den Erkrankungsund Sterblichkeitsraten durch Asthma. Auch wenn es gelegentlich Berichte von durch Luftverschmutzung hervorgerufenen Asthmasymptomen gab, wie dem „Tokio-Yokohama-Asthma“ oder der „asthmatischen Bronchitis“, die unter den in den 1940er- und 50er-Jahren in Japan stationierten amerikanischen Militärs vorgekommen waren, so handelte es sich dabei in den meisten Fällen doch eher um eine durch Reizstoffe verursachte Bronchitis als um Asthma.

Obwohl zeitgenössische amerikanische Studien, die sich ausdrücklich auf die mögliche Verbindung zwischen Schwefeldioxidkonzentrationen in der Atmosphäre und Asthmaanfällen konzentrierten, ebenfalls keine eindeutige Verbindung nachweisen konnten, hielten sich wissenschaftliche Befürchtungen, Schwefeldioxid könne für Asthmatiker gefährlich sein. In den frühen 1980er-Jahren ließen Studien in Kalifornien darauf schließen, dass Asthmatiker schon auf niedrige Konzentrationen von Schwefeldioxid empfindlicher reagieren könnten als der Rest der Bevölkerung. Das wurde sofort von Wissenschaftlern und Umweltschutzgruppen genutzt, um die Environmental Protection Agency (Umweltschutzamt) (EPA) zu einer Senkung der Schadstoffgrenzwerte zu bewegen.

Doch die Industrie setzte solchen Reformanstrengungen ernergisch Widerstand entgegen. Besorgt, dass neue Richtlinien Einfluss auf die Produktivität und die Profite haben könnten, schlugen die Strom-, Erdöl- und Chemieindustrien vor, die EPA sollte „sich nicht um solche Minderheiten kümmern, sondern Richtwerte festsetzen, die nur bei einem beträchtlichen Risiko vor den schädlichen Auswirkungen auf die Gesamtbevölkerung schützen“ würden. Auch soll versucht worden sein, Mitglieder des Senate Committee on Environment and Public Works (Senatsauschuss für Umwelt und öffentliche Arbeiten) zu bestechen. Auch wenn die EPA in den 1980er-Jahren nach und nach überarbeitete Richtwerte einführte, wurden die Versuche, durch Industrie verursachte Verschmutzungen genauer zu regulieren, durch neue Gefährdungsauffassungen, die eine Gesamtgefährdung durch Schadstoffe im Haus und im Freien für realistischer hielten, unterminiert. Zur selben Zeit, als die klinische und epidemiologische Aufmerksamkeit auf Auswirkungen des Rauchens auf Atemwegserkrankungen überging, kam das Interesse am Einfluss der Luftverschmutzung im Freien auf Asthma (und auch auf die chronische Bronchitis) fast zum Erliegen.

Die abnehmende Sorge über die Rolle von Luftverschmutzung bei Asthma und anderen allergischen Leiden kann auch von den Beobachtungen angetrieben worden sein, dass in der Zeit, in der Asthma nachweislich anstieg, in den meisten Industrieländern die Verschmutzung der Atmosphäre durch Rauch und Schwefeldioxid (und möglicherweise durch andere Schadstoffe) zurückging. In Großbritannien zum Beispiel verringerten sich die Emissionen von Schwefeldioxid und schwarzem Rauch durch die Verordnungen für saubere Luft von 1956 und 1958 deutlich. Dennoch, wie schon der Beaver-Ausschuss in den 1950er-Jahren oder darauffolgende internationale Studien nahegelegt hatten, mussten Untersuchungen zum Einflusses von Verschmutzung auf die Gesundheit auch von Straßenverkehr verursachte Schadstoffe berücksichtigen.

Seit Mitte des 20. Jahrhunderts hatten steigende Emissionen von Autos und Bussen Forscher dazu veranlasst, die bei der Benzin- und Dieselverbrennung entstehenden Schadstoffe als Ursachen oder Auslöser für Asthma oder als Faktoren, die bei bestimmten Patienten zu Asthmaanfällen führen könnten, in Erwägung zu ziehen. Doch der Nachweis erwies sich als schwierig. Trotz gelegentlicher epidemiologischer Berichte, die vermuteten, mit der von Kraftfahrzeugen verursachten Luftverschmutzung könnten Asthma- und Heuschnupfenraten sowie deren Verschlimmerung bei einzelnen Patienten gleichermaßen erklärt werden, und des im Labor erbrachten Nachweises der Rolle von Schadstoffen bei der Lungenfunktion von Tieren, blieb die Verbindung zwischen dem Verkehrsaufkommen und Allergiezahlen spekulativ und umstritten. So belegten Vergleichsstudien, die 1989 nach Öffnung der Berliner Mauer und der anschließenden Wiedervereinigung die Verbreitung von Asthma in Deutschland erfassten, dass Allergien in stark verschmutzten ostdeutschen Großstädten erstaunlicherweise seltener vorkamen als in Westdeutschland. Auch mehrere Städte oder Regionen mit hohen Luftschadstoffkonzentrationen, wie zum Beispiel Athen in Griechenland und Teile von China, wiesen generell niedrige Asthmazahlen auf. Im Gegensatz dazu wurden in einigen Ländern mit relativ sauberer Luft wie Schottland und Neuseeland im Verlauf der zweiten Hälfte des 20. Jahrhunderts hohe Raten an allergischen Krankheiten festgestellt.

Die wissenschaftlichen Zweifel an der Rolle von Luftverschmutzung beim Entstehen weltweiter Allergiestrukturen wurden in den 1990er- Jahren von Nachforschungen gestützt, die vom British Committee on the Medical Effects of Air Pollution (Britischer Ausschuss für die medizinischen Auswirkungen der Luftverschmutzung) und einer Arbeitsgruppe der British Society for Allergy and Clinical Immunology (Britische Gesellschaft für Allergologie und klinische Immunologie) durchgeführt wurden.

1995 folgerte die British Society zum Beispiel zuversichtlich: Es gibt im Moment wenig Hinweise darauf, dass Schadstoffe für ein größeres Vorkommen von Asthma und allergischen Krankheiten in Ländern mit einem „westlichen“ Lebensstil verantwortlich sind. Egal, wo auf der Welt das größere Vorkommen von allergischen Krankheiten eine Zeitlang überzeugend dokumentiert wurde, war dafür offenkundig eher die Gefährdung durch Allergene verantwortlich als die Gefährdung durch Luftschadstoffe.

Doch das Widerstreben der Experten, Luftverschmutzung für die epidemiologischen Entwicklungen verantwortlich zu machen, konnte den Verdacht und die Sorgen der Öffentlichkeit nicht zerstreuen. Gegen Ende des Jahrtausends beförderten Fernsehsendungen und Artikel in Tageszeitungen auch weiterhin weitverbreitete Ängste, dass Luftverschmutzung bei bestimmten Patienten zu schlimmerem Asthma führen könnte und Autoabgase die modernen Allergieraten ansteigen ließen. So wurde der britischen Regierung 1993 in einer Fernsehsendung vorgeworfen, sie schenke Asthma nicht genug Aufmerksamkeit und gestatte, dass weiter Hauptstraßen durch Wohngebiete geführt würden. Auf ähnliche Weise wurde in Kolumnen überregionaler und regionaler Zeitungen genau wie in von Umweltschutzgruppen herausgegebenem Material aufgedeckt, dass „schmutzige Städte und verschmutzende Fabriken“ in Amerika und Großbritannien das „Risiko“ erhöhten, an Lungenkrebs, Herzkrankheiten und Asthma zu erkranken. Wie Ulrich Beck in den 1980er- Jahren erkannte, war die Dissonanz zwischen Laienansichten und Erkenntnissen der Expertenausschüsse gerade in jenen Gesellschaften, die vom Risiko gebannt waren, zu erwarten. Eines der Hauptkennzeichen der modernen Risikogesellschaft, so Beck, wäre bei der Einschätzung von und dem Umgang mit Gefährdungen der Zivilisation eine deutliche Trennung von wissenschaftlicher und sozialer Vernunft. Wie er meint, wurden solche Disjunktionen teilweise von Tendenzen moderner Wissenschaft bestimmt, die einfach die regionale Verbreitung von Schadstoffen verzeichnet, statt deren speziellen Einfluss auf Einzelpersonen zu untersuchen, und auch zum Teil durch das Versäumnis der Wissenschaftler, anzuerkennen, „dass dieselben Schadstoffe je nach Alter, Geschlecht, Ernährungsgewohnheiten, Art der Arbeit, Information, Bildung usw. für verschiedene Menschen verschiedene Bedeutung haben können“.

Der feste Glaube der Öffentlichkeit an den Einfluss der Luftverschmutzung auf Asthma entstand in erster Linie durch persönliche Erfahrungen, bei denen die Symptome durch Luftverschmutzungsvorfälle ausgelöst worden waren. Diese eher anekdotischen Schilderungen wurden von Krankenberichten gestützt, denen zufolge Luftverschmutzung unter bestimmten Umständen zu Atembeschwerden bei einzelnen, bereits erkrankten Patienten führen konnte. Möglich, dass die Volkssorge auch durch allgemeine Ängste vor Auswirkungen der Umweltverschmutzung auf die Gesundheit und vor dem Einfluss von Verkehrsabgasen und städtischem Smog auf die moderne Umwelt verstärkt wurde. Wie auch immer, Kliniker, Epidemiologen und Laborwissenschaftler versuchten jedoch verstärkt, die Schuld an modernen geografischen und zeitlichen Tendenzen allergischer Krankheiten dem westlichen Lebensstil und dem Haushalt zuzuschreiben. Die Öffentlichkeit dagegen sah weiter in der Luftverschmutzung den Hauptgrund für schlechte Gesundheit (Allergien eingeschlossen) und klagte nationale Regierungen und internationale Gesundheitsorganisationen an, nicht auf weltweiter Ebene gegen Verschmutzung anzugehen.