Thrifty-Gene für Fettleibigkeit, eine attraktive, aber fehlerhafte Idee und eine alternative Perspektive: die „Drifty-Gene“-Hypothese

Bevor ich darlege, warum die Idee der „Thrifty-Gene“ falsch ist, möchte ich klären, was ein „Thrifty-Gen“ ist und wie es zu der Hypothese kam, dass sie einst von Vorteil waren. Ein Sparsamkeitsgen führt zu einem Phänotyp, der „…außergewöhnlich effizient in der Nahrungsaufnahme und/oder -verwertung“ ist.1 Es wird angenommen, dass unsere historische Umwelt von Hungerperioden unterbrochen war. Prentice9 stellte beispielsweise fest, dass „Hungersnöte ein ständiger Selektionsdruck auf menschliche Populationen waren“, und Chakravarthy und Booth12 erklärten, dass „es für unsere Vorfahren nicht ungewöhnlich war, dass sich Zeiten des Festmahls (während des Überflusses an Nahrungsmitteln) mit Zeiten der Hungersnot abwechselten…“ Prentice16 führte viele Fälle historischer Hungersnöte als direkten Beweis an. In Anbetracht dieses Szenarios von abwechselnden Festen und Hungersnöten schlug Prentice17 vor, dass „… Anpassungen, die es einem Organismus ermöglichen, in Zeiten des Nahrungsüberschusses schnell Fett anzusetzen, einen Überlebensvorteil in den wechselseitigen Hungersnöten haben“. Nach Neel1 wird angenommen, dass diese Gene durch Selektion auf die Nahrungsaufnahme wirken. Auswirkungen auf die Ausgaben werden zwar nicht ausgeschlossen, aber als weniger wahrscheinlich angesehen.16 Es wird angenommen, dass die Gene für Sparsamkeit im historischen Umfeld von Fastenzeiten positiv selektiert werden, weil sie die Menschen während der Fastenzeiten dick machen. Dieses Fett liefert die Energie, die die Menschen zum Überleben während der nachfolgenden Hungersnöte benötigen. Wie Neel1 feststellt, hätten Individuen mit dem „sparsamen“ Genotyp bei Hungersnöten einen Überlebensvorteil, weil sie auf größere, zuvor gespeicherte Energiemengen zurückgreifen könnten, um die Homöostase aufrechtzuerhalten, während Individuen ohne „sparsamen“ Genotyp im Nachteil wären und weniger wahrscheinlich überleben würden. Der Schwerpunkt lag also zunächst auf dem verbesserten Überleben, aber ein zweiter Vorteil, der später festgestellt wurde, war, dass sparsame Gene auch die Fruchtbarkeit während einer Hungersnot aufrechterhalten könnten. Wie Prentice16 feststellte, „…wurde diese Selektion durch die Unterdrückung der Fruchtbarkeit und der tatsächlichen Sterblichkeit vermittelt“ (siehe auch Wells18). In einem Umfeld, das durch Feste und Hungersnöte gekennzeichnet ist, werden sparsame Gene aufgrund der Überlebens- und Fruchtbarkeitsvorteile, die sich aus den Fettdepots zwischen den Hungersnöten ergeben, positiv selektiert. In der modernen Gesellschaft, in der es ständig Nahrung im Überfluss gibt, bereiten diese Gene ihre Träger auf Hungersnöte vor, die nie eintreten, und die Folge ist weit verbreitete Fettleibigkeit.

Warum dieses Argument fehlerhaft ist

Haldane25 war einer der ersten, der eine quantitative Behandlung der Erwartung für die Ausbreitung eines vorteilhaften dominanten Mutantenallels (A) im Vergleich zum alternativen Allel (a) entwickelte. Bei einem Selektionsvorteil (k) von nur 0,001, d. h. einem erhöhten Überlebens- oder Fruchtbarkeitsvorteil von nur 0,1 % für die Träger des A-Allels gegenüber dem Homozygoten „aa“, wurde die Anzahl der Generationen, die erforderlich sind, damit sich das Allel A von 1 % der Populationsorte auf 99 % ausbreitet, mit 16 500 Generationen berechnet. Der moderne Mensch hat sich vor etwa 2 Millionen Jahren aus hominiden Vorfahren in Afrika entwickelt. Bei einer Generationszeit von etwa 20-30 Jahren entspricht dies etwa 100 000-70 000 Generationen. Wenn also in diesem Zeitraum zufällig vorteilhafte Mutationen (A) in potenziell sparsamen Genen auftraten und diese Gene einen Selektionsvorteil von mehr als 0,1 % boten, dann wäre die Mehrheit dieser Gene (etwa 80 %) mit einer Prävalenz von >99 % fixiert. Die restlichen 20 % der Mutationen wären in den letzten 16 500 Generationen aufgetreten und hätten sich noch nicht auf >99 % Prävalenz erhöht. Wenn die Idee der sparsamen Gene richtig ist, müssten wir alle vorteilhafte Mutationen in sparsamen Genen geerbt haben, und wenn diese Mutationen Fettleibigkeit verursachen, wie die Hypothese nahelegt, müssten wir alle fettleibig sein. Doch selbst in den Vereinigten Staaten sind nur 20-30 % der Menschen fettleibig.26, 27 Tatsächlich sind 30 % der Amerikaner nicht einmal übergewichtig und nehmen nicht zu.28

Eine mögliche Lösung für dieses Problem mit der Sparsamkeitshypothese könnte darin bestehen, dass der Hunger ein Faktor war, der die Evolution der Sparsamkeitsgene für einen viel kürzeren Zeitraum vorantrieb. Die Befürworter der Sparsamkeitshypothese sind in dieser Frage geteilter Meinung. Chakravarthy und Booth12 vertreten den Standpunkt, dass die gesamte Selektion für sparsame Gene vor dem Neolithikum stattfand. Dies deckt sich mit der Aussage von Prentice16 , dass „Hungersnöte ein allgegenwärtiges Selektionsmerkmal menschlicher Populationen waren“. Prentice17 hingegen argumentiert, dass der Hunger erst seit der Entwicklung der Landwirtschaft vor 12 000 Jahren eine selektive Kraft ist. Wie oben ausgeführt, wären wir alle fett, wenn positive Selektion seit 70 000 bis 100 000 Generationen auf sparsame Gene gewirkt hätte. Was ist mit der alternativen Idee, dass der Hunger nur in den letzten 12 000 Jahren (400-600 Generationen) sparsame Gene selektiert hat? Jedes Gen, das nur einen Selektionsvorteil (k) von 0,001 bietet, hätte keine Chance, sich in diesem Zeitraum zu verbreiten: In diesem Fall wären wir alle dünn.

Eine andere Möglichkeit, dieses Problem zu betrachten, besteht darin, die Frage umzudrehen und zu fragen, welcher Selektionswert erforderlich wäre, damit sich ein Allel über 600 Generationen hinweg auf 30 % der Bevölkerung ausbreitet? (d. h., um bei 30 % der Individuen Fettleibigkeit zu erzeugen). Die Modellierung der Ausbreitung dominanter Allele legt nahe, dass k etwa 0,03 betragen müsste, um eine Allelverschiebung von 1 auf 30 % in 600 Generationen zu bewirken. Das heißt, ein Unterschied in der Überlebensrate oder Fruchtbarkeit von 3 % zwischen homozygoten oder heterozygoten Trägern des A-Allels und homozygoten aa-Trägern in jeder Generation. Im weiteren Verlauf dieses Artikels werde ich darlegen, dass der Unterschied im Überleben oder in der Fruchtbarkeit pro Generation zwischen fettleibigen und nicht fettleibigen Personen als Folge einer Hungersnot nicht ausreicht, um den beobachteten genetischen Hintergrund der aktuellen Epidemie zu erzeugen.

Perioden der Ernährungsunsicherheit sind relativ häufig und traten historisch gesehen etwa einmal pro Jahrzehnt auf.29, 30 Diese Perioden ohne Sterblichkeit sind jedoch für die genetische Selektion unwichtig. Hungersnöte mit hoher Sterblichkeit sind relativ selten. Demografischen Erhebungen zufolge treten Hungersnöte etwa alle 150 Jahre auf (Dupaquier31 und Ho32), also etwa alle 5-7 Generationen. Wenn Hungersnöte die Selektionskraft darstellen würden, müsste bei jeder Hungersnot die Sterblichkeitsdifferenz zwischen den A- und A-Allelträgern etwa 5-7 mal höher sein als der kritische k-Wert pro Generation von 0,03. Der Unterschied in der Sterblichkeit zwischen fettleibigen (AA- oder Aa-Allel-Trägern) und mageren (aa-Allel-Trägern) während einer Hungersnot müsste zwischen 15 und 21 % betragen.

Es wird häufig behauptet, dass die Sterblichkeit bei Hungersnöten zwischen 20 und 60 % liegt. Schätzungen der Auswirkungen von Hungersnöten auf die Sterblichkeit werden jedoch routinemäßig übertrieben, oft durch Verwechslung der Sterblichkeitseffekte mit der Auswanderung. Jüngere Hungersnöte, bei denen bessere Aufzeichnungen geführt wurden, deuten darauf hin, dass die Sterblichkeit während selbst lang anhaltender, mehrjähriger Hungersnöte in der Regel selten 10 % der Bevölkerung übersteigt (siehe Referenzen Speakman22, 23). Abbildung 1a zeigt beispielsweise die Sterblichkeit während der chinesischen Hungersnot des „Großen Sprungs nach vorn“ zwischen 1958 und 1960 in den sechs Bezirken um WuHu in Anhui.33 Diese Daten sind besonders nützlich, weil die Beschränkungen der Freizügigkeit während dieser Hungersnot bedeuten, dass die Sterblichkeit nicht mit der Auswanderung verwechselt wird. Die Gesamtsterblichkeit in den beiden wichtigsten Hungerjahren (1959 und 1960) betrug 12,1 %, aber die Sterblichkeit vor und nach der Hungersnot lag im Durchschnitt bei 1,2 % pro Jahr, so dass insgesamt 9,7 % direkt auf die Hungersnot zurückzuführen sein könnten. Für viele Hungersnöte liegen Aufzeichnungen vor, und es zeigt sich ein ähnliches Muster. Die gemeldete Sterblichkeitsrate (5-12 %) liegt unter dem für die Selektion auf sparsame Gene erforderlichen Anstieg der Sterblichkeit um 15-21 %.

Abbildung 1

Jährliche Sterblichkeit (a) und Geburtenraten (b) in WuHu, Provinz AnHui, China zwischen 1956 und 1965. Die durch den Balken dargestellte Hungersnot des „großen Sprungs nach vorn“ begann Mitte 1958 und dauerte bis Ende 1960. Die Daten stammen aus den Tabellen in St. Clair et al.33

Obwohl die Sterblichkeitsraten in Hungersnöten nicht hoch genug erscheinen, um nach sparsamen Genen zu selektieren, ist der Unterschied zwischen der beobachteten Sterblichkeit während Hungersnöten von 5-12 % und der erforderlichen Sterblichkeit zwischen Trägern und Nicht-Trägern des sparsamen Genotyps von 15-21 % nicht sehr groß und liegt vielleicht innerhalb des Fehlerbereichs dieser beiden Zahlen. Wenn wir jedoch die großzügige Annahme treffen, dass diese Zahlen tatsächlich übereinstimmen, müsste die gesamte Sterblichkeit während der Hungersnöte auf die Träger des nicht sparsamen aa-Allels entfallen. Alle fettleibigen Personen, die die sparsamen Genotypen Aa oder AA tragen, müssten von jeglicher Sterblichkeit verschont bleiben. Die Sparsamkeitsgen-Hypothese besagt, dass die Träger der „Sparsamkeitsgene“ überleben, weil sie zwischen den Hungersnöten Fett einlagern. Daraus folgt, dass der Hauptgrund für die Hungersnotsterblichkeit das Aufbrauchen der Energiereserven ist, d. h. das Verhungern, und dass fettere Menschen ihre Reserven langsamer aufbrauchen. Aufzeichnungen über die Sterblichkeit bei Hungersnöten zeigen jedoch eindeutig, dass die Mehrheit der Menschen bei den meisten Hungersnöten nicht verhungert (siehe z. B. die Referenzen 34, 35, 36, 37). Es gibt einige wenige Ausnahmen, bei denen der Hungertod die Haupttodesursache ist, aber das scheinen ungewöhnliche Hungersnöte auf kleinen Inseln zu sein.38 Die meisten Menschen sterben bei den meisten Hungersnöten an Krankheiten, insbesondere an Cholera und Typhus sowie an Durchfallerkrankungen.

Die Ursachen für die Hungertodesfälle sind vorhersehbar komplex. Ein wichtiger Faktor, warum Menschen während einer Hungersnot an diesen Krankheiten und Störungen erkranken, ist jedoch, dass sie hungern und dadurch gezwungen sind, bei der Auswahl ihrer Nahrungsmittel katastrophale Entscheidungen zu treffen. Die Menschen essen routinemäßig Aas und verwesende Leichen, und diese Gewohnheiten erhöhen die Wahrscheinlichkeit von Magen-Darm-Problemen wie Durchfall erheblich. Die sanitären Verhältnisse sind allgemein schlecht, und die Wasserversorgung ist häufig verseucht. Dies führt zu Bedingungen, unter denen sich Cholera39 und Typhus ausbreiten. Auch Masern und Typhus (z. B. Raoult et al.40) sind unter den Opfern der Hungersnot weit verbreitet. In Anbetracht der Gründe, warum die meisten Menschen in Hungersnöten sterben, erscheint es unwahrscheinlich, dass diese Sterblichkeitsrate vollständig auf ursprünglich magere Personen ausgerichtet ist und die fettleibigen völlig verschont bleiben.

Es könnte argumentiert werden, dass die Sterblichkeitsrate trotz der Tatsache, dass die eigentliche Todesursache normalerweise eine Krankheit ist, dennoch auf magere Personen ausgerichtet sein könnte. Dies liegt daran, dass magere Menschen dem Hungertod näher sind und daher in ihrer Verzweiflung möglicherweise schlechtere Lebensmittel auswählen, und dass sie ein schwächeres Immunsystem haben, das sie anfälliger für Krankheiten macht. Einiges spricht für diesen Standpunkt, denn starke Auszehrung ist ein Prädiktor für das Krankheitsrisiko und die Sterblichkeit von Hungeropfern (Lindtjorn et al.41 und Collins und Myatt42). Der Body-Mass-Index (BMI) ist kein guter Prädiktor für das Sterberisiko, da Hungerödeme den BMI oft in die Höhe treiben.42

Wie die Auszehrung mit dem ursprünglichen Körpergewicht oder der Fettleibigkeit zusammenhängt, bleibt jedoch unklar – und Faktoren wie Alter, sozialer Status, Geschlecht und Aggressionswettkampf sind möglicherweise wichtigere Faktoren für die Auszehrung als der ursprüngliche Körperzustand (z. B. die Berechtigungshypothese für die Hungermortalität; Sen43). Leider liegen uns keine Daten über eine Population von Personen vor, deren Körperfettgehalt (oder sogar BMI) vor einer Hungersnot gemessen wurde, und auch keine Angaben darüber, wie sich diese Unterschiede auf das Überleben in einer Hungersnot auswirken. Wir verfügen jedoch über zahlreiche Daten über Todesfälle während einer Hungersnot, und die Muster wiederholen sich bei fast allen Hungersnöten, für die wir Daten haben. Bei den Menschen, die sterben, handelt es sich um Kinder unter 10 Jahren und um ältere Menschen über 40 Jahren.44, 45, 46, 47 Was die über 40-Jährigen betrifft, so haben sie in den meisten Fällen ihre Gene bereits weitergegeben; daher könnte ihre Sterblichkeit nur indirekte Auswirkungen haben, indem sie vielleicht die Sterblichkeitswahrscheinlichkeit ihrer Kinder oder Enkelkinder beeinflusst, weil es keine erweiterte Betreuung gibt. Darüber hinaus kann die Sterblichkeit bei Kindern unter 10 Jahren nicht zu Gunsten der Schlanken gegenüber den Fettleibigen beeinflusst worden sein, da Fettleibigkeit im Kindesalter bis vor kurzem in allen Bevölkerungen praktisch unbekannt war.

Zusammenfassung der Auswirkungen von Sparsamkeitsgenen auf die Sterblichkeit

Zusammenfassend lässt sich sagen, dass, wenn man die von Prentice17 vertretene Position einnimmt, dass die Selektion zugunsten von Sparsamkeitsgenen erst in den letzten 12 000 Jahren stattgefunden hat, die Höhe der Sterblichkeit während der Hungersnöte und die Demografie dieser Sterblichkeit keine ausreichende Selektionskraft bieten, um die Verbreitung von Sparsamkeitsgenen in 30 % der Bevölkerung zu begünstigen. Somit bleiben uns mehrere Alternativen. Erstens könnte der Vorschlag von Chakravarthy und Booth12 , dass Hungersnöte bis zu den Anfängen der Gattung Homo zurückreichen, richtig sein, aber in diesem Fall hätten wir alle Sparsamkeit in unseren Genen und wären alle fettleibig – was wir offensichtlich nicht sind – geerbt. Zweitens ist die Sterblichkeit während Hungersnöten vielleicht nicht der entscheidende Faktor. Die Fettleibigen sterben vielleicht nicht häufiger bei Hungersnöten, aber sie können sich weiter fortpflanzen und haben dadurch einen Fruchtbarkeitsvorteil. Drittens könnte die ganze Idee falsch sein, und die genetische Grundlage der Adipositas-Epidemie könnte auf einen völlig anderen Prozess zurückzuführen sein. Für diese dritte Möglichkeit habe ich bereits an anderer Stelle argumentiert.24 Zum Abschluss dieses Beitrags werde ich die alternative Vermutung prüfen, dass die Unterschiede in der Fruchtbarkeit zwischen fettleibigen und mageren Menschen während einer Hungersnot den Selektionsdruck für sparsame Gene auslösen, und dann den zuvor vorgestellten alternativen Prozess näher erläutern.

Hunger und Fruchtbarkeit

Die Vermutung, dass fettleibige Menschen während einer Hungersnot eine höhere Fruchtbarkeit bewahren, hat viel für sich. Es wird angenommen, dass der Körperfettanteil wichtige Auswirkungen auf die Fortpflanzungsfunktion hat und dass die Fortpflanzungsfunktionen abgeschaltet werden, wenn der Körperfettanteil unter ein kritisches Niveau fällt.48, 49, 50 Übergewichtige Menschen, die in eine Hungersnot geraten, würden diesen Schwellenwert für eine dauerhafte Fortpflanzungsfähigkeit theoretisch später erreichen und folglich die Fruchtbarkeit länger erhalten. Die Beweise dafür, dass Hungersnöte tiefgreifende Auswirkungen auf die Fruchtbarkeit haben, sind viel stärker als die oben zusammengefassten schwachen Beweise für die Auswirkungen auf die Sterblichkeit. Abbildung 1b zeigt beispielsweise die Fruchtbarkeit während der Hungersnot des „Großen Sprungs nach vorn“ in China für dasselbe Gebiet wie die Sterblichkeitsstatistiken in Abbildung 1a.33 Die Geburtenrate vor der Hungersnot in den Jahren 1956-1958 lag im Durchschnitt bei 36 Geburten pro 1000 Menschen, aber während der Hungerjahre 1959 und 1960 und dem darauf folgenden Jahr 1961 fiel sie auf 21,0, 8,6 bzw. 11,1 Geburten pro 1000 Menschen (im Durchschnitt nur etwa 13 Geburten pro 1000 Menschen). Diese Geburtenrate liegt um 60 % unter derjenigen vor der Hungersnot. Wenn diese Fruchtbarkeit auf Individuen ausgerichtet war, die vor der Hungersnot fettleibig waren, hätten die fettleibigen Träger eines sparsamen A-Allels leicht einen ausreichenden Selektionsvorteil für die Ausbreitung der sparsamen Gene in den 10 000 Jahren seit Beginn der Landwirtschaft (k=0,15-0,21).

Es gibt jedoch ein Problem mit dieser Berechnung. Nach der Hungersnot kehrt die Geburtenrate nicht auf den Stand vor der Hungersnot von 36 Geburten pro Jahr zurück, sondern springt auf etwa 50 Geburten pro Jahr an, und diese erhöhte Rate bleibt mindestens für die vier Jahre erhalten, für die St. Clair et al. Aufzeichnungen vorlegen.33 Dieser Rebound-Effekt nach der Hungersnot gleicht die geringere Fruchtbarkeit während der Hungerjahre vollständig aus. Betrachtet man ein Fenster durchschnittlicher Fruchtbarkeit, das den Zeitraum der Hungersnot und die Jahre unmittelbar nach der Hungersnot umfasst, so ist die Auswirkung der Hungersnot auf die Fruchtbarkeit praktisch gleich Null. Im Fall der Hungersnot in WuHu (Abbildung 1b) lag die durchschnittliche Fruchtbarkeit zwischen 1956 und 1958 bei 35,6 Geburten pro Jahr und 1000 Einwohner und zwischen 1959 und 1965 bei 34,8 (t=0,1, P=0,92). Dabei könnte es sich um einen Einzelfall handeln, bei dem der veränderte Lebensstil der Bevölkerung im Laufe der Zeit zu höheren Geburtenraten führte, aber Studien über verschiedene Hungersnöte zeigen ähnliche Auswirkungen. So zeigen beispielsweise die Einberufungsraten 18-jähriger Männer aus Familien mit handwerklichen Berufen in die niederländische Armee 18 Jahre nach der niederländischen Winterhungersnot von 1944-1945 (Abbildung 2) einen Einbruch der Rekrutierung, der einem Rückgang der Empfängnisraten während der Hungersnot entspricht, gefolgt von einem Anstieg der Rekrutierung in der Zeit unmittelbar nach der Hungersnot.51 Diese Veränderungen wurden in den angrenzenden Gebieten des Landes, die nicht von der Hungersnot betroffen waren, nicht beobachtet (Abbildung 2). Der Nettoeffekt der Hungersnot, bei dem nicht nur der Rückgang der Fruchtbarkeit während der Hungersnot, sondern auch die Erholung nach der Hungersnot berücksichtigt wird, ist wiederum praktisch gleich Null. Die geringen Unterschiede in der Gesamtfruchtbarkeit, selbst wenn sie zu fettleibigen Menschen tendieren, reichen nicht aus, um die Hypothese des sparsamen Gens zu retten.

Abbildung 2

Anzahl der Rekruten in der niederländischen Armee im Alter von 18 Jahren im Verhältnis zum Geburtsmonat, aus einem Gebiet, das der niederländischen Winterhungersnot ausgesetzt war (gefüllte Kreise) und einem Gebiet, das von der Hungersnot verschont blieb (offene Kreise). Die durch den Balken gekennzeichnete Hungersnot begann im November 1944 und dauerte bis Mai 1945. Die Daten wurden aus den Diagrammen in Stein interpoliert.51

Es gibt mehrere weitere Probleme mit dem Argument der Fruchtbarkeit. Es gibt Hinweise darauf, dass der Stimulus, der zur Abschaltung des Fortpflanzungssystems führt, nicht der absolute Körperfettanteil ist, sondern die unmittelbare Erfahrung des Energieungleichgewichts und des intrazellulären Brennstoffoxidationsstatus.52, 53 Hungrige Unfruchtbarkeit betrifft daher wahrscheinlich fettleibige Menschen genauso wie schlanke, da beide einem starken negativen Energieungleichgewicht ausgesetzt sind. Darüber hinaus spiegelt der Rückgang der Fortpflanzungsaktivität zum Teil auch die veränderten sozialen Bedingungen wider. So werden beispielsweise Paare während Hungersnöten häufig für längere Zeit getrennt, weil ein Partner auf Nahrungssuche geht. Es ist unwahrscheinlich, dass diese sozialen Faktoren in Bezug auf die Körperkondition verzerrt sind. Darüber hinaus gibt es Hinweise darauf, dass sich Fettleibigkeit sowohl bei Tiermodellen54 als auch beim Menschen negativ auf die Fortpflanzungsleistung auswirkt.55, 56, 57, 58 Selbst wenn es während Hungersnöten eine Verzerrung der Fruchtbarkeit zugunsten fettleibiger Individuen gäbe, würde dies wahrscheinlich durch die nachteiligen Auswirkungen der Fettleibigkeit zwischen den Hungersnöten, die sich über viel längere Zeiträume erstrecken, ausgeglichen.

Wir wollen jedoch annehmen, dass ich mich irre. Nehmen wir an, dass Hungersnöte die Selektion von sparsamen Genen verursacht haben und meine Interpretationen der Niveaus und Muster der Sterblichkeit und Fruchtbarkeit bei Hungersnöten fehlerhaft sind. Wie könnten wir diese Idee direkt überprüfen? Die einfachste Möglichkeit, die Hypothese der „sparsamen Gene“ zu testen, besteht darin, das Ausmaß der Fettleibigkeit in den Bevölkerungen in den Zeiträumen zwischen den Hungersnöten zu untersuchen. Wenn es eine Selektion für „sparsame Gene“ gegeben hat, dann muss eine Bevölkerung, die diese Gene trägt, zwischen den Hungersnöten fettleibig werden. Wenn sie keinen fettleibigen Phänotyp aufweisen, dann ist es unmöglich zu erkennen, wie sie einen Vorteil aus ihrem sparsamen Genotyp ziehen könnten. Der Vorteil von sparsamen Genen in allen bisher veröffentlichten Formulierungen der Hypothese ist, dass Individuen zwischen Hungersnöten fett werden.

Ich habe bereits einige Daten über den Körperzustand moderner Jäger und Sammler und Subsistenzlandwirte zusammengefasst (z. B. Referenzen59, 60, 61, 62, 63), die zeigen, dass diese Menschen zwischen Hungersnöten nicht fett werden.22, 23 Man könnte jedoch argumentieren, dass dies die falschen Populationen sind, um sie zu untersuchen, weil diese Gesellschaften nie eine organisierte Landwirtschaft entwickelt haben und daher nie „echten Hungersnöten“ im eigentlichen Sinne ausgesetzt waren.17 Das Fehlen einer Zunahme der Fettleibigkeit in diesen Populationen könnte daher tatsächlich die Interpretation unterstützen, dass Hungersnöte und die Selektion von sparsamen Genen nur in den letzten 12 000 Jahren in Gesellschaften aufgetreten sind, die Landwirtschaft entwickelt haben. Untersucht man jedoch das historische Niveau der Fettleibigkeit (vor der jüngsten Epidemie) in Gesellschaften, die Landwirtschaft entwickelt haben, während der Zeit zwischen den Hungersnöten, so findet man das gleiche Muster. In den Vereinigten Staaten beispielsweise lag die Fettleibigkeit in den späten 1890er Jahren nur bei etwa 3 %,64 und doch hatten diese Bevölkerungen seit 1816 keine Hungersnot mehr erlebt – genug Zeit für diejenigen, die einen sparsamen Genotyp aufweisen, ihre Gene zu nutzen, um einen beträchtlichen Fettspeicher anzulegen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.