Gesundheitswesen 2011; 73(12): 923-924
DOI: 10.1055/s-0031-1291199
Directed Acyclic Graphs
© Georg Thieme Verlag KG Stuttgart · New York

Anmerkungen zur Verwendung von DAGs in der Epidemiologie und ein Hinweis auf eine alternative Methode

A Note on the Applications of DAGs in Epidemiology and a Hint to an Alternative Method
R. Steyer
1   Lehrstuhl für Methodenlehre und Evaluationsforschung, Institut für Psychologie, der Universität Jena
› Author Affiliations
Further Information

Publication History

Publication Date:
22 December 2011 (online)

Für die sehr anregenden und interessanten Beiträge möchte ich mich bei den Autoren bedanken. Besonders faszinierend finde ich, dass man bei Vorliegen eines komplett spezifizierten DAGs minimal suffiziente Mengen potenzieller Confounder identifizieren kann, die bei einer Adjustierung zur Schätzung kausaler Effekte berücksichtigt werden müssen. Ich kenne derzeit keine andere Theorie, die dazu in Lage wäre, meine eigene Theorie kausaler Effekte [1], hier mit TCE abgekürzt, eingeschlossen.

Bei aller Euphorie möchte ich jedoch zu bedenken geben, dass mit einer Anwendung dieser Theorie in der epidemiologischen Forschung große Gefahren verbunden sein können. Nach über 30 Jahren Beschäftigung mit kausalen Effekten weiß ich, wie schwierig es ist, auch nur eine einzige kausale Beziehung zwischen 2 Variablen abzusichern, es sei denn, man kann eine randomisierte kontrollierte Studie (RCT) mit einer großen Stichprobe durchführen. Was für Judea Pearl, einem der bekanntesten Vertreter des DAG-Ansatzes, in den Computerwissenschaften selbstverständlich und einfach ist, nämlich eine kausale Beziehung zwischen einigen, meist relativ wenigen Variablen aufzuschreiben, die man selbst, z. B. in einer Simulationsstudie erzeugt hat, erweist sich in den Bio-, Sozial- und Verhaltenswissenschaften als eine riesige Hürde und äußerst fehleranfällig. Das viel beschworene inhaltliche Wissen ist, so fürchte ich, meist nicht vorhanden oder fehlerhaft, da es oft auf schlecht geplanten und falsch ausgewerteten Studien beruht, die sich darüber hinaus oft auch auf unterschiedliche Sachverhalte (Designs, study bases) beziehen, selbst dann, wenn die dort betrachteten Variablen gleich benannt werden. Eine einzige nicht bedachte und nicht entdeckte Fehlspezifikation kann dazu führen, dass man eben doch die falsche Menge von Kovariaten zur Adjustierung heranzieht und damit wieder zu falschen kausalen Schlüssen kommt. Sicherlich kann man hier mit Sensitivitätsanalysen gegensteuern. Aber ist die Vorstellung, dass man eine vollständige und korrekte Theorie der kausalen Abhängigkeiten zwischen allen Kovariaten haben könnte, wirklich realistisch?

Was ist die Alternative? Die konservative, und nicht ganz befriedigende Antwort ist, dass man sich, wenn möglich, auf randomisierte kontrollierte Studien (RCTs) stützt, zumindest dann, wenn es um die Frage nach dem totalen Effekt einer Exposition oder einer Behandlung geht. Natürlich ist dies, gerade in der Epidemiologie meist nicht möglich. Auch ist der Befund der Vertreter des DAG-Ansatzes richtig, dass es durchaus sein kann, dass man mit der Adjustierung bzgl. einer vermeintlich konfundierenden Variablen erst eine Verfälschung einführen kann. Abgesehen vom RCT und von einem kompletten Wissen über die kausalen Abhängigkeiten aller Kovariaten, wie sie die DAGs voraussetzen, gibt es gegen diese Gefahr kein 100%iges Heilmittel.

Allerdings liefert die TCE nicht nur präzise mathematische Definitionen durchschnittlicher und ­bedingter totaler, direkter und indirekter Effekte einer Exposition, sondern sie enthält auch eine Reihe von Bedingungen, Kausalitätsbedingungen genannt, die Unverfälschtheit implizieren. (Dieser Begriff wird dort definiert.) Einige dieser Kausalitätsbedingungen sind auch empirisch ­falsifizierbar. Alle werden mithilfe der globalen ­Kovariaten C X formuliert (zur Definition siehe ­Steyer [2]). Sind Z=(Z 1, …, Z m ) und Z* Kovariaten (und daher Abbildungen von C X ), X die Exposi­tionsvariable und Y die Outcomevariable, so ­impliziert bspw. die erste Kausalitätsbedingung,

P(X=x | Z, C X )=P(X=x | Z )>0 (CC1)
für jeden Wert x von X,

die bedingte Unabhängigkeit P(X=x | Z, Z*) = P(X=x | Z ) für jeden Wert x von X. Diese erste Kausalitätsbedingung besteht also aus der Annahme der Z-bedingten Unabhängigkeit der Treat­mentvariablen X und der globalen Kovariate C X sowie der common support-Bedingung P(X=x | Z )>0. Die von CC1 implizierte Z-bedingte Unabhängigkeit von X und Z* kann leicht empirisch falsifiziert werden. Gelingt deren Falsifikation, so kann man wiede­rum auf die Falschheit der Kausalitätsbedingung (1) schließen, womit auch die Annahme der Unverfälschtheit der betrachteten Regression E(Y | X, Z ) in Frage steht, unter deren Voraussetzung man den kausalen Effekt von X auf Y ausrechnen kann (etwas ausführlicher siehe Steyer et al. [1] [3], sowie mit Beweisen Steyer et al. [2]). Erst wenn man nach vielen gescheiterten Falsifika­tionsversuchen mit verschiedenen Kovariaten Z* immer wieder findet P(X=x | Z, Z*)=P(X=x | Z ), kann man einigermaßen zuversichtlich sein, dass auch die Kausalitätsbedingung CC1 für die gewählte (m-­dimensionale) Kovariate Z richtig ist. Eine 100%ige Sicherheit liefert diese so skizzierte Forschungsstrategie allerdings auch nicht.

Entsprechendes gilt auch für die zweite Kausalitätsbedingung,

E(Y | X, Z, C X )=E(Y | X, Z) und P(X=x | Z)>0 (CC2)
für jeden Wert x von X.

Diese Bedingung besteht also aus der Annahme der (X, Z)-­bedingten regressiven Unabhängigkeit der Outcomevariablen Y von der globalen Kovariaten C X und der common support-Bedingung P(X=x | Z )>0. Auch die Bedingung CC2, die ebenfalls die Unverfälschtheit von E(Y | X, Z ) impliziert, kann man dadurch falsifizieren, dass man E(Y | X, Z, Z*)≠E(Y | X, Z ) nachweist. Gelingt dieser Nachweis nicht, so kann man – bis auf Weiteres – davon ausgehen, dass CC2 und damit die Unverfälschtheit der Regression E(Y | X, Z ) gilt.

Die damit angedeutete Forschungsstrategie garantiert zwar nicht, dass man immer die richtige Menge von Kovariaten im Vektor Z=(Z 1, …, Z m ) findet bzgl. derer zu adjustieren ist, aber ich glaube, dass diese Strategie im Endeffekt weniger fehleranfällig ist, als die von Vertretern des DAG-Ansatzes favorisierte, die auf einem perfekten kausalen Modell über alle relevanten Kovariaten beruht. Die hier vorgeschlagene Strategie braucht weniger Annahmen, weniger Vorwissen und ist daher m. E. praxistauglicher.

Ein weiterer, ganz anderer Punkt, ist die Öffnung des Blicks von durchschnittlichen totalen Expositionseffekten, wie man sie auch im RCT schätzen würde, auf bedingte Effekte. Eine Einengung des Blicks auf durchschnittliche totale Expositionseffekte ist gerade im medizinischen Bereich problematisch, da man fast immer davon ausgehen muss, dass Effekte für verschiedene Personen mit unterschiedlicher Konstitution verschieden sind. Ins Blickfeld zu rücken sind also bedingte totale Expositionseffekte gegeben die Ausprägung(en) einer oder mehrerer Kovariaten, wobei als Kovariaten nicht nur Alter, Geschlecht und Gewicht, sondern auch differenziertere Personenmerkmale in Betracht kommen, die an physiologisch relevanten Prozessen orientiert sind. Die Kernfrage ist: Was wirkt bei wem in welchem Ausmaß? (Ich spreche hier von totalen Expositionseffekten, weil die TCE immer auch solche Variablen im Blick hat, die nicht explizit genannt werden. Mediatorvariablen bspw. vermitteln Effekte auch dann, wenn sie nicht im DAG vorkommen, genauso wie Kovariaten auch dann die Selektion in eine der Expositionsbedingungen steuern, wenn sie nicht explizit im DAG erwähnt werden.)

Neben den bisher überwiegend betrachteten totalen Effekten sollten auch direkte und indirekte Effekte betrachtet werden. Totale Effekte sind wichtig und entscheidend für den Gesamtnutzen, aber sie lassen die Frage nach vermittelnden Prozessen außer Acht. Die entscheidende Frage ist nun: Was wirkt bei wem auf welche Weise in welchem Ausmaß? Will man also wissen, auf welche Weise etwas wirkt, so muss man direkte und indirekte Effekte bezüglich interessierender Mediatorvariablen untersuchen. Eine typische Frage nach direkten und indirekten Effekten ist, ob ein beobachtbarer (durchschnittlicher) totaler Effekt einer Impfung auf die Gesundung durch (ein geeignetes Maß M für die) Antikörper vermittelt wird, oder ob es darüber hinausgehende direkte Effekte der Impfung gibt, die nicht durch M vermittelt werden. Es liegt auf der Hand, dass ein Verständnis der vermittelnden Prozesse für die Weiterentwicklung von medizinischem Wissen und die Entwicklung neuer Behandlungsmethoden von großem Nutzen sein kann.

Zum besseren Verständnis sei nachgetragen, dass sich alle Aussagen der TCE auf eine theoretische Ebene beziehen. Im Gegensatz zur Stichprobenebene ist dies die adäquate Ebene zur Definition kausaler Effekte und zur Formulierung von Bedingungen, unter denen diese durch empirisch schätzbare Größen [z. B. ­bedingte Erwartungswerte E(Y | X=x, Z=z) und Regressionen E(Y | X, Z )] identifiziert (berechnet) werden können. Es geht also in der TCE nicht um Abhängigkeiten, wie sie in einer Stichprobe vorliegen, sondern um solche Abhängigkeiten, die man mithilfe einer Stichprobe schätzen und testen will.

Da nur die Ebene einer realisierten Stichprobe mit den dann vorliegenden Daten direkt sichtbar ist, hat die theoretische Ebene, oft auch Populationsebene genannt, schon immer zu Verständnisproblemen geführt. Begriffe, die auf der Populationsebene definiert werden, wie Wahrscheinlichkeit, Erwartungswert, Regression usw. sind nicht in einem wörtlichen Sinn „begreifbar“. Es sind theoretische Größen, die nur indirekt (etwa durch rela­tive Häufigkeiten, Mittelwerte und geschätzte Regression) in sehr großen (genau genommen, in unendlich großen) Stichproben sichtbar gemacht werden können. Da Wahrscheinlichkeiten, Erwartungswerte und Regressionen (auf der Populationsebene!) verfälscht sein können, kommt in der Kausalitätstheorie nun eine zweite, von der bekannten Populationsebene zu unterscheidende, theoretische Ebene hinzu, auf der die verschiedenen kausalen Effekte definiert werden. Diese kommt dadurch zustande, dass wir neben den üblichen Kovariaten, Treatment-, Outcome- und intermediären Variablen auch die globale Kovariate C X betrachten, die es ermöglicht kausale Effekte zu definieren. In den einfachsten Fällen ist die Personvariable U, deren Wert die jeweils gezogene Person u ist, zugleich die globale Kovariate. Sind z. B. auf der Personebene (allgemeiner: unter Konstanthaltung der globalen Kovariate) die Treatmenteffekte definiert, können sie dann durch die Betrachtung von bedingten und unbedingten Erwartungswerten zu bedingten und durchschnittlichen kausalen Effekten aggregiert werden. Kausale Inferenz bezieht sich nun gerade auf die mathematischen Beziehungen zwischen der bekannten Populationsebene und den so definierten kausalen Effekten. Bezeichnen wir die bekannte Populationsebene als erste und die mithilfe der globalen Kovariaten (Personvariablen) definierten kausalen Effekte als zweite verborgene Wirklichkeit, dann haben wir es nun also mit 2 verborgenen Wirklichkeiten zu tun. Während wir uns bisher mit der Erforschung der ersten verborgenen Wirklichkeit (der bekannten Populationsebene) befasst und dabei viele Schätz- und Testprobleme gelöst haben, stehen wir nun gerade am Anfang einer Entwicklung, in der es um die Erforschung der zweiten verborgenen Wirklichkeit geht. Wir ahnen, dass erst deren Verständnis uns wirklich adäquates Kausalwissen bringen wird, das wir im täglichen Handeln, Entscheiden und Folgeneinschätzen so dringend benötigen.

 
  • Literatur

  • 1 Steyer R, Fiege C, Mayer A. Total, direct and indirect Effects. In: Michalos AC. Hrsg Encyclopedia of Quality of Life Research. New York: Springer; (in Druck)
  • 2 Steyer R, Partchev I, Kröhne U et al. Probability and Causality 1. Springer (in Druck)
  • 3 Steyer R, Mayer A, Fiege C. Causal inference. In: Michalos AC. Hrsg Encyclopedia of Quality of Life Research. New York: Springer; (in Druck)