ehem-user-02-08-2021-1033
Guest
Zitat von
Choranaptyxis
Wenn in Dtld aber immer mehr älter werden, müssten ja auch im Umkehrschluss weniger Jüngere sterben, was das ja ausgleichen sollte, oder?
Die Sterbewahrscheinlichkeit in einem Kalenderjahr für ein Individuum steht natürlich in Relation zum Alter.
Würde man z.B. eine Kohorte eines weltweiten gemeinsamen Geburtstages erfassen, dann könnte man hier einen Kaplan-Meier Plot zeichnen.
Man würde nun unabhängig von Pandemien sehen, dass nach z.B. 150 Jahren 0 % noch am Leben sind. Nach 100 Jahren z.B. 1 % (rein spekulative Zahlen).
Nun ist es so, dass wenn du 99 Jahre alt bist und bei 100 Jahren 1% noch Leben, aber bei 99 Jahren noch 2 % Leben, dann musst du davon ausgehen, dass dein relatives Risiko zu versterben 50 % beträgt.
Wir gehen aus der allgemeinen Lebenserfahrung davon aus, dass Alter das individuelle Sterberisiko zu jedem Zeitpunkt des Lebens erhöht. (Man könnte morgens Tod im Bett liegen z.B.)
Dem wird auch jeder zustimmen.
Daher bringt ein Wegfall von "Jungen" statistisch keinen Ausgleich bzgl. der Sterbefälle in einem Kalenderjahr.
Spannender als die Altersadjustierung ist die Mittelung der Vorwerte. Bis zu welchem Jahr vergleicht man die Sterbezahlen?
Es würde z.B. keinen Sinn machen sie mit 1945 zu vergleichen.
Ich stelle mir die Schlagzeile vor:
"Keine Übersterblichkeit, Sterberate 2021 wie 1945"
Im Artikel würde man dann biometrisch korrekt rechnerisch Nachweisen, dass die Raten gleich hoch wären.
Die Rechnung wäre dann sicher richtig, der Vergleich nur grob falsch.
Und das ist das Spannende:
Welcher Vergleich ist logisch sinnvoll?
Wann empfinden wir einen statistisch signifikanten Effekt klinisch relevant?