Datenstand 10.04.2021:
Nach Meldedatum weiterhin fast keine Oster-Nachmeldungen. Nur die Korrekturen auf Erkrankungsdatum verschieben Fälle in die Osterzeit.
Datenstand 11.04.2021:
Mein Verdacht, dass es kaum Nachmeldungen für die Osterfeiertage geben wird, erhärtet sich immer mehr.
Gleichzeitig bedeutet es jedoch auch, dass die hohen Fallzahlen in dieser Woche bisher real und unverfälscht waren.
Datenstand 12.04.2021:
Sonntags ist in den Daten nie viel los, deswegen sind hier auch keine neuen Erkenntnisse zu gewinnen - mit einer Ausnahme: KW 14 wird wohl an den Nicht-Feiertagen etwas mehr Fälle als KW 12 gehabt haben.
Datenstand 13.04.2021:
Ich denke ich werde das Projekt jetzt noch bis Ende der Woche fortsetzen. Danach macht es - zumindest mit Blick auf #Ostern - kaum mehr Sinn.
Heute, wie schon gestern, wenig los in Sachen #Nachmeldungen. Das ist aber normal. Spannend wird es ab morgen.
Datenstand 14.04.2021:
Wird jetzt deutlich, dass das Wachstum nicht mehr bei 20 - 30% liegt. Trotzdem wachsen die Säulen weiter an.
Interessant: Keine neuen Fälle nach Erkrankungsdatum am 09. und 10.04. über ganz Deutschland?!
• • •
Missing some Tweet in this thread? You can try to
force a refresh
Ein durchaus interessantes und in mancherlei Hinsicht sehr kontraintuitives Paradoxon ist das Jevons-Paradoxon.
Ein Thread 💈
Das Jevons-Paradoxon beschreibt ein scheinbar widersprüchliches Phänomen:
Wenn Technologien effizienter werden und weniger Ressourcen verbrauchen, kann der Gesamtverbrauch steigen, anstatt zu sinken. Erfunden hat dieses Paradoxon der britische Ökonom William Stanley Jevons im 19. Jahrhundert.
Jevons entdeckte das Paradoxon, als er bemerkte, dass die Erfindung effizienterer Dampfmaschinen den Kohleverbrauch nicht reduzierte – im Gegenteil. #Kohle wurde so effizient genutzt, dass sie billiger und zugänglicher wurde, was den Verbrauch in die Höhe trieb.
Dieses Paradoxon begegnet uns im Alltag häufig, auch im Kontext von #Klimaschutz. Ein Beispiel ist die Außenbeleuchtung:
Durch energiesparende Leuchtmittel wie LEDs wird weniger Strom verbraucht. Aber anstatt weniger zu beleuchten, haben wir einfach mehr Lichtquellen installiert – das führt zu mehr #Lichtverschmutzung.
Ein oft viel diskutiertes Thema ist, wie Institutionen wie @CopernicusECMWF, @NASAGISS und Andere in der Lage sind die globale mittlere Oberflächentemperatur zu ermitteln. In diesem Kontext gibt es viele Fragen, die ich in diesem Thread zu beantworten versuche.
Als Grundlage dienen zwei international festgelegte Standards für alle offiziellen Temperaturmessungen:
- WMO-Normen (World Meteorological Organization): Die @WMO definiert spezifische Standards für die Platzierung von #Wetterstationen, die Art der verwendeten Thermometer, Kalibrierungsverfahren, Messintervall und Datenberichterstattung. Dies soll gewährleisten, dass die Daten international vergleichbar sind. Siehe
- @isostandards-Normen (International Organization for Standardization): Für spezifische Messgeräte und Kalibrierungsverfahren gibt es verschiedene ISO-Normen, wie z.B. ISO 17025 für die Kompetenz von Kalibrier- und Prüflaboratorien (). Die ISO 17714 wiederum ist eine Norm für Messung der Lufttemperatur im meteorologischen Umfeld ().wmo.int/about-us/gover… iso.org/standard/66912… iso.org/standard/31498…
Die globale Oberflächentemperatur wird durch ein Netzwerk von #Wetterstationen, #Satelliten, #Bojen und #Schiffsmessungen erfasst:
- Über 100.000 #Messstationen weltweit, von denen 17.500 vollwertige #Wetterstationen sind, stellen bis zu stündliche Messwerte parat. Die Temperaturen werden hier entsprechend des WMO-Standards entweder auf 1,5 m oder 2 m Höhe erfasst.
- Unterstützt werden diese durch rund 1.500 Bojen. Die meisten davon, rund 1.200 Bojen, sind als frei schwimmende Bojen konzipiert und driften durch die Weltmeere. Diese erfassen die Temperatur meist direkt über dem #Meeresspiegel.
- Zudem stellen etwa 4.000 Schiffe, die dem @WMO Voluntary Observing Ship Programme angehören, Temperaturdaten bereit, wenngleich diese hauptsächlich auf bekannten Schiffsrouten verkehren und die Flächenabdeckung dadurch limitiert ist. Hier ist die Messhöhe 10 m oder höher über dem Meeresspiegel.
- Der heutzutage aber wichtigste Beitrag zur Ermittlung der globalen Oberflächentemperatur findet durch ein breites Netz aus 9 geostationären und 12 polumlaufende Satelliten statt, die beständig die Erdoberfläche mit Radiometer und Spektrometer abtasten.
Beim Fortschreiten des Klimawandels zeigt sich ein faszinierendes psychologisches Phänomen: Menschen, die den menschgemachten #Klimawandel leugnen oder seine Auswirkungen bezweifeln, berufen sich oft auf ihre eigenen Erinnerungen an frühere Wetterereignisse. Gleichzeitig stoßen diese Aussagen bei Menschen, die sich für den #Klimaschutz einsetzen und auf wissenschaftliche Daten vertrauen, auf Unverständnis.
Ein Thread 💈
Ein gutes Beispiel dafür ist der folgende Tweet von Adrian Leyser @TheNimbus, der klarstellt, dass Tage mit Temperaturen über 30°C in Deutschland selten sind, aber in den letzten Jahrzehnten zunehmend häufiger auftreten. Diese Beobachtung wird durch meteorologische Daten unterstützt. Dennoch widersprachen viele, insbesondere ältere Menschen, dieser Aussage und erinnerten sich an regelmäßig heiße Sommer während ihrer Kindheit und Jugend.
Warum gibt es diese Diskrepanz zwischen gemessenen Daten und persönlichen Erinnerungen? Ein Grund liegt in der Funktionsweise unseres Gedächtnisses. Das menschliche Gehirn ist erstaunlich, aber es hat seine Grenzen, besonders wenn es um alltägliche Ereignisse wie das #Wetter geht. Studien zeigen, dass sich Menschen oft nicht genau an vergangene Ereignisse erinnern können. Stattdessen neigt das Gehirn dazu, Lücken zu füllen und Erinnerungen zu verzerren, was zu falschen oder ungenauen Erinnerungen führt.
Die @BILD macht mal wieder völlig banane Schlagzeilen. Die Journalisten können sich Sticheleien Richtung @Die_Gruenen nicht verkneifen und unterstellen der #LLM nicht neutral zu sein.
Hier mal ein eigener Test mit #ChatGPT und dem #Wahlomat.
Ein Thread💈
2/24
Durchgeführt wurde der Test mit #ChatGPT4o, der neusten Version.
In der Folge werde ich immer zwei Fragen und deren Antworten in einem Screenshot zusammenfassen. Zum Schluss dann die Auswertung.
1/14 In den Sozialen Medien geht derzeit eine Meldung des #CDC zu einem #PCR-Test stark viral und wird oft wegen mangelnder Englischkenntnisse (oder auch einfach mutwillig) falsch verstanden und zu Propaganda-Zwecken gegen das Testverfahren genutzt.
2/14 CDC entwickelte ein eigenes PCR-Test-Kit "CDC 2019-Novel Coronavirus (2019-nCoV) Real-Time RT-PCR Diagnostic Panel" im Januar 2020, dass am 03. Februar seine Notfallzulassung durch die FDA bekam und am 05. Februar schließlich an alle CDC- und private Labore verteilt wurde.
3/14 In den Sozialen Medien wird nun vielfach Drosten mit diesem Test in Verbindung gebracht. In den USA fand der PCR-Tests aber nicht Anwendung, der als Grundlage die Erkenntnisse aus dem Labor von Prof. Dr. Drosten nutzte. Das ist also falsch.
1/23 Vielleicht nochmal ein Versuch, die Sachlage um die #Inzidenz aufzuklären und warum die Änderungen vor wenigen Tagen seitens des #RKI häufig missverstanden wurden.
2/23 Um klarzumachen, wie das RKI die Inzidenz berechnet und was danach mit ihr passiert, will ich dazu eine Beispielrechnung an der 7-Tages-Inzidenz von heute machen, die auf dem Dashboard mit 132,8 angegeben ist.
Das RKI schaut sich an, wie viele #Fälle zum Zeitpunkt der Berechnung (alle 24 Stunden früh morgens um 3 Uhr herum) die Summe aller #Fallzahlen nach #Meldedatum der letzten 7 Tage waren.