Ich muss nur 3 Abbildungen korrigieren und Korrektur lesen lassen, aber ich bekomme meinen Hintern echt nicht hoch...
Vor dem HEX
Nach dem HEX
Ich muss nur 3 Abbildungen korrigieren und Korrektur lesen lassen, aber ich bekomme meinen Hintern echt nicht hoch...
Wichtig ist vor allem, das Teil einmal komplett zu drucken und "analog" zu lesen. Ich war erstaunt, wie viele Fehler mir da plötzlich sofort ins Auge gesprungen sind, die mir beim digitalen Korrekturlesen des PDFs irgendwie immer entgangen waren. Außerdem unbedingt mal eine Woche Abstand nehmen, sich gar nicht damit beschäftigen, und dann noch einmal von Anfang bis Ende am Stück lesen. Da entdeckt man nochmal so einige Fehler, und vor allem fallen einem inhaltliche Probleme wie z.B. unklare Bezüge, Wortwiederholungen etc. auf.
Der letzte Korrekturdurchlauf ist zäh wie Kaugummi, da habe ich fast eine Woche für gebraucht und viel Nervennahrung benötigt. Irgendwann kann man die Doktorarbeit einfach nicht mehr sehen. Es bringt beim Korrekturlesen aber überhaupt gar nichts, die Sache mit Hochdruck beschleunigen zu wollen. Dann lieber jeden Tag ein paar wenige Seiten wirklich gewissenhaft durchgehen, bis irgendwann wieder ein Tag mit Drive kommt, an dem man mehr schafft.
Außerdem unbedingt Fehlersuchen nutzen, also z.B. nach doppelten Leerzeichen schauen. Da gibt es für Deutsch und Englisch Tabellen im Internet, was die häufigsten Tippfehler sind und mit welchen Suchabfragen man die rausfischen kann. Manuell prüfen muss man jeden Treffer dann natürlich trotzdem noch einmal.
Das was du im ersten Absatz schreibst, fand auch ich extrem hilfreich. Sowohl das mit dem Ausdrucken als auch das mit dem zeitlichen (und geistigen) Abstand. Hilft sehr!
Was ist nicht normalverteilt? Die Gruppen oder die Residuen?
Eine der Voraussetzungen der parametrischen Statistik ist die Normalverteilung der Residuen, nicht aber der Messwerte. Die ist aber per se gar nicht so entscheidend, weil der t-Test in Simulationsstudien relativ robust gegenüber Verletzungen dieser Voraussetzungen reagiert. Entscheidender ist damit das Kriterium der Varianzhomogenität zwischen den beiden Gruppen, da deren Verletzung viel stärker durchschlägt. Dies kann man aber durch Korrektur nach Welch-Satterthwaite umgehen. Wenn man sich die Verteilung ansieht, dann kann man immer auch erwägen die Variablen zu transformieren um damit die Normalverteilung der Residuen zu erreichen.
Normalverteilungstests sind letztlich eine Krücke, weil man die Grenzen der Tests kennen muss: Shapiro-Wilk ist vermutlich noch der Beste, aber extrem anfällig für Ausreißer und wird immer anschlagen, auch wenn bis auf den Ausreißer alle Residuals im QQ-Plot normalverteilt sind. Kolmogorow-Smirnow ist wenig trennscharf, genauso wenig wie Jarque-Bera und Lillefors und Anderson-Darling verlangt mehr als 8 Werte in der Gruppe.
Es ist jedenfalls die schlechteste Alternative direkt verteilungsfreie Tests zu verwenden, damit verliert man sehr viel Teststärke (wovon man bei n=6 ohnehin nicht viel hat). Eine andere, mathematisch anspruchsvollere, Variante wäre die Mittelwertsdifferenzen unter Anwendung von Resamplingverfahren zu bestimmen.
tl;dr: Das kann man ohne mehr Informationen nicht sagen. A-priori-Anwendung von nichtparametrischen Tests ist immer schlecht.
Zitat von Evil