Leitfäden zum A/B-Testing
Praktische Leitfäden für bessere Experimente — von der Wahl des richtigen Tests bis zur Entscheidung, wann Sie stoppen sollten.
Den richtigen statistischen Test auswählen
Nicht sicher, ob Sie einen Z-Test, t-Test, Chi-Quadrat-Test oder etwas anderes verwenden sollten? Gehen Sie den Entscheidungsbaum basierend auf Ihrem Metriktyp durch, um den richtigen Ansatz zu finden.
Leitfaden lesen →Statistische Signifikanz bei A/B-Tests erklärt
Erfahren Sie, was statistische Signifikanz wirklich bedeutet, wie p-Werte funktionieren und warum ein 95 %-Konfidenzniveau nicht eine 95-prozentige Wahrscheinlichkeit bedeutet, richtig zu liegen.
Leitfaden lesen →Stichprobengröße bei A/B-Tests verstehen
Erfahren Sie, was die Stichprobengröße bestimmt, wie Basisraten und Effektgrößen zusammenwirken und welche häufigen Fehler zu unterpowerten Tests führen.
Leitfaden lesen →Wie lange sollte ein A/B-Test laufen?
Wandeln Sie die Stichprobengröße in Kalendertage um, berücksichtigen Sie Traffic-Volumen und -Zuweisung und verstehen Sie, warum Tests in vollständigen Wochenzyklen wichtig sind.
Leitfaden lesen →Wie Sie A/B-Testergebnisse analysieren
Schritt-für-Schritt-Anleitung zur korrekten Analyse von A/B-Testergebnissen: Signifikanz, Effektgröße, Konfidenzintervalle prüfen und die richtige Entscheidung treffen.
Leitfaden lesen →Bayesianisches vs. frequentistisches A/B-Testing
Vergleichen Sie die beiden wichtigsten statistischen Frameworks für A/B-Testing. Erfahren Sie, wann Sie welchen Ansatz verwenden und wie sie Ergebnisse unterschiedlich interpretieren.
Leitfaden lesen →Häufige Fehler beim A/B-Testing
Vermeiden Sie die häufigsten Fehler beim A/B-Testing: vorzeitiges Prüfen der Ergebnisse, unterpowerte Tests, falsche Metriken und mehr.
Leitfaden lesen →A/B-Testing für Websites mit wenig Traffic
So führen Sie aussagekräftige A/B-Tests mit begrenztem Traffic durch. Strategien für kleine Websites: größere Änderungen, bayesianische Methoden und angepasste Erwartungen.
Leitfaden lesen →