ABtesting.tools

Calculateur de test A/B de conversions

Question: Is there a statistically significant difference between my A/B test conversion rates?

Analysez les résultats de conversion de votre test A/B avec trois méthodes statistiques interchangeables : Z-test pour les proportions, test du Chi-Carré et test exact de Fisher. Entrez les visiteurs et conversions de chaque variante pour obtenir des résultats instantanés avec valeurs p, intervalles de confiance et visualisations de distribution.

Comment utiliser ce calculateur

Entrez le nombre de visiteurs et de conversions pour votre groupe de contrôle (A) et votre groupe variante (B). Sélectionnez le niveau de confiance souhaité (95 % est le standard de l'industrie) et indiquez si vous souhaitez un test unilateral ou bilateral. Les resultats se mettent a jour en temps reel au fur et a mesure que vous tapez — aucun clic sur un bouton n'est necessaire.

Comment fonctionnent les calculs

Ce calculateur propose trois méthodes pour comparer les taux de conversion. Le Z-test utilise le test z pour deux proportions, calculant la différence des proportions divisée par l'erreur standard combinée. Le test du Chi-Carré compare les fréquences observées et attendues dans un tableau de contingence. Le test exact de Fisher calcule la probabilité exacte pour les petits échantillons où les approximations peuvent être peu fiables. Les trois méthodes testent si la différence des taux de conversion est statistiquement significative.

Quand utiliser ce calculateur

Utilisez ce calculateur après avoir réalisé un test A/B pour determiner si la difference observee dans les taux de conversion est statistiquement significative ou si elle pourrait etre due au hasard. C'est l'analyse la plus courante pour les experiences marketing, les tests de fonctionnalites produit et l'optimisation de l'experience utilisateur.

Erreurs courantes en tests A/B

Les erreurs les plus courantes incluent la consultation des resultats avant d'atteindre la taille d'echantillon requise (ce qui gonfle le taux de faux positifs), la realisation de tests sous-puissants incapables de detecter des differences significatives, l'absence de correction pour les comparaisons multiples lors du test de plus de deux variantes, et l'arret premature des tests base sur des tendances initiales.