Blog
Digital Marketing

Come fare A/B test su una landing page: guida pratica per non sprecare traffico

Guida pratica agli A/B test per landing page: cosa testare, come strutturare un test corretto, strumenti disponibili e gli errori che invalidano i risultati.

6 minTeam Sydus22 febbraio 2026

L'A/B test è lo strumento con cui si trasformano le intuizioni sul comportamento degli utenti in evidenza empirica. La premessa è semplice: mostrare due versioni diverse di una pagina a segmenti casuali del traffico, misurare quale converte meglio, e adottare la vincente. In pratica, la maggior parte dei test vengono eseguiti in modo da rendere i risultati inutilizzabili o, peggio, fuorvianti.

Questa guida copre i principi che rendono un test valido, non solo le istruzioni operative.

Perché le intuizioni non bastano

I product manager, i copywriter e i designer hanno opinioni forti su cosa funziona. Spesso sbagliano. Non perché siano incompetenti, ma perché il comportamento umano in contesti di acquisto o decision-making è controintuitivo e variabile per definizione.

Esempi documentati di risultati controintuitivi in A/B test:

  • Rimuovere il menu di navigazione aumenta la conversione (riduce le distrazioni)
  • Una headline più lunga e specifica può convertire meglio di una corta e generica
  • Il colore del pulsante CTA ha spesso un effetto minimo; il testo della CTA ha un effetto molto maggiore
  • Aggiungere un campo in più al form può aumentare la qualità dei lead senza abbassare il tasso di compilazione

Questi risultati non sono universali, ogni contesto è diverso. Ed è esattamente il punto: l'unico modo per sapere cosa funziona nel tuo contesto specifico è misurarlo.

Cosa testare prima

Non tutti gli elementi hanno lo stesso impatto potenziale. Iniziare dagli elementi con maggiore superficie di impatto:

1. Headline principale. È l'elemento che più influenza il comportamento immediato dei visitatori. Una headline problem-aware vs una feature-oriented, un angolo emotivo vs uno razionale, la menzione di un numero specifico: i test sulla headline tendono a produrre differenze significative.

2. CTA: testo e posizionamento. "Richiedi un preventivo" vs "Parla con un esperto" vs "Prenota una demo gratuita": piccole differenze nel testo cambiano la percezione del rischio e dell'impegno richiesto. Anche la posizione (above vs below the fold) è testabile.

3. Social proof. Logo dei clienti vs testimonianze vs numero di utenti: formati diversi di prova sociale hanno impatti diversi su audience diverse.

4. Lunghezza e struttura del form. Form con 3 campi vs form con 6 campi: l'impatto sul tasso di compilazione e sulla qualità dei lead è sempre un test valido.

5. Hero image o video. Prodotto in contesto reale vs mockup pulito, immagine vs video di presentazione.

Come strutturare un test corretto

Inizia con un'ipotesi esplicita. Un test senza ipotesi è un'esplorazione casuale. L'ipotesi deve specificare: cosa cambi, perché pensi che migliori la conversione, e di quanto ti aspetti che migliori. Esempio: "Cambiando la headline da 'Software CRM per PMI' a 'Chiudi il 30% di opportunità in più nei primi 90 giorni' mi aspetto un aumento del conversion rate di almeno il 15%, perché la nuova headline parla al beneficio concreto invece che alla categoria di prodotto."

Testa una variabile alla volta. Se cambi headline, immagine e CTA insieme, non sai cosa ha prodotto la differenza. I test multivariati (MVT) richiedono volumi molto più alti per essere conclusivi.

Calcola la durata prima di iniziare. Usa un calcolatore di dimensione del campione per stimare quante visite per variante servono per una significatività statistica dell'80-95%. Poi stima quanti giorni ci vogliono per raggiungerla con il traffico attuale. Non fermare il test prima.

Esegui il test per almeno un ciclo di 7 giorni completo. Il comportamento degli utenti varia tra i giorni della settimana. Un test iniziato lunedì e fermato giovedì ha visto solo traffico di inizio settimana.

Raggiungi la significatività prima di dichiarare un vincitore. La significatività statistica al 95% significa che c'è solo il 5% di probabilità che il risultato osservato sia casuale. Dichiarare un vincitore con il 70% di significatività porta spesso a implementare varianti che non funzionano davvero.

Strumenti disponibili

Google Analytics 4 + Looker Studio. GA4 non ha più una funzionalità di A/B test integrata (Google Optimize è stato dismesso nel 2023), ma è lo strumento base per misurare i conversion rate e segmentare il traffico.

VWO (Visual Website Optimizer). Piattaforma completa per A/B test, test multivariati, heatmap e session recording. Piano a pagamento, buona scelta per chi fa CRO in modo continuativo.

Optimizely. La scelta enterprise. Funzionalità avanzate, pricing elevato, adatto a team dedicati.

Convert.com. Alternativa a VWO, con buon rapporto qualità/prezzo per team medi.

Implementazione custom con feature flags. Per team con sviluppatori, strumenti come LaunchDarkly o un sistema di feature flags custom permettono di fare A/B test direttamente nel codice, senza dipendere da script JS di terze parti che appesantiscono la pagina.

Gli errori più comuni

Fermare il test troppo presto. Il "peeking problem": guardare i risultati intermedi e fermare il test quando si vede un risultato che piace porta a falsi positivi. La regola è: definisci il criterio di stop prima di iniziare (dimensione campione target o significatività target) e non deviare.

Campione troppo piccolo. Test fermati a 200 sessioni per variante producono risultati casuali spacciati per evidenza.

Troppi cambiamenti simultanei. Vedi sopra: testa una variabile alla volta.

Non considerare la stagionalità. Un test eseguito durante le ferie di agosto su un e-commerce B2B non è rappresentativo del traffico normale.

Ignorare i segmenti. Una variante può vincere in media ma perdere su mobile o tra le visite di ritorno. Analizzare i risultati per segmento rilevante (device, fonte di traffico, utenti nuovi vs ritorno) porta insight aggiuntivi.

Il CRO basato su A/B test è un processo lento ma affidabile. La pazienza necessaria a eseguire test corretti è l'investimento che separa chi ottimizza davvero da chi ottimizza in modo da sentirsi produttivo.

Tag

A/B-testCROlanding-pageGoogle-Optimize

Domande frequenti

Hai ancora dubbi?

Quante visite servono per un A/B test affidabile?

Dipende dal conversion rate attuale e dalla differenza minima rilevabile che vuoi misurare. Come regola pratica: con un conversion rate del 3% e l'obiettivo di rilevare un miglioramento del 20% (da 3% a 3,6%), servono circa 10.000-15.000 visitatori per variante per raggiungere una significatività statistica dell'80%. Con conversion rate più alti o differenze più grandi, la dimensione del campione necessaria scende. Strumenti come Evan Miller's Sample Size Calculator permettono di calcolare il numero esatto prima di iniziare.

Posso fare A/B test senza traffico alto?

Con meno di 1.000-2.000 visitatori al mese, un A/B test classico richiede mesi per avere risultati statisticamente significativi. In questo caso, alternative utili sono: test qualitativi (session recording, heatmap, interviste agli utenti), che non richiedono volumi ma forniscono insight profondi; test su elementi ad alto impatto (headline, CTA principale) dove le differenze tendono ad essere più grandi e più rapide da rilevare; o applicare best practice documentate invece di testare tutto da zero.

Cosa fare dopo aver trovato la variante vincente?

Implementare la variante vincente come versione di default per il 100% del traffico. Documentare l'ipotesi, il risultato e la dimensione dell'effetto in un log di test. Formulare la prossima ipotesi da testare basandosi su cosa ha funzionato. Non considerare il test come definitivo: le condizioni cambiano (traffico, stagionalità, mercato) e una variante vincente oggi potrebbe non esserlo tra sei mesi. Il CRO è un processo continuo, non un progetto con fine.