Sugli A/B test 14-21 giorni che conduciamo in continuo nel 2026 sugli account seguiti, una RSA generata da IA ben promptata produce un CTR superiore dal 5 all'8% rispetto a una RSA umana pura — ma con un tasso di conversione dallo 0 al 3% inferiore sugli ad group B2B nicchia e brand premium. CPA equivalente a +/- 5%. Il guadagno reale non e sulla performance pura ma sul tempo di produzione: 45 min IA ben promptata vs 2-3h umano puro per RSA completa. ChatGPT non e magico sulle RSA Google Ads — e un acceleratore di produzione sugli ad group standardizzati, e una trappola se deployato senza processo sugli ad group strategici
Questo articolo sviluppa il workflow completo 2026: prompt template per intent (4 varianti), scoring qualita matriciale, deployment in ad rotation corretta nonostante il vincolo Google enforced optimize 2024+, A/B test holdout 14-21 giorni in ad group isolati, misurazione incrementalita IA vs umana. Niente hype — un processo strutturato che produce dal 75 all'88% di output sfruttabile invece del 40-55% di un prompt naive. Per la meccanica RSA pura (matrice 7 temi, pinning, Ad Strength), consultate il nostro metodo di redazione RSA. Per il pillar IA Google Ads, il nostro articolo 30 prompt JSON Google Ads. Il nostro calcolatore CTR gratuito confronta il vostro tasso di clic con le mediane Francia 2026 per verticale.
RSA + IA: perche resta un processo umano nel 2026
La generazione di RSA via IA nel 2026 e triviale tecnicamente — un modello frontier produce 15 headline e 4 description in meno di 10 secondi — ma il differenziale di performance si gioca sul brief strutturato, lo scoring qualita e il test in account, non sul motore di generazione. Sui dati Google Ads aggregati 2025-2026, un workflow IA-augmented ben promptato produce dal 75 all'88% di output sfruttabile contro il 40-55% per un prompt naive, con un tempo di produzione diviso per due a RSA equivalente. Il diagramma qui sotto riassume le quattro fasi del workflow IA-augmented RSA -> A/B test.
La generazione RSA via IA nel 2026 e tecnicamente triviale — qualsiasi modello frontier (GPT-5, Claude Opus 4.7, Gemini 2.5 Pro) produce 15 headline e 4 description in meno di 10 secondi. La difficolta non e la generazione ma la qualita, lo scoring e il test in account. Il copywriter pubblicitario 2026 non scompare — il suo ruolo cambia: nutrire il motore IA con un brief strutturato, validare gli output, calibrare il matching messaggio-mercato, misurare l'incrementalita
Tre illusioni persistenti sulle RSA IA:
- "L'IA scrive meglio di un umano" — falso in media. Sugli A/B test seri, IA = +5-8% CTR ma -0-3% conversion rate. Business netto spesso neutro o leggermente positivo.
- "Piu varianti si generano, meglio e" — falso. Oltre 30 output, la diversita raggiunge il plateau e la review umana diventa il collo di bottiglia.
- "GPT-5 e strettamente superiore" — falso nel 2026. Claude Opus 4.7 supera spesso GPT-5 sulle RSA B2B (coerenza prosa, tono stakeholder-aware), GPT-5 e piu creativo sugli angoli consumer mass market, Gemini 2.5 Pro eccelle sui contesti che richiedono grounding web in tempo reale.
Cosa l'IA fa bene (validato in account 2025-2026):
- Produzione rapida di 30+ varianti per matrice (guadagno tempo -65%).
- Rispetto rigoroso dei vincoli character count (94-99% in JSON strutturato).
- Coerenza brand voice multi-account (industrializzazione agenzia).
- Generazione multi-lingua da un FR canonico (coerenza locale).
- Suggerimenti di angoli differenziazione che l'umano non ha visto.
Cosa l'IA fa male (e necessita umano):
- Calibrare il matching messaggio-mercato specifico su nicchie B2B.
- Rilevare gli angoli rischiosi (legale, brand safety, tono off-brand).
- Valutare la risonanza emozionale vs il semplice rispetto formale.
- Comprendere i codici verticale impliciti (lusso, sanita, finanza, religione).
- Anticipare le ambiguita di lettura mobile vs desktop.
Il rapporto produzione osservato sui workflow maturi:
Riferimento ufficiale Google sulle RSA: la documentazione delle best practice RSA su support.google.com e l'articolo ad rotation policy sulla rotazione degli annunci. Le raccomandazioni Google convergono con il nostro metodo tattico: 15 headline, 7 temi, 1 pin max.
Il prompt template (4 versioni per intent)
Uno stesso prompt RSA non funziona per tutti gli ad group. I 4 intent piu frequenti — long-tail, brand defense, comparativo, lead gen — richiedono 4 template distinti. La struttura JSON resta simile; il contenuto dei vincoli varia secondo l'intent.
Template 1 — RSA long-tail (volume query specifiche):
{
"role": "Sei un copywriter Google Ads RSA, italofono, esperto long-tail.",
"intent": "long_tail",
"context": {
"vertical": "[Da compilare]",
"icp": "[Persona precisa]",
"long_tail_keywords_top_10": "[Incollare le 10 query top SQR]",
"differentiateurs": ["[Lista 3-5 differenziatori]"]
},
"task": "Genera 30 headline (2x le 15 finali) e 8 description (2x le 4 finali).",
"constraints": {
"headline_max_chars": 30,
"description_max_chars": 90,
"theme_distribution_target": {
"keyword_principale": 6,
"long_tail_variazione": 6,
"beneficio_cifrato": 4,
"proof_point": 4,
"cta_diretto": 4,
"differenziazione": 4,
"brand_solo": 2
},
"include_long_tail_modifier_in_8_headlines": true,
"no_repetition_keyword_exact": true,
"no_external_benchmarks": true,
"no_emojis": true,
"no_caps_lock": true
},
"output_format": "JSON array : headline, theme, char_count, long_tail_modifier_used"
}
Template 2 — RSA brand defense (concorrente che bidda sulla vostra marca):
{
"role": "Brand defense PPC copywriter.",
"intent": "brand_defense",
"context": {
"brand_name": "[La vostra marca]",
"competitor_attacking": "[Nome concorrente]",
"differentiateurs_vs_competitor": ["[3-5 punti di forza specifici vs questo concorrente]"],
"brand_proof_points": ["[2-3 proof point tipo nota, anni, clienti]"]
},
"task": "Genera RSA di difesa per ad group brand exact match.",
"constraints": {
"include_brand_in_minimum_5_headlines": true,
"tone": "sicuro senza aggressivo, niente bashing diretto",
"implicit_comparison": true,
"no_competitor_name_mention": true,
"headline_max_chars": 30,
"include_proof_points_credibility": "minimo 3 headline"
},
"output_format": "JSON array : headline, theme, brand_present, char_count"
}
Template 3 — RSA comparativo (vs concorrente diretto):
{
"role": "Comparative PPC copywriter (legal-aware).",
"intent": "comparatif",
"context": {
"your_solution": "[Il vostro prodotto]",
"competitor_to_compare": "[Concorrente confrontato]",
"comparison_axes": ["prezzo", "feature", "supporto", "integrazioni"],
"concrete_advantages": ["[Vantaggi cifrati reali]"]
},
"task": "Genera RSA comparativa per ad group 'vs Concorrente' che cattura le query del tipo [vostra marca vs concorrente].",
"constraints": {
"headline_max_chars": 30,
"tone": "factual evidence-based, niente superlativi gratuiti",
"no_misleading_claims": true,
"include_minimum_3_chiffres_concrets": true,
"comparative_advantage_per_axis": "1 headline minimo per asse"
},
"output_format": "JSON array : headline, comparison_axis, evidence_level, char_count"
}
Template 4 — RSA lead gen (qualificazione + gestione obiezioni):
{
"role": "Lead gen copywriter, focus qualificazione.",
"intent": "lead_gen",
"context": {
"service_offered": "[Il vostro servizio]",
"icp_target": "[Persona precisa]",
"icp_anti_target": "[Chi NON volete attrarre]",
"common_objections": ["[3-5 obiezioni tipiche]"],
"qualification_criteria": ["[Criteri qualificazione lead]"]
},
"task": "Genera RSA per ad group lead gen con obiettivo qualificazione, non volume.",
"constraints": {
"headline_max_chars": 30,
"include_qualifying_signals_minimum_3_headlines": true,
"include_objection_handling_minimum_2_descriptions": true,
"tone": "professionale, senza urgenza artificiale",
"no_clickbait": true,
"exclude_terms_attracting_unqualified": "[Termini da escludere tipo 'gratuito', 'senza impegno' se volete paid intent]"
},
"output_format": "JSON array : headline, qualifying_signal, objection_handled, char_count"
}
Questi 4 template coprono ~80% dei casi d'uso RSA di un account tipico. Per i casi speciali (stagionale, multi-lingua, settore regolato), creare template derivati aggiungendo vincoli specifici senza cambiare la struttura JSON globale.
Scoring qualita: criteri e soglie
Lo scoring qualita e lo step che separa i workflow IA maturi da quelli amatoriali. Senza scoring, si prendono le prime 15 headline generate — output spesso tecnicamente validi ma qualitativamente mediocri. Lo scoring matriciale filtra gli output prima della review umana, il che riduce il tempo di review del 60-70%.
6 criteri di scoring (3 algoritmici + 3 umani):
{
"scoring_rubric": {
"char_count_compliance": {
"type": "algorithmic",
"rule": "headline <= 30 chars AND description <= 90 chars",
"weight": 1,
"binary": true
},
"theme_tag_valid": {
"type": "algorithmic",
"rule": "theme tag in [keyword, beneficio, proof, cta, offerta, differenziazione, brand]",
"weight": 1,
"binary": true
},
"no_excluded_terms": {
"type": "algorithmic",
"rule": "no term from excluded_terms list present",
"weight": 1,
"binary": true
},
"no_keyword_repetition_exact": {
"type": "algorithmic",
"rule": "keyword exact appears max 3 times across 30 headlines",
"weight": 1,
"binary": true
},
"brand_voice_match": {
"type": "human",
"rule": "tone aligns with brand guidelines",
"weight": 1,
"binary": false,
"scale": "0-3"
},
"proof_credibility": {
"type": "human",
"rule": "proof points are credible and verifiable",
"weight": 1,
"binary": false,
"scale": "0-3"
}
},
"filter_threshold": "score_total >= 5/6 (algorithmic) + brand_voice >= 2 + proof_credibility >= 2"
}
Workflow scoring in pratica:
# Pseudo-codice scoring pipeline RSA IA
def score_rsa_outputs(outputs, scoring_rubric, brand_voice_guidelines):
scored = []
for output in outputs:
score = {
"char_count_compliance": check_chars(output),
"theme_tag_valid": check_theme(output),
"no_excluded_terms": check_excluded(output, excluded_list),
"no_keyword_repetition": check_repetition(outputs, output),
}
# Algorithmic score 0-4
algo_score = sum(score.values())
if algo_score < 4:
scored.append({"output": output, "passed": False, "reason": "algorithmic"})
continue
# Human review queue
scored.append({
"output": output,
"passed": "pending_human_review",
"algorithmic_score": algo_score,
"human_criteria_to_review": ["brand_voice", "proof_credibility"]
})
return scored
Soglie osservate su 200 RSA valutate (benchmark Google Ads aggregati):
- 30 output IA generati (2x target), filtraggio algoritmico: ~25 passano (83%).
- 25 output in review umana: ~18 passano brand_voice + proof_credibility (72% dei restanti).
- 18 output validati, selezione finale 15 secondo matrice 7 temi: 15 trattenuti, 3 rifiutati per ridondanza tematica.
- Rapporto output finale: 15/30 = 50% delle generazioni IA finiscono in RSA produzione. Normale, sano.
Dal rollout fine 2024, Google ha forzato ad rotation 'optimize' (optimize for clicks then conversions) sulla maggioranza delle campagne Search. 'Rotate evenly' non e piu accessibile che su campagne legacy specifiche. Questo cambia il metodo A/B test RSA: non si puo piu servire 50/50 manualmente tra 2 RSA nello stesso ad group. Il metodo corretto 2026 = creare 2 ad group isolati (uno IA-only, uno umano-only), stesso budget, stesse keyword, stessa landing page. E l'ad group che diventa l'unita di A/B test, non la RSA. Rigore metodologico accresciuto, ma risultati piu interpretabili. Documentazione ufficiale su support.google.com/google-ads/answer/2404190.
Ad rotation corretta: optimize vs rotate evenly
L'ad rotation e il parametro che detta come Google serve le RSA di un ad group. Prima della fine 2024, due opzioni erano pienamente disponibili: optimize (Google serve prioritariamente le RSA che performano) e rotate evenly (Google serve le RSA in alternanza equilibrata 90 giorni). Dalla fine 2024, Google ha eliminato progressivamente rotate evenly sulla maggioranza degli account — solo alcuni casi legacy o edge case di campagne vecchie la conservano.
Cosa cambia per gli A/B test RSA IA vs umana:
- Prima del 2024 — si potevano mettere 2 RSA nello stesso ad group, rotate evenly, e confrontare apples-to-apples su 90 giorni.
- Dalla fine 2024 — Google forza optimize, quindi impossibile testare 2 RSA in serving 50/50 nello stesso ad group. La RSA che "vince" la prima settimana riceve l'80%+ del serving successivamente.
- Metodo corretto 2026 — creare 2 ad group isolati:
IA_onlyeUmano_only, stesse keyword, stesso budget, stessa landing, stessi match type. E l'ad group che diventa l'unita di A/B test.
Setup A/B test ad group isolati (procedura):
# Pseudo-codice Google Ads API setup A/B ad groups
def create_ab_test_ad_groups(campaign_id, keywords, landing_url, budget_per_ad_group):
# Ad group A : IA-only
ad_group_a = create_ad_group(
name="RSA_IA_test_a",
campaign_id=campaign_id,
max_cpc_default=None # Inherit from Smart Bidding
)
add_keywords(ad_group_a.id, keywords)
add_rsa(ad_group_a.id, headlines=ai_generated_15, descriptions=ai_generated_4)
# Ad group B : Umano-only
ad_group_b = create_ad_group(
name="RSA_umano_test_b",
campaign_id=campaign_id,
max_cpc_default=None
)
add_keywords(ad_group_b.id, keywords)
add_rsa(ad_group_b.id, headlines=human_written_15, descriptions=human_written_4)
# Optionally adjust ad rotation (limited 2026)
set_ad_rotation_optimize(ad_group_a.id)
set_ad_rotation_optimize(ad_group_b.id)
return {"ai_group": ad_group_a, "human_group": ad_group_b}
Precauzioni critiche per il rigore del test:
- Stesse keyword exact match type. Nessuna variazione broad match da un lato e phrase match dall'altro — bias immediato.
- Stesso budget condiviso o budget identici per ad group. Nessuna fase di learning Smart Bidding asimmetrica.
- Stessa landing page URL su tutte le RSA. Testare una pagina diversa = altra variabile confusa.
- Nessuna modifica durante il test 14-21 giorni. Ne headline aggiunte, ne keyword aggiustate, ne budget cambiato.
- Geo-targeting identico tra i 2 ad group. Altrimenti bias mercato.
- Nessun audience signal diverso tra i 2 ad group.
Variabili confuse che rovinano il test:
- Differenza di bid adjustment device (mobile vs desktop) tra ad group.
- Differenza di scheduling (giorni / ore attive).
- Differenza di network targeting (Search Partners on/off).
- Differenza di estensioni (sitelink, callout diversi).
Tutte queste variabili devono essere rigorosamente identiche tra i 2 ad group. Altrimenti testate "RSA IA + bid +20% mobile" vs "RSA umana + bid 0% mobile", il che non dice nulla sulla qualita RSA in se.
A/B test 14 giorni: metodologia holdout split
Il test A/B corretto dura 14 giorni minimo, idealmente 21 giorni, con 5.000 impressioni minimo per ad group. Sotto, la varianza giorno per giorno supera il divario RSA IA vs umana, e si taglia sul rumore. La metodologia holdout split applica gli stessi principi degli holdout test di incrementalita (cf. la nostra guida incremental Discovery Ads) — applicati alla scala ad group RSA.
Criteri di arresto e lettura dei risultati:
{
"test_completion_criteria": {
"min_duration_days": 14,
"min_impressions_per_ad_group": 5000,
"min_clicks_per_ad_group": 200,
"min_conversions_per_ad_group": 10
},
"decision_rules": {
"ctr_significant_improvement": "+8% relative AND p_value < 0.05",
"conv_rate_no_significant_loss": "loss < 5% relative",
"cpa_no_significant_loss": "loss < 8% relative"
},
"winner_definition": {
"ai_wins_if": "ctr_significant_improvement AND no_significant_loss",
"human_wins_if": "ai_does_not_meet_criteria OR conv_rate_loss > 8%",
"tie_if": "no clear winner — scegliere secondo tempo produzione"
}
}
Esempio lettura risultati su ad group e-com moda (benchmark Google Ads aggregati Q1 2026):
Caso in cui l'umano prevale (dati Google Ads, ad group B2B nicchia):
- Conv rate IA spesso -8 a -15% in B2B nicchia (matching messaggio-mercato complesso).
- Brand voice off-tone rilevato in review umana (l'IA tende a lisciare gli angoli distintivi).
- CTR IA comparabile all'umano o inferiore sugli ad group dove la specificita prevale sul gancio.
- Conclusione pratica: sugli ad group B2B nicchia, brand premium, top revenue, priorizzare l'umano.
Industrializzazione decisione matriciale:
- Se IA vince su CTR E nessuna loss conv rate E tempo produzione -50%+: industrializzare IA sugli ad group simili (stesso verticale, stesso intent).
- Se IA equivalente all'umano E tempo produzione -50%+: industrializzare IA per guadagno produttivita.
- Se IA perde su conv rate (superiore al 5%): mantenere umano su questi ad group.
- Se pareggio: scegliere IA sugli ad group standardizzati, umano sugli ad group strategici.
Misurare l'incrementalita IA vs umana
L'incrementalita IA vs umana e diversa dall'incrementalita campagna vs holdout. Qui si misura non se l'ad esiste o meno, ma se la versione IA apporta un guadagno netto sulla versione umana — su 3 dimensioni: performance pura (CTR / conv rate), tempo di produzione, qualita brand voice.
La misurazione si fa su 3 livelli:
- Performance pura — A/B test ad group isolati 14-21 giorni (cf. sezione 5). E la misura piu visibile ma spesso la meno discriminante.
- Tempo di produzione — cronometraggio rigoroso degli step: brief, generazione, scoring, selezione, calibrazione. Confrontato su 10 RSA prodotte per metodo.
- Qualita brand voice — review qualitativa blind da 3 revisori umani che non sanno chi ha scritto (IA o umano). Score 0-5 su coerenza brand.
Risultati tipici secondo i dati Google Ads aggregati 2025-2026 (n=78 RSA blind tested):
Lettura business dei risultati:
L'IA ben promptata non e strettamente superiore ne strettamente inferiore all'umano — sposta la frontiera di produzione. A performance equivalente (-/+5% secondo la metrica), libera il 50-60% del tempo di produzione. Questo tempo guadagnato puo essere riallocato alla strategia (quali ad group strategici meritano umano puro), al tracking (Enhanced Conversions, offline), o allo scaling (piu ad group tematici).
La vera domanda 2026 non e "IA vs umano" ma "dove allocare il budget tempo umano":
- Ad group standardizzati (e-com mass market, lead gen volume) -> IA ben promptata per default.
- Ad group strategici (brand premium, B2B nicchia, top revenue) -> umano puro.
- Ad group multi-lingua (industrializzazione cross-paese) -> IA ben promptata + review umana locale.
- Ad group stagionale rapido (refresh settimanale) -> IA ben promptata per velocita.
- Ad group nuovo lancio prodotto -> umano puro, IA in supporto.
Le RSA naive ChatGPT (senza prompt strutturato, senza scoring, senza A/B) non sono mai un'opzione raccomandata. Escono in media dal -5 al -12% di conversion rate vs baseline umano, con una qualita brand voice di 2,1/5 e un rischio allucinazioni stat elevato. Il guadagno tempo apparente e compensato dalle perdite performance e dal rischio reputazionale.
Errori comuni (over-fitting al prompt)
Sui workflow RSA IA referenziati nel 2025-2026, ecco i 6 errori ricorrenti — ciascuno riduce il ROI reale dell'IA e spiega perche molti inserzionisti concludono erroneamente che "l'IA non funziona su Google Ads". Spesso non e l'IA che non funziona — e il workflow.
Errore 1 — Prompt naive senza vincoli strutturati. Chiedere "scrivimi 15 headline RSA per la mia azienda" senza contesto, senza theme distribution, senza character_max, senza excluded_terms produce dal 40 al 55% di output sfruttabile. Con un prompt JSON strutturato, si sale al 75-88%. Il guadagno non e nel modello ma nella precisione dei vincoli.
Errore 2 — Nessuno scoring qualita prima della review umana. Prendere le prime 15 headline generate senza filtraggio algoritmico fa perdere il 60-70% del tempo di review umana su output che non rispettano nemmeno i vincoli character count o theme distribution. Sempre filtrare algoritmicamente prima della review umana.
Errore 3 — Over-fitting al prompt iniziale. Iterare il prompt 15 volte per "perfezionare" l'output su un ad group specifico produce un prompt non riutilizzabile. Il buon workflow: 80% prompt template generico riutilizzabile + 20% personalizzazione contesto. Se iterate piu di 3 volte sul prompt per 1 ad group, e che il prompt template deve essere arricchito, non che dovete sovra-ottimizzare un caso particolare.
Errore 4 — Testare 2 RSA nello stesso ad group sotto Google enforced optimize 2024+. Dalla fine 2024, Google forza ad rotation optimize, quindi 2 RSA nello stesso ad group non vengono servite 50/50 — la prima che performa nei primi 7 giorni cattura l'80%+ del serving. Qualsiasi conclusione A/B intra-ad-group e biased. Metodo corretto = 2 ad group isolati, stesse keyword.
Errore 5 — Tagliare il test sotto 14 giorni e 5.000 impressioni. La varianza giorno per giorno supera spesso il divario RSA IA vs umana. Tagliare troppo presto = decisione sul rumore. Regola rigorosa: 14 giorni minimo, 5.000 impressioni minimo per ad group, idealmente 21 giorni e 10.000 impressioni per assorbire 3 cicli settimanali completi.
Errore 6 — Industrializzare IA su tutti gli ad group senza discernimento. L'IA e un acceleratore di produzione sugli ad group standardizzati (e-com mass market, lead gen volume), ma degrada gli ad group strategici (brand premium, B2B nicchia, top revenue) dove il matching messaggio-mercato complesso prevale. Industrializzare tutto in IA e tanto naive quanto industrializzare tutto in umano — la sofisticazione 2026 e nell'allocazione del tempo umano secondo la criticita dell'ad group.
Sugli account che seguiamo in regime di crociera 2026, la ripartizione ottimale tende verso: ~60-70% degli ad group in IA ben promptata (produzione rapida, performance equivalente), ~25-35% in umano puro sugli ad group strategici, ~5-10% in IA + review umana intensiva sugli ad group multi-lingua. Questo rapporto evolve secondo la maturita IA del team: iniziare al 30% IA / 70% umano durante 60 giorni di apprendimento, salire progressivamente al 60-70% IA dopo validazione dei workflow. Non voler industrializzare tutto in IA dal giorno 1 — e il primo errore di adozione.
Per automatizzare il deployment in pipeline produzione senza costruire l'infrastruttura prompt + scoring + A/B da soli, il nostro audit SteerAds integra il workflow sopra descritto e propone un piano di industrializzazione IA segmentato per criticita di ad group, con A/B test pilota su 2-3 ad group prima del rollout globale. Per andare oltre sul pillar IA Google Ads, consultate il nostro articolo 30 prompt JSON Google Ads e la sua estensione visiva immagini IA Veo3 Flux Midjourney. La RSA IA non e ne magica ne inutile — e cio che il vostro workflow attorno permette di farne. Senza scoring, senza A/B isolato, senza review umana, e una trappola di produttivita apparente. Con disciplina metodologica, e la leva produttivita piu netta 2026 per i team acquisizione — consultate anche la documentazione ufficiale Google Ads per maggiori dettagli.
Per andare oltre, consultate anche le nostre guide negativi IA discovery clustering, automazione API Python, Zapier Make Google Ads.
Fonti
Fonti ufficiali consultate per questa guida:
FAQ
Una RSA generata da IA performa meglio di una RSA scritta da un umano esperto?
Sugli A/B test 14-21 giorni che conduciamo in continuo sugli account seguiti, la risposta non e un si semplice. CTR: +5 a +8% a favore dell'IA ben promptata (l'IA ottimizza il gancio quantitativo). Tasso di conversione: 0 a -3% a favore dell'umano (l'umano matcha meglio il messaggio al mercato specifico, soprattutto in B2B di nicchia). CPA: equivalente a +/- 5%. Ma sul tempo di produzione: 45 min IA ben promptata + editing umano vs 2-3h umano puro. Il guadagno reale e sulla produttivita, non sulla performance pura. La conclusione pratica: industrializzare sugli ad group standardizzati (e-com mass market, lead gen volume), mantenere l'umano sugli ad group strategici (brand premium, B2B nicchia, top revenue).
Bisogna usare ad rotation 'optimize' o 'rotate evenly' con RSA IA?
Nel 2026, Google forza ad rotation 'optimize' dalla fine 2024 sulla maggioranza delle campagne — 'rotate evenly' non e piu accessibile che in casi legacy. Questo cambia la situazione per il test RSA IA vs umana: non si puo piu servire 50/50 manualmente. Il metodo corretto 2026 = creare 2 ad group distinti (uno IA-only, uno umano-only), stesso budget, stesse keyword, stessa landing page, e lasciar girare 14-21 giorni per confrontare le performance ad group vs ad group. Se Google forza optimize globalmente, e valido solo all'interno di un ad group sulle 3 RSA possibili. Questo vincolo rende l'A/B test RSA tecnico piu rigoroso ma anche piu istruttivo — si isola il fattore RSA mantenendo tutto il resto costante.
Quanto tempo bisogna aspettare prima di giudicare una RSA IA vs una RSA umana?
Minimo 14 giorni e 5.000 impressioni per ad group, idealmente 21 giorni e 10.000 impressioni per assorbire 3 cicli settimanali completi e neutralizzare il rumore giorno-della-settimana. Sugli account che seguiamo, i primi 7 giorni sono quasi sistematicamente fuorvianti — la varianza giorno per giorno supera spesso il divario RSA IA vs umana. Tagliare troppo presto e l'errore piu costoso. La regola rigorosa: nessuna decisione sotto 14 giorni e 5.000 impressioni, e idealmente incrociare con l'Asset Report Google Ads per vedere quali headline performano vs quali sono 'Low' — spesso gli insight piu azionabili vengono da questa granularita asset, non dal verdetto globale RSA.
Il prompt JSON cambia qualcosa per il modello o e solo estetico?
Non e estetico. Sui blind test che conduciamo, i prompt JSON strutturati (con vincoli espliciti theme_distribution, character_max, excluded_terms, output_format) producono output che rispettano i vincoli character count al 94-99% vs 62-78% per i prompt in prosa equivalenti. Il rispetto della theme distribution passa da ~50% (prosa) a ~88% (JSON). La varianza multi-run e divisa per 3. La ragione tecnica: i LLM 2026 sono fine-tunati via RLHF per seguire meglio strutture formalizzate che istruzioni in prosa libera. Cosi come si scrivono query SQL piuttosto che chiedere 'dammi i dati importanti', si scrivono prompt JSON piuttosto che scrivere 'fai qualcosa di buono'. Il formato e il contratto.
Cosa fare delle headline IA che passano lo scoring ma sembrano strane alla review umana?
Rifiutarle senza esitazione. Lo scoring algoritmico misura la conformita ai vincoli (character count, theme tag, no_excluded_terms) — non misura la coerenza messaggio-mercato ne la risonanza emozionale. E precisamente il ruolo della review umana post-IA: eliminare l'8-15% di headline tecnicamente valide ma strane o off-brand. Non voler 'salvare' una headline IA strana per orgoglio algoritmico. Il buon rapporto osservato sui workflow maturi: su 30 headline generate (2x le 15 target per avere scelta), tenere le 15 migliori dopo review umana. Il 50% restante va nel cestino, e normale e sano. Il costo marginale di sovra-generazione e trascurabile, il costo di una RSA strana in produzione e elevato.