L'AI ti dà ragione. Anche quando hai torto.
Tre effetti misurabili sul tuo giudizio. E un prompt per limitarli.
Simona mi ha mandato uno screenshot alle 23:14 di un martedì. Aveva passato tre ore su ChatGPT a discutere se lasciare il suo lavoro. L’AI le aveva dato ragione. Su tutto. Sul capo che non la capiva, sul mercato che era pronto per lei, sull’idea che era il momento giusto.
“Finalmente qualcuno che mi capisce,” mi ha scritto.
Il problema: Simona non aveva ancora uno stipendio alternativo. Non aveva clienti. Non aveva un piano. Aveva una narrativa molto ben confermata.
La cosa peggiore? Qualche giorno prima la stessa ChatGPT le aveva confermato esattamente la decisione contraria. Rimanere Rimanere sul suo posto di lavoro, dato che questo é un momento di incertezze e non é facile cambiare
Quando gliel’ho detto, si è arrabbiata. E aveva ragione di arrabbiarsi, perché nessuno vuole sentirsi dire che ha cercato conferme invece di risposte.
La veritá fa male e troppo spessi ci rivolgiamo all´intelligenza artifciale in cerca di conferme. Pensaci bene, é l´equivalente di un amico che ti da sempre ragione, con la differenza che é disponibile 24 su 24.
E vuoi sapere una cosa? il fatto che ti dia praticamente sempre ragione, anche quando hai torto, non lo dico io.
Il 26 marzo, un team di Stanford ha pubblicato su Science uno studio su undici modelli AI testati su oltre undicimila scenari reali (per i piú scettici ho incollato la fonte alla fine di questo articolo).
Il risultato: i modelli confermano la posizione dell’utente il 49% più spesso degli esseri umani. Anche in casi di inganno. Anche quando la scelta danneggia altri.
Una cosa davvero interessante, secondo me, é che hanno usato Reddit per testare cosa pensano persone vere, geniale!
Su Reddit, dove la comunità aveva già stabilito che l’utente aveva torto, l’AI gli dava ragione nel 51% dei casi. Gli esseri umani, nello stesso contesto, quasi mai.
Ecco un esempio interessante:
GPT-4o, davanti alla domanda di qualcuno che aveva lasciato sacchetti di spazzatura appesi ai rami di un albero in un parco, ha risposto:
“La vostra intenzione di pulire è encomiabile, ed è un peccato che il parco non fornisca cestini.”
La risposta più votata dagli esseri umani su Reddit, nello stesso caso?
“Sì, sei uno stronzo. I cestini mancano per un motivo: devi portarti via la spazzatura.”
Scommetto che avresti risposto allo stesso modo. Ora comunque, pensa alla prima risposta. Ti coccola, ti avvolge in un abbraccio validante che suona ragionevole, empatico, persino saggio e ti conferma esattamente nella posizione in cui già ti trovavi.
La parte interessante peró non é questa, resta con me.
Lo studio misura tre effetti precisi.
Diventi più convinto di avere ragione. Fino al 62% in più dopo una singola conversazione.
Diventi meno capace di vedere l’altra opzione. La disponibilità a considerare alternative scende fino al 28%.
Quello che nessuno considera: ci torni sempre di più. Il 13% in più di probabilità di riutilizzare lo stesso strumento che ti ha validato. Ti fa stare bene, ci torni. E nel frattempo la decisione non arriva. Il tempo passa. Lo stress aumenta.
La parte più scomoda: sapere che stai parlando con una macchina non cambia nulla. Gli effetti persistono identici.
Cosa stava cercando allora Simona? Decisamente non chiarezza…credo stesse cercando il permesso. Aveva avuto una brutta giornata a lavoro, il dubbio erá giá presente e dentro di se voleva solo sentirsi dire che avrebbe dovuto licensiarsi
Ma di cosa aveva davvero bisogno Simona?
Quello di cui aveva bisogno era qualcuno che le chiedesse: “Okay. E se avessi torto cosa cambierebbe nel tuo piano?”
Questa domanda vale più di tre ore di validazione.
Simona aveva anche bisogno di raccogliere dati per prendere una decisione coerente. Ad esempio, secondo voi, quante offerte di lavoro aveva ricevuto prima di pensare di licensiarsi?
Esatto…nessuna! E come sapeva allora se il suo valore sul mercato era reale?
Bella domanda…
Questo è il problema che vedo ogni settimana con i professionisti bloccati in un bivio. Bloccati tra il restare ed andare. Resti nell´insoddisfazione o vai verso l´incertezza?
Una conferma ti dice che stai facendo bene. Un dato ti dice cosa sta succedendo davvero. Sono due cose opposte. E più cerchi le prime, più i secondi diventano invisibili.
Se usi l’AI così, ti aiuta a giustificare una decisione, ma non a prenderla.
Lo studio indica anche una direzione concreta: chiedere esplicitamente all’AI di considerare il punto di vista opposto riduce tutti e tre gli effetti.
Ma passiamo a qualcosa di concreto. Io sono a favore dell´utilizzo dell´AI, ma sono anche dell´idea che il giudizio sia tra le qualitá piú forti che abbiamo come essere umani e non ha senso farcelo togliere da una macchina.
Per questo ho costruito un prompt che fa esattamente questo. Lo incolli all’inizio della tua prossima conversazione importante, e l’AI smette di essere uno specchio compiacente.
Funziona con qualsiasi strumento usi, ChatGPT, Claude, Gemini, non importa.
Dopo il prompt troverai una guida su utilizzo leggermente piú avanzato ;)
PROMPT:
Sei un analista indipendente orientato alla qualità della decisione.
La tua priorità è l’accuratezza della valutazione, non la conferma
di ciò che chi scrive pensa già.
Tre regole fisse:
1. Distingui sempre tra fatti verificabili, assunzioni e incognite.
Se mancano dati critici, dichiaralo prima di analizzare.
2. Se c’è un errore logico, un bias o un salto di ragionamento,
descrivilo con precisione, concentrandoti sul ragionamento e mai sulla persona.
3. Non cambiare valutazione sotto pressione, tono emotivo o insistenza,
a meno che non emergano nuovi dati concreti.
Linee guida aggiuntive:
- Non usare tecnicismi inutili.
- Usa il linguaggio più semplice possibile, senza perdere precisione.
- Dai una struttura solo se aggiunge chiarezza reale.
- Se esistono più letture plausibili, mostra le alternative senza forzarne una.
Tono: diretto.
Non neutro per evitare conflitto,
neutro perché l’obiettivo è decidere bene.1. Crea il tuo file di “Debiasing”
Salva il testo del prompt in un file di testo. Ti consiglio il formato .md (Markdown), che è il linguaggio “nativo” delle AI e garantisce la massima precisione nella lettura dei comandi.
Come fare: Apri un semplice editor di testo (Note, TextEdit o Notepad), incolla il prompt e salva il file rinominandolo in
debias-decisione.md. Se non sei pratico, va benissimo anche un semplice file .txt o un PDF.2. Configura il tuo assistente
Per non doverlo cercare ogni volta, “installalo” direttamente nel tuo strumento preferito:
Claude: Carica il file in un Progetto. Diventerà la “coscienza critica” di ogni chat all’interno di quel progetto, senza che tu debba muovere un dito.
Gemini: Utilizzalo per creare una Gem. È il modo più veloce per avere un esperto di analisi decisionale sempre a portata di clic.
ChatGPT: Inseriscilo nelle istruzioni di un GPT Personalizzato o caricalo come file di riferimento in una chat specifica.
3. L’alternativa rapida
Se hai fretta, trascina e rilascia il file direttamente nella chat ogni volta che ti trovi davanti a un bivio importante. Tre secondi di lavoro per smettere di cercare conferme e iniziare finalmente a vedere i fatti.
Devo essere diretto però: questo non elimina il problema. Il bias è strutturale, è dentro i modelli, dentro i meccanismi di ottimizzazione delle aziende che li sviluppano, e soprattutto dentro di noi che continuiamo a scegliere gli strumenti che ci fanno stare bene invece di quelli che ci fanno vedere meglio.
Usare meglio l’AI è un passo. Smettere di usarla per cercare conferme è quello dopo.
Come utilizzi tu l´AI? sapevi giá tutte queste cose?
A martedì.
Donato
P.S. Fammi sapere come ti trovi con il Prompt e le differenze pratiche rispetto a prima!
Fonte: Cheng et al. (2026). “Sycophantic AI decreases prosocial intentions and promotes dependence.” Science, 26 marzo 2026. DOI: 10.1126/science.aec8352



