
Daniel Kahneman ha cambiato il modo in cui pensiamo alle decisioni. Psicologo cognitivo, Nobel per l’Economia 2002, ha mostrato che giudizi e scelte sono plasmati da scorciatoie mentali e contesti di presentazione: non siamo macchine razionali, ma sistemi attentivi fallibili che cercano senso con risorse limitate. Con Amos Tversky ha fondato il programma euristiche–bias e la teoria del prospetto; in età matura ha distinto il Sé che decide dal Sé che ricorda e ha indagato il “rumore” nei giudizi professionali. Il suo lascito tocca economia, diritto, medicina, policy e management.
Biografia e contesto storico
Nato a Tel Aviv e cresciuto in parte a Parigi durante l’occupazione nazista, Kahneman rientra in Palestina alla fine della guerra. Studia psicologia all’Università Ebraica di Gerusalemme e consegue il dottorato a Berkeley nel 1961. I primi lavori riguardano percezione e attenzione visiva; l’interesse per errori sistematici di giudizio nasce nel clima della “rivoluzione cognitiva”, in cui la mente viene trattata come sistema di elaborazione dell’informazione.
L’incontro con Amos Tversky alla fine degli anni Sessanta dà avvio a una delle collaborazioni più feconde delle scienze sociali. Tra Gerusalemme, Stanford e poi varie università statunitensi, i due costruiscono esperimenti eleganti che mostrano regolarità sorprendenti nell’irrazionalità umana: effetti cornice, ancoraggi, trascuratezza delle probabilità di base. Dopo la morte di Tversky (1996), Kahneman prosegue con progetti sul benessere soggettivo, sulla misurazione dell’esperienza quotidiana e, più tardi, sul tema del “rumore” nei giudizi. Professore a Princeton, nel 2002 riceve il Nobel per l’Economia “per l’integrazione degli aspetti psicologici nella scienza economica”. Muore nel 2024, lasciando un’opera vasta e accessibile anche al grande pubblico grazie a Thinking, Fast and Slow.
Contributi teorici e pratici
Il primo grande nucleo è il programma euristiche e bias. Di fronte all’incertezza, le persone utilizzano scorciatoie cognitive che in molti contesti sono utili ma che generano errori sistematici. L’ancoraggio mostra come stime numeriche vengano trascinate da valori iniziali casuali; la rappresentatività porta a trascurare le basi di frequenza quando un caso “sembra” appartenere a una categoria; la disponibilità fa sovrastimare eventi vividi o recenti perché più facili da richiamare. A questi si intrecciano overconfidence, illusione di validità e l’idea che “ciò che vedi è tutto ciò che c’è”, ossia la tendenza a costruire storie coerenti con dati incompleti.
Il secondo nucleo è la teoria del prospetto (1979, poi riformulata nel 1992). Invece di massimizzare l’utilità attesa, le persone valutano esiti come guadagni o perdite rispetto a un punto di riferimento; le curve di valore sono concave nei guadagni e convesse nelle perdite e, soprattutto, più ripide nel dominio delle perdite: è la famosa avversione alla perdita. Ne derivano fenomeni come l’effetto dotazione (teniamo più agli oggetti che possediamo che a oggetti equivalenti non posseduti) e le asimmetrie di framing (le preferenze cambiano a seconda di come un problema è descritto). Il peso soggettivo delle probabilità è non lineare: sovrastimiamo piccole probabilità e sottopesiamo probabilità intermedie, con implicazioni per assicurazioni, lotterie e politiche di rischio.
Un terzo contributo riguarda l’architettura della mente resa popolare come Sistema 1/Sistema 2. Il Sistema 1 è rapido, associativo, automatico; il Sistema 2 è lento, deliberativo, capace di controllo. Non si tratta di due “luoghi” nel cervello, ma di una distinzione funzionale utile per spiegare perché, in molte condizioni, il primo prenda il sopravvento producendo giudizi plausibili ma ingannevoli. La lezione pratica non è “spegnere” il Sistema 1, bensì progettare contesti che riducano l’impatto dei suoi errori dove costano caro e allenare il Sistema 2 quando serve.
Il quarto filone, sviluppato dopo gli anni Novanta, è la differenza tra utilità esperita e utilità decisionale. Attraverso metodi come il Day Reconstruction Method, Kahneman distingue il Sé che sperimenta da quello che ricorda: i ricordi sono distorti dalla peak–end rule (contano picco e finale più della durata) e focalizzano aspetti salienti trascurandone altri (focusing illusion: “nulla è così importante quanto pensiamo mentre ci stiamo pensando”). Questo ha ricadute su misurazione del benessere, valutazioni sanitarie, progettazione dei servizi.
Negli ultimi anni, con colleghi, Kahneman ha puntato l’attenzione sul rumore (noise): variabilità indesiderata nei giudizi di persone ugualmente qualificate di fronte a casi simili. Magistrati che comminano pene diverse in casi paragonabili, periti assicurativi con stime divergenti, medici con diagnosi difformi: non solo bias sistematici, ma anche dispersioni casuali che degradano la qualità delle decisioni. La proposta non è l’illusione di “eliminare” il giudizio umano, bensì introdurre igiene decisionale: criteri espliciti, valutazioni indipendenti e poi aggregate, check-list ben progettate, calibrazione periodica.
Un tratto metodologico distintivo è l’adversarial collaboration: lavorare con studiosi di posizioni opposte per progettare test congiunti di ipotesi rivali. È la versione pratica del suo scetticismo sulla sicurezza con cui gli esseri umani, scienziati inclusi, raccontano il mondo a sé stessi.
Impatto e attualità
La ricaduta del lavoro di Kahneman è stata ampia e concreta. In economia ha messo in crisi l’assunzione del decisore perfettamente razionale e ha dato impulso all’economia comportamentale, aprendo capitoli su consumo, risparmio, assicurazioni, mercato del lavoro. In diritto e policy ha ispirato interfacce e norme che sfruttano il framing per favorire scelte socialmente desiderabili senza imporle (iscrizione automatica a piani pensionistici, default prosociali, trasparenza dei costi). In medicina e organizzazioni ha suggerito protocolli per ridurre errori diagnostici e discrezionalità eccessive, migliorando outcome e equità.
Le critiche non sono mancate: alcuni risultati sperimentali sono sensibili al contesto; gli effetti di “nudging” talvolta svaniscono nel mondo reale; modelli concorrenti spiegano apprendimenti e adattamenti nel tempo; i grandi modelli di machine learning sembrano aggirare, con performance empirica, molte sottigliezze teoriche. Ma proprio questo dibattito aggiorna il programma kahnemaniano: non un manifesto sull’irrazionalità, bensì un’agenda per capire quando e perché i meccanismi di giudizio falliscono, e come progettare ambienti che li aiutino a funzionare meglio.
L’attualità del suo pensiero sta nell’umiltà epistemica e nell’ingegneria di piccoli aggiustamenti ad alto impatto. In sistemi complessi, il costo degli errori si riduce più con buone scelte di architettura (formati dei moduli, default sensati, feedback tempestivi, misure robuste) che con appelli astratti alla razionalità. Il messaggio finale è insieme sobrio e ambizioso: la mente umana è fallibile in modi prevedibili; trattare questa fallibilità come un dato di progetto permette decisioni più giuste, servizi più efficaci e politiche più eque.
Per chi lavora in clinica, educazione, impresa o pubblica amministrazione, Kahneman lascia strumenti concreti: nominare i bias per riconoscerli; testare i nudges sul campo, non solo in laboratorio; misurare e comprimere il rumore dove la variabilità ingiustificata danneggia; distinguere tra ciò che le persone vivono e ciò che ricordano quando si valutano esperienze e si progetta qualità.
La sua eredità culturale supera le accademie: ha fornito un linguaggio comune — ancoraggio, framing, avversione alla perdita — con cui cittadini, giornalisti e decisori discutono di scelte quotidiane e collettive. Se oggi chiediamo “che punto di riferimento sto usando?”, “questo numero mi sta ancorando?”, “quanto rumore c’è in questo giudizio?”, stiamo già usando strumenti che lui e i suoi collaboratori hanno consegnato alla conversazione pubblica.


