FermoUnAttimo
Foto AI · guida

Come riconoscere mani e riflessi generati dall'intelligenza artificiale

12 MIN DI LETTURAREV. APRILE 2026A CURA DI · REDAZIONE FUA

Le AI sbagliano ancora sulle cose che un bambino disegna istintivamente bene: le mani, i riflessi, le lettere scritte su un cartello. Non perché siano stupide, ma perché funzionano in modo diverso dal nostro occhio. Sapere dove guardare cambia tutto.

01Perché le immagini AI si diffondono così in fretta

Una foto generata dall'intelligenza artificiale può girare per ore sui social, raccogliere migliaia di condivisioni e plasmare l'opinione di moltissime persone prima che qualcuno si accorga che non è reale. Non è colpa di chi la riceve: a prima vista, molte di queste immagini sono convincenti. I colori sono vividi, i volti sembrano veri, la luce è quasi perfetta.

Il problema è che il nostro cervello non è allenato a fermarsi. Scansiona velocemente, riconosce un volto, una scena familiare, e passa oltre. Non esamina le dita, non controlla i riflessi, non legge le insegne sullo sfondo. Eppure sono proprio quei dettagli a tradire quasi sempre la natura artificiale dell'immagine.

Questa guida ti insegna a spostare l'attenzione nei punti giusti. Non richiede strumenti tecnici, non richiede lauree in informatica. Richiede tre secondi in più e sapere dove posare lo sguardo.

02La leva psicologica: perché ci caschiamo

Le immagini generate dall'AI vengono usate per evocare emozioni forti: indignazione, paura, solidarietà, euforia. Una foto che mostra una folla arrabbiata in piazza, un politico in una posa compromettente, una catastrofe naturale in corso — tutte situazioni ad alto carico emotivo. Quando siamo emotivamente attivati, la nostra capacità critica si abbassa: guardiamo la scena, non i dettagli.

Gli psicologi chiamano questo meccanismo «bias di conferma visivo»: tendiamo a credere a ciò che vediamo, specialmente se l'immagine conferma qualcosa che già pensiamo o temiamo. Se siamo preoccupati per una certa questione politica e arriva una foto che sembra confermare le nostre paure, il nostro cervello accetta l'immagine senza fare domande.

Sapere che questo meccanismo esiste è già metà del lavoro. La prossima volta che un'immagine ti smuove emotivamente, è proprio quello il momento di fermarsi un secondo in più. Non per diventare cinici, ma per essere più utili a noi stessi e a chi ci sta intorno.

03Il segnale più visibile: le mani

Le mani sono, ancora oggi, il punto debole più riconoscibile di quasi tutte le immagini generate dall'AI. I modelli attuali — anche i più avanzati — fanno fatica a rappresentarle in modo coerente. Il motivo è tecnico: una mano cambia forma in modo radicale a seconda dell'angolazione, della posa e della luce. L'AI impara da miliardi di immagini, ma non «capisce» la struttura anatomica come la capirebbe un chirurgo o anche solo un bambino che ha guardato le proprie mani.

Il segnale più comune è il numero di dita. Una mano umana ne ha cinque. Nelle immagini AI puoi trovarne quattro, sei, anche sette. Spesso il conteggio varia tra una mano e l'altra nella stessa foto. Altre volte il numero è giusto, ma le proporzioni sono sbagliate: il pollice è troppo lungo, il mignolo si fonde con il palmo, le nocche sembrano fuse insieme come se la mano fosse una paletta.

Un altro errore frequente riguarda la falange: in una mano reale, il pollice disteso arriva grossomodo a metà della prima falange dell'indice. Nelle immagini AI questa proporzione è spesso violata. Se ingrandisci una foto sospetta sul tuo telefono usando due dita per zoomare sull'area delle mani, questi dettagli diventano subito visibili.

Cosa fare: su smartphone, tieni premuto sull'immagine per salvarla, poi aprila nella galleria fotografica e usa il gesto di «pizzico» per ingrandire. Punta su ogni mano visibile. Conta le dita. Guarda le giunture. Trenta secondi bastano.

04I riflessi che non seguono la fisica

I riflessi sono una delle sfide più difficili per l'AI, e uno dei controlli più affidabili per noi. La fisica dei riflessi è rigida: se una fonte di luce (una finestra, una lampada, il sole) è a sinistra, il riflesso appare a sinistra in entrambi gli occhi di una persona reale. Nelle immagini AI, invece, i riflessi nei due occhi sono spesso diversi tra loro — come se ciascun occhio guardasse una scena diversa.

Un test semplice: guarda le pupille di un ritratto. Cerca i piccoli punti luminosi bianchi che si vedono in quasi ogni occhio fotografato con luce artificiale o naturale. In una foto reale sono coerenti: stessa forma, stessa posizione relativa, stessa intensità in entrambi gli occhi. In molte foto AI uno dei due occhi ha un riflesso diverso, o addirittura ne ha due dove l'altro ne ha uno solo.

Gli specchi e le vetrine sono un secondo campanello. In una foto scattata davanti a uno specchio, il riflesso deve corrispondere esattamente alla posa della persona reale, con la simmetria orizzontale tipica degli specchi. Nelle immagini AI il riflesso è spesso una posa diversa, a volte quasi una persona diversa. Lo stesso vale per le vetrine dei negozi: la figura riflessa non coincide con quella in primo piano.

Infine, controlla i riflessi su superfici lisce e lucide: occhiali da sole, automobili, pavimenti in marmo. In una foto reale queste superfici riflettono una scena coerente con l'ambiente circostante. In molte foto AI il riflesso è una texture generica, un pattern ripetuto, o semplicemente qualcosa che non torna con il resto dell'immagine.

05Il testo scritto dentro le immagini

Le AI generative hanno un rapporto complicato con le lettere dell'alfabeto. Quando produci un'immagine e chiedi che contenga un cartello con una scritta, il risultato è spesso uno scarabocchio che somiglia al testo senza esserlo: lettere invertite, caratteri inventati, parole che sembrano vere a colpo d'occhio ma non significano nulla se le guardi con attenzione.

Controlla insegne di negozi, targhe automobilistiche, cartelli stradali, etichette su bottiglie o prodotti. In Italia le targhe seguono un formato preciso (due lettere, tre cifre, due lettere — per le più recenti). Se una targa in un'immagine ha un formato strano o contiene caratteri impossibili, è un segnale forte. Le insegne dei negozi, invece, spesso contengono nomi inventati che somigliano a brand reali: «COOFE» invece di «COFFEE», «FARMACI» scritto con una «C» al contrario.

Un caso comune in Italia riguarda le foto di presunte manifestazioni o eventi di piazza: i cartelli tenuti dai partecipanti contengono spesso slogan illeggibili o testi mescolati. In una protesta reale, i cartelli hanno messaggi chiari. Se ingrandisci e non riesci a leggere nulla di sensato, fermati prima di condividere.

La regola pratica: se vedi del testo in un'immagine, cercadi leggerlo tutto. Non solo il titolo, non solo la parola più grande. Ogni lettera che non torna è un segnale. Prendi l'abitudine di zoomare sulle scritte proprio come faresti sulle mani.

06Tre casi italiani: dove questi errori sono comparsi

Nel corso del 2023 e del 2024, diverse immagini generate dall'AI hanno circolato in Italia come se fossero fotografie reali. Non citiamo nomi di persone coinvolte, ma descriviamo i pattern — verificati da fact-checker come Pagella Politica e ANSA — per aiutarti a riconoscerli se li rivedi.

Il primo pattern ricorrente riguarda presunte foto di eventi di cronaca: una scena di disastro naturale (alluvione, terremoto) con paesaggi italiani riconoscibili. In questi casi, i campanelli erano le mani dei soccorritori (dita extra, giunture scomparse) e le scritte sui giubbotti o sui caschi (acronimi italiani come «PC» o «VVF» scritti in modo storpiato o con lettere invertite). Chi condivideva queste foto era mosso da solidarietà genuina, non da malafede.

Il secondo pattern riguarda i ritratti: foto di personaggi pubblici italiani in contesti falsi — una cena con figure politiche straniere, una stretta di mano in un luogo istituzionale. I riflessi negli occhiali da vista erano incoerenti con la scena, e le mani erano quasi sempre il punto debole finale. In almeno un caso documentato, la foto era accompagnata da un testo in italiano grammaticalmente corretto, il che aveva abbassato la guardia di molti.

Il terzo pattern è più sottile: foto di prodotti o offerte commerciali. Un appartamento in affitto con interni perfetti, un'auto usata senza un graffio, un paesaggio «in vendita» come sfondo di un investimento finanziario. In questi casi le mani non sono spesso visibili, ma le superfici riflettenti (parquet lucido, carrozzeria dell'auto, specchi nei bagni) tradiscono l'origine artificiale dell'immagine.

Metti alla prova quello che hai imparato
Nella Palestra Foto AI trovi immagini reali e generate mescolate insieme. Riesci a distinguerle?

07Quattro regole operative: cosa controllare in trenta secondi

**Regola 1 — Ingrandisci le mani.** Ogni volta che in un'immagine appaiono mani, zoomaci sopra. Conta le dita di entrambe le mani, separatamente. Controlla le proporzioni del pollice rispetto all'indice. Se qualcosa non torna, l'immagine merita un approfondimento prima di essere condivisa.

**Regola 2 — Confronta i riflessi negli occhi.** In un ritratto, cerca i piccoli punti luminosi nelle pupille. Devono essere simmetrici e coerenti. Se i due occhi «vedono» scene diverse, o se i riflessi sembrano incollati a caso, è un segnale concreto. Stesso controllo per occhiali, vetrine, superfici lucide nello sfondo.

**Regola 3 — Leggi il testo nell'immagine.** Non fermarti alla prima parola leggibile. Leggi tutto: insegne, cartelli, targhe, etichette, scritte sulle magliette. Cerca lettere invertite, parole senza senso, caratteri mescolati. In italiano, una targa o un'insegna con caratteri impossibili è quasi sempre un indizio di generazione artificiale.

**Regola 4 — Cerca la fonte originale.** Prima di condividere qualsiasi immagine che ti sembra sospetta o che ti smuove emotivamente, fai una ricerca inversa. Su Google, apri il browser, vai su images.google.com, tocca l'icona della fotocamera e carica l'immagine (o incolla l'URL se ce l'hai). Il motore ti mostrerà dove è apparsa per la prima volta e se esistono versioni originali o smentite. Questa operazione richiede meno di un minuto.

08Segnali più sottili: capelli, sfondi e proporzioni

Le mani, i riflessi e il testo sono i segnali più visibili. Ma esistono indizi più sottili, utili per le immagini in cui queste aree non sono presenti o sono fuori campo. I capelli, per esempio: le AI sono migliorate moltissimo nella resa dei capelli, ma faticano ancora con i bordi, specialmente dove i capelli si stagliano su uno sfondo chiaro. Cerca aree in cui i capelli sembrano dissolversi nello sfondo, o in cui il bordo è innaturalmente morbido o, al contrario, rigido come se fosse ritagliato con un programma di fotoritocco.

Gli sfondi delle immagini generate spesso contengono elementi ripetuti o simmetrici in modo non naturale: mattoni con lo stesso pattern, foglie degli alberi identiche, folla di persone con volti che si ripetono in formato quasi speculare. In una fotografia reale, il mondo non è mai perfettamente simmetrico. Se lo sfondo sembra un tappeto, rallenta.

Le proporzioni del corpo sono un altro punto debole, soprattutto nelle scene con più persone. I piedi sono spesso troppo piccoli rispetto alla figura, o scompaiono sotto un bordo dell'immagine in modo innaturale. Le orecchie, come le mani, tendono a essere asimmetriche o ad avere una forma anatomicamente strana se ingrandite. Non occorre essere medici: basta confrontare con la propria esperienza visiva quotidiana.

09Cosa fare se hai già condiviso un'immagine falsa

Succede. Non è una colpa morale: le immagini AI sono costruite apposta per essere credibili, e i meccanismi cognitivi che ci portano a condividerle sono naturali. L'importante è cosa si fa dopo. La prima azione è sempre la stessa: eliminare il post o il messaggio il prima possibile. Su WhatsApp puoi eliminare un messaggio per tutti i destinatari entro 60 ore dall'invio; su Facebook e Instagram puoi eliminare un post in qualsiasi momento; su X/Twitter la cancellazione rimuove il contenuto ma non impedisce che screenshot circolino già.

La seconda azione è la rettifica. Se hai condiviso un'immagine falsa in un gruppo WhatsApp o in una chat di famiglia, scrivi un messaggio diretto: «Ho condiviso prima un'immagine che ho poi scoperto essere generata dall'AI. Era falsa. Mi scuso.» Non serve dilungarsi. Una correzione esplicita ha un impatto reale: studi sulla diffusione della disinformazione mostrano che la rettifica tempestiva riduce significativamente l'effetto della notizia falsa su chi l'ha ricevuta.

Se l'immagine falsa riguarda una persona reale e viene usata per danneggiarla (un ritratto falso in un contesto compromettente, per esempio), quella persona può tutelarsi legalmente. In Italia, la diffusione di immagini false che ledono l'onore o la reputazione è perseguibile. La Polizia Postale (www.commissariatodips.it) raccoglie segnalazioni online. Se sei tu la persona danneggiata, o se conosci la vittima, conserva tutti gli screenshot con data e ora e vai allo sportello Polizia Postale più vicino o usa il portale online.

10L'abitudine che fa la differenza

Riconoscere un'immagine generata dall'AI non richiede di diventare esperti di tecnologia. Richiede di costruire una piccola abitudine: prima di condividere, tre secondi di controllo sui punti giusti. Mani, riflessi, testo. Questi tre elementi, da soli, smascherano la grande maggioranza delle immagini false che circolano oggi in Italia.

Col tempo, questo controllo diventa automatico. Come quando impariamo a guardare la data di scadenza su un prodotto al supermercato senza pensarci: all'inizio è un gesto consapevole, poi diventa naturale. Non si tratta di diffidare di tutto, ma di usare la stessa attenzione che già usiamo in tanti altri contesti della vita quotidiana.

La disinformazione visiva funziona sulla velocità: chi la produce conta sul fatto che guarderemo e condivideremo senza fermarci. Sottrarsi a quella velocità è già un atto concreto. Tre secondi. Fanno la differenza.

Takeaway
Mani, riflessi, testo: tre punti di controllo, trenta secondi. Se li controlli ogni volta, passerai indenni nove immagini su dieci.
Mettiti alla prova
Vai alla palestra "Foto AI".
Allenati →
© 2026 FERMOUNATTIMO