Il modo più veloce per capire se un'immagine è generata da un'intelligenza artificiale non richiede software, né occhio tecnico. Richiede tre secondi e una sola domanda: c'è del testo nell'immagine? Se sì, leggilo. Quasi sempre, qualcosa non torna.
01 — Cosa succede quando un'AI prova a scrivere
Un modello di intelligenza artificiale generativa — come quelli che producono immagini realistiche — non ha mai imparato a leggere o scrivere. Ha imparato a imitare l'aspetto visivo delle lettere. È una differenza enorme. Per noi, la parola "FARMACIA" è un concetto: un luogo dove si comprano medicine. Per l'AI, è una sequenza di forme grafiche che, statisticamente, appare su certi tipi di insegne. Il modello riproduce quelle forme, ma non controlla se il risultato ha senso come lingua.
Il risultato pratico è che il testo nelle immagini AI tende a essere sbagliato in modi caratteristici: lettere inventate che non esistono in nessun alfabeto, parole reali con una lettera storpiata, sequenze di caratteri che sembrano quasi corrette ma non lo sono. Se guardi una fotografia reale di una farmacia, l'insegna dice "FARMACIA". Se guardi un'immagine AI della stessa scena, potrebbe dire "FAPMACIA", "FARMAOIA" o qualcosa di simile — abbastanza vicino da non notarlo a prima vista, abbastanza sbagliato da tradire l'origine artificiale.
Questo limite non è sparito con i modelli più recenti. Anche i sistemi di punta disponibili nel 2025 e 2026 — tra cui Midjourney, Stable Diffusion e i generatori integrati in alcune app di editing fotografico — producono testo inaffidabile quando la scena contiene più di cinque o sei parole. Qualche strumento è migliorato sui titoli brevi, ma basta una frase intera, un indirizzo, un numero di targa, per far emergere l'errore.
02 — Perché il nostro cervello non lo nota subito
Se il problema è così frequente, perché tante persone non lo colgono? La risposta sta nel modo in cui funziona la nostra percezione visiva. Quando guardiamo un'immagine, il cervello non legge ogni elemento con attenzione: scansiona rapidamente, cerca familiarità e coerenza globale. Un'insegna verde con una croce bianca attiva immediatamente l'idea di "farmacia", anche se le lettere sotto sono sbagliate. Il dettaglio testuale viene saltato perché il contesto visivo è già convincente.
Questo meccanismo si chiama, in gergo cognitivo, elaborazione top-down: partiamo dall'interpretazione generale e la applichiamo ai dettagli, invece di costruire il significato dal basso verso l'alto. È un vantaggio nella vita quotidiana — ci permette di leggere velocemente anche testi parzialmente illeggibili — ma diventa un punto cieco davanti alle immagini AI, che sono costruite esattamente per attivare quella risposta globale di familiarità.
C'è un secondo fattore: la qualità delle immagini generate è aumentata molto nell'ultimo anno. Luci, ombre, texture della pelle, sfocatura di fondo — tutto è sempre più convincente. L'occhio viene catturato dalla bellezza tecnica complessiva dell'immagine e relega i dettagli testuali in secondo piano. Per questo il consiglio operativo è semplice ma controcorrente: ignora la qualità generale dell'immagine e vai direttamente al testo.
03 — Dove cercare il testo: una mappa pratica
Non tutte le immagini contengono testo, ma molte sì. Impara a cercarlo nei luoghi più prevedibili: insegne di negozi e uffici pubblici, targhe automobilistiche, copertine di libri o riviste, magliette con scritte, cartelli stradali, display di smartphone o computer, menu di ristoranti, etichette di prodotti, titoli di giornali sullo sfondo, orologi digitali. Questi sono i punti dove le AI falliscono per prime, e dove vale la pena concentrare l'attenzione.
Le targhe automobilistiche italiane sono un caso particolarmente utile. Il formato italiano è preciso e riconoscibile: due lettere, tre cifre, due lettere, con la banda blu europea a sinistra. Un'immagine AI che mostra un'auto italiana tende a produrre targhe con combinazioni di caratteri impossibili, formati sbagliati, o bande blu assenti. Basta un'occhiata di due secondi per notare qualcosa che non quadra.
Anche le insegne in italiano sono rivelatrici, non solo per gli eventuali errori ortografici, ma per la grammatica complessiva. Un cartello pubblicitario AI può contenere frasi grammaticalmente improbabili, prezzi in valute sbagliate, o nomi di strade inesistenti. Se l'immagine mostra una scena italiana e il testo sullo sfondo sembra generico o leggermente incoerente, è un segnale da non ignorare.
04 — Tre varianti italiane: casi concreti da riconoscere
Il primo caso ricorrente è quello delle immagini di protesta o manifestazione. Foto che circolano sui social mostrando piazze piene di persone con striscioni e cartelli. I volti nella folla sembrano realistici, la prospettiva è convincente. Ma i cartelli — dove di solito si trovano slogan chiari — contengono testo incomprensibile o mescolato, frasi senza senso grammaticale. È uno scenario usato per amplificare tensioni politiche o sociali: l'immagine sembra documentare un evento, ma è costruita.
Il secondo caso riguarda i documenti ufficiali. Immagini di presunte lettere dell'INPS, dell'Agenzia delle Entrate, o di banche italiane, usate per dar credibilità a una notizia falsa o a una truffa. Qui il testo è più abbondante — indirizzi, codici fiscali, intestazioni — e quindi più difficile da rendere correttamente per un modello AI. L'intestazione potrebbe avere il logo dell'ente più o meno corretto, ma l'indirizzo via avrà qualcosa di storto: una via inesistente, un CAP sbagliato, un numero civico impossibile.
Il terzo caso è più sottile: le immagini di prodotti alimentari o farmaceutici. Confezioni di pasta, vino, medicine che sembrano reali ma hanno etichette con testo parzialmente inventato. Questo tipo di immagine viene usato in campagne di disinformazione su presunti ingredienti pericolosi o frodi alimentari. Anche qui: zoom sull'etichetta, e il testo si rivela instabile — parole tagliate a metà, grammatica impossibile, grammaggi con unità di misura inesistenti.
05 — La tecnica dello zoom: come eseguirla
La regola pratica più utile è anche la più semplice: ingrandisci. Sul telefono, allarga due dita sull'area del testo. Su computer, usa il tasto più (+) o la lente di ingrandimento del browser. L'obiettivo è portare il testo almeno al 150-200% della dimensione originale, abbastanza da distinguere i singoli caratteri.
Cosa cercare una volta ingrandito? Primo: lettere che non esistono. Non una "a" stilizzata, ma un segno grafico che sembra una lettera ma non lo è — un ibrido tra due caratteri diversi. Secondo: parole quasi giuste. "COMUNE" diventa "COMUJE", "APERTO" diventa "APECTO". Terzo: incoerenza interna. Una parola inizia con un font, finisce con un altro. Quarto: confini delle lettere sfumati in modo innaturale, come se il testo fosse stato dipinto piuttosto che stampato.
Se lo zoom non è possibile — perché l'immagine è compressa o di bassa qualità — puoi usare uno strumento gratuito come Google Lens (disponibile sull'app Google per smartphone). Inquadra la zona di testo e chiedi a Lens di "tradurre" o "copiare il testo". Se il testo è genuino, Lens lo riconosce senza problemi. Se è AI, Lens restituisce caratteri casuali, parole spezzate, o semplicemente fallisce. È un test indiretto ma efficace.
06 — Quattro regole operative per difenderti
Regola uno: prima il testo, poi il resto. Quando ricevi un'immagine che vuoi verificare, resisti all'impulso di valutare la qualità visiva complessiva. Il tuo primo gesto deve essere cercare attivamente del testo nell'immagine. Targhe, insegne, cartelli, etichette, schermi. Se trovi testo, ingrandisci subito. Solo dopo considera tutto il resto.
Regola due: diffida della perfezione. Le immagini AI tendono ad avere una qualità visiva insolitamente alta — luci perfette, volti simmetrici, sfondi coerenti. Una fotografia reale, soprattutto scattata in fretta durante un evento di cronaca, ha imperfezioni: mosso, contrasto non ottimale, prospettiva leggermente distorta. Se un'immagine di presunta cronaca sembra esteticamente troppo curata, è un segnale aggiuntivo da considerare insieme all'analisi del testo.
Regola tre: cerca la fonte originale. Prima di condividere un'immagine che ti sembra sospetta, fai una ricerca inversa. Su Google Immagini, clicca sull'icona della fotocamera nella barra di ricerca e carica l'immagine. Su telefono, tieni premuto sull'immagine e scegli "Cerca immagine con Google" (o funzione equivalente). Se l'immagine è AI generata da poco, spesso non ha tracce precedenti sul web. Se è una foto reale, troverai la fonte originale.
Regola quattro: il dubbio è sufficiente per non condividere. Non è necessario essere certi al 100% che un'immagine sia falsa. Se hai un dubbio fondato — testo storto, qualità sospetta, nessuna fonte verificabile — non condividere. Il danno della disinformazione si diffonde tramite condivisioni in buona fede. Non condividere è sempre un'azione lecita e responsabile.
07 — Strumenti utili: cosa funziona davvero
Esistono strumenti online che promettono di rilevare automaticamente le immagini AI. Alcuni funzionano discretamente bene su certi tipi di immagini, altri meno. Il problema è che questi strumenti sono in continua rincorsa con i modelli generativi: quando un rilevatore impara a riconoscere un certo tipo di artefatto, i modelli vengono aggiornati per eliminarlo. Non fare affidamento esclusivo su questi strumenti, ma puoi usarli come conferma aggiuntiva.
Il più accessibile per un uso non tecnico è il rilevatore integrato in Google Lens, già citato per l'analisi del testo. Un altro strumento è Hive Moderation (hivemoderation.com), che offre un'analisi gratuita caricando l'immagine: restituisce una percentuale di probabilità AI. Il risultato va letto con cautela — una probabilità del 60% non è una certezza — ma combinato con l'analisi del testo dà un quadro più solido.
Per chi usa il computer, l'estensione del browser "Fake News Debunker" (sviluppata con supporto europeo) integra ricerca inversa di immagini e metadati in un clic solo. Vale la pena installarla: non richiede competenze tecniche e velocizza molto il processo di verifica. Ricorda però che nessuno strumento sostituisce l'occhio critico: la combinazione di analisi del testo + ricerca inversa + buon senso contestuale è ancora il metodo più affidabile.
08 — Cosa fare se hai già condiviso un'immagine falsa
Succede. Non è una colpa: le immagini AI sono progettate per ingannare anche persone attente. L'importante è come si reagisce quando ci si accorge dell'errore. La prima azione è semplice: elimina il post o il messaggio il prima possibile. Su WhatsApp puoi eliminare un messaggio per tutti entro un limite di tempo; su Facebook e Instagram puoi eliminare un post in qualsiasi momento. Fallo senza aspettare.
Il secondo passo, se il post ha già avuto condivisioni o reazioni, è pubblicare una correzione esplicita. Non basta eliminare in silenzio — chi ha già visto il contenuto ne porta il ricordo. Una correzione breve e diretta — "Ho condiviso per errore un'immagine AI: la foto era falsa" — è più efficace di qualsiasi scusa elaborata. La brevità e la chiarezza della correzione ne aumentano la credibilità.
Se l'immagine falsa faceva parte di una truffa — per esempio, era usata per raccogliere donazioni per una falsa emergenza, o per diffamare una persona reale — vale la pena fare una segnalazione. Su Facebook e Instagram, il tasto "Segnala" è accessibile dal menu del post. Per reati più seri (diffamazione, truffa), la Polizia Postale italiana accetta segnalazioni online tramite il sito commissariatodips.it, senza bisogno di recarsi fisicamente in ufficio.
09 — Quando il testo è corretto: la truffa si nasconde altrove
Con il miglioramento dei modelli, alcune immagini AI riescono a produrre testo breve correttamente — un'insegna con una sola parola, un titolo di due parole su una copertina. Non significa che il test del testo sia inutile: significa che va usato insieme ad altri segnali. Le mani con sei dita, i capelli che si fondono con lo sfondo, gli orecchini non simmetrici, le ombre che vanno nella direzione sbagliata: sono tutti segnali complementari che aumentano la probabilità di rilevare correttamente un'immagine AI.
C'è poi una categoria di immagini particolarmente difficile: le foto reali modificate parzialmente con AI. Una fotografia autentica a cui è stato aggiunto o rimosso un elemento — una persona in più in una piazza, un oggetto in mano a qualcuno — può superare molti test. In questi casi, il testo nell'immagine originale è corretto perché era già corretto nella foto reale. L'unico modo per rilevare queste manipolazioni è l'analisi dei metadati (possibile con strumenti come Jeffrey's Exif Viewer) o la ricerca inversa della foto originale.
La regola di fondo rimane: il test del testo è il primo passo, non l'unico. È veloce, non richiede strumenti, funziona nella grande maggioranza dei casi. Ma la verifica completa di un'immagine sospetta usa sempre più livelli: testo, anatomia visiva, fonte originale, contesto della condivisione.
10 — Un'abitudine da costruire, non una paura da coltivare
L'obiettivo di questa guida non è renderti diffidente verso ogni immagine che vedi. La grande maggioranza delle foto che ricevi ogni giorno — dai familiari, dagli amici, dai canali di informazione che segui — è autentica. L'obiettivo è costruire un riflesso selettivo: quando un'immagine ti viene presentata come prova di qualcosa — un evento, un personaggio, una situazione — prendi tre secondi prima di crederci e condividerla.
Tre secondi per cercare del testo nell'immagine. Tre secondi per ingrandirlo. Tre secondi per chiederti se la fonte è verificabile. Questo non richiede competenze tecniche, non richiede strumenti speciali, non richiede di diventare esperti di grafica digitale. Richiede solo di non andare in automatico.
Le immagini AI migliorano ogni mese. Tra un anno, alcune delle indicazioni di questa guida potrebbero essere parzialmente superate. Ma la logica di fondo — rallentare, cercare il dettaglio, verificare la fonte — non diventerà mai obsoleta. È la stessa logica che si applicava alle fotomontaggi analogici negli anni Settanta, e si applicherà a qualunque tecnologia futura di manipolazione visiva. Tre secondi. Fanno la differenza.