L’intelligenza artificiale entra nell’attacco: il nuovo phishing parla meglio, sbaglia meno, convince di più

Cyber & TechL’intelligenza artificiale entra nell’attacco: il nuovo phishing parla meglio, sbaglia meno, convince di più

Per anni uno degli indicatori più utili per riconoscere un tentativo di phishing era la scarsa qualità del messaggio: errori grammaticali, traduzioni approssimative, toni innaturali, riferimenti incoerenti. Nel 2026 questo vantaggio difensivo si sta riducendo rapidamente. L’intelligenza artificiale generativa sta cambiando il linguaggio dell’attacco, rendendo più credibili email, messaggi, documenti e interazioni progettati per manipolare la fiducia delle vittime.

Il salto qualitativo non riguarda solo la corretta scrittura. Riguarda la personalizzazione. Un aggressore può produrre in pochi minuti messaggi coerenti con il settore della vittima, con il suo lessico professionale, con il ruolo del destinatario e con il contesto operativo dell’organizzazione colpita. Può simulare comunicazioni tra fornitori, responsabili interni, consulenti, partner o clienti con un livello di plausibilità molto superiore a quello del passato.

Questo cambiamento modifica radicalmente il rapporto tra l’utente e la minaccia. La vecchia formazione basata sul “riconosci l’errore evidente” non basta più. I messaggi malevoli possono essere formalmente impeccabili, contestualmente pertinenti e perfino psicologicamente calibrati. L’AI permette di adattare tono, urgenza, sintassi e struttura del testo in funzione dell’obiettivo: spingere al clic, ottenere una credenziale, convincere a effettuare un pagamento, indurre ad aprire un allegato, creare una fiducia sufficiente per una seconda interazione.

Il rischio non si limita alle email. L’AI viene utilizzata anche per creare pagine di login false più convincenti, documenti apparentemente professionali, chatbot malevoli, campagne multicanali e contenuti vocali sintetici. Non sempre si tratta di sofisticazione estrema. In molti casi, la Forza dell’attacco deriva dall’Automazione su larga scala : produrre velocemente migliaia di varianti, testare linguaggi diversi, adattare il contenuto in base alla risposta della vittima.

Per le organizzazioni italiane questo comporta un problema concreto. Le tradizionali campagne di awareness spesso sono progettate per un phishing “vecchio stile”, mentre il social engineering contemporaneo assomiglia sempre più a una comunicazione credibile. In questo contesto, la sola prudenza individuale non è sufficiente. Servono controlli aggiuntivi: autenticazione multifattore, protezione delle caselle email, verifica dei domini, sandbox sugli allegati, monitoraggio dei tentativi di login anomali, procedure interne rigorose per i pagamenti e per le richieste sensibili.

C’è poi un altro aspetto meno visibile ma cruciale. L’AI non rende solo più efficaci i messaggi. Riduce il costo dell’attacco. Ciò che prima richiedeva competenze linguistiche, tempo e adattamento manuale, oggi può essere generato, raffinato e replicato in modo molto più rapido. Questo abbassa la soglia d’ingresso e aumenta il numero di campagne potenzialmente credibili in circolazione.

Da un punto di vista investigativo, la vera trasformazione è questa: non stiamo assistendo a una sostituzione dell’attaccante umano, bensì a un suo ampliamento. L’intelligenza artificiale diventa un moltiplicatore dell’efficienza per criminali che conoscono già le dinamiche psicologiche dell’inganno.

Per anni la sicurezza ha chiesto agli utenti di prestare attenzione ai messaggi “fatti male”. Oggi il problema è opposto: bisogna imparare a diffidare dei messaggi scritti fin troppo bene, perfettamente contestualizzati, costruiti per sembrare normali.

Nel 2026 il phishing non urla più. Si presenta in modo ordinato, professionale, credibile. È proprio per questo che diventa più pericoloso.