Dalle reti oscure del dark web alle nuove frontiere della tecnologia, il salto è stato breve. Se prima per mettere in atto un attacco informatico servivano competenze tecniche avanzate, mesi di lavoro e software sofisticati, oggi basta un abbonamento acquistato nel posto giusto. La minaccia si chiama “Dark AI”: sistemi di intelligenza artificiale pensati per aggirare difese informatiche, creare malware su misura, generare frodi e persino impersonare persone reali con una fedeltà inquietante. Uno degli esempi più emblematici è WormGPT, un modello in grado di scrivere codice malevolo personalizzato in pochi secondi, pronto a colpire aziende e istituti bancari senza richiedere alcuna competenza da parte degli hacker. Allo stesso modo, OffroadGPT produce email di phishing praticamente indistinguibili da quelle inviate da un capo ufficio, da una banca o da un ente istituzionale: testi perfetti, privi di errori e capaci di ingannare anche gli utenti più attenti e aggirare le perizie informatiche. A questi strumenti si aggiunge Darkboard, una piattaforma di intelligenza artificiale che porta il concetto di truffa a un livello superiore. Grazie alla generazione di deepfake vocali e visivi in tempo reale, è in grado di clonare voce e volto di una persona durante una videochiamata rispondendo in diretta alle domande degli interlocutori. Un’arma potentissima per frodi sofisticate e difficili da smascherare.
Hacker e gruppi statali sfruttano la nuova frontiera
Non si tratta di ipotesi teoriche. Diversi gruppi hacker, compresi quelli legati a regimi come la Corea del Nord e l’Iran, hanno già utilizzato questi strumenti in operazioni reali. In alcuni casi, hacker nordcoreani sono riusciti a penetrare in aziende occidentali fingendosi candidati ideali: curriculum perfetti redatti da AI e interviste sostenute da avatar deepfake hanno permesso loro di ottenere accessi sensibili e rubare dati strategici. Nel frattempo, il gruppo iraniano CharmyKitten ha potenziato le proprie campagne di spam e phishing con modelli linguistici avanzati in grado di scrivere messaggi personalizzati, credibili e perfettamente calibrati per ogni destinatario. In pratica, strumenti che prima richiedevano mesi di preparazione e sviluppatori specializzati sono oggi disponibili “chiavi in mano” su marketplace illegali, pronti per chiunque sia disposto a pagare.
I board aziendali finiscono nel mirino
In Europa è già avvenuto un caso clamoroso: durante una riunione di un consiglio di amministrazione, alcuni “dirigenti” presenti non erano persone reali, ma figure digitali generate dall’intelligenza artificiale. Non solo hanno partecipato attivamente al dibattito, ma hanno persino espresso voti su decisioni strategiche, il tutto pilotato da operatori esterni. Il cambio di paradigma è radicale. Non si tratta più di attacchi grezzi e isolati, ma di campagne automatiche, simultanee e altamente sofisticate, accessibili a chiunque disponga degli strumenti giusti. Non servono hacker professionisti: basta un utente qualunque con accesso a un “Black Hat GPT” per mettere in crisi intere infrastrutture digitali. La conseguenza più pericolosa non è solo la violazione dei sistemi, ma la distruzione della fiducia. Voce, volto, documenti digitali: ciò che fino a ieri rappresentava una garanzia di autenticità oggi può essere falsificato con estrema facilità. È il passaggio dall’attacco tecnico all’attacco cognitivo, in cui l’obiettivo non è solo penetrare nei sistemi informatici, ma manipolare la percezione della realtà. E tutto questo è a portata di click, venduto come un qualsiasi servizio online in abbonamento mensile. Un’evoluzione che impone una riflessione urgente su sicurezza, regolamentazione e consapevolezza: perché la nuova minaccia non è più nascosta nelle retrovie del web, ma può presentarsi con il volto familiare di un collega, la voce del proprio capo o una mail perfettamente scritta.
