Il gruppo ombra dei tecnologi pianifica di sabotare lo sviluppo dell'intelligenza artificiale (AI), inquinando Internet con dati avvelenati per l'addestramento delle reti neurali. Il progetto Poison Fountain invita i webmaster a inserire sui propri siti collegamenti a flussi di contenuti di bassa qualità, che possono danneggiare i grandi modelli linguistici durante il processo di addestramento.

L'iniziativa è emersa in un contesto di crescenti preoccupazioni riguardo alla sicurezza dell'AI. Geoffrey Hinton, premio Nobel e uno dei pionieri delle reti neurali, dopo aver lasciato Google nel 2023 ha ripetutamente avvertito delle minacce esistenziali dell'AI avanzata per l'umanità.

«Siamo d'accordo con Geoffrey Hinton: l'intelligenza artificiale rappresenta una minaccia per la specie umana», affermano i creatori di Poison Fountain sul loro sito. «Vogliamo danneggiare i sistemi di intelligenza artificiale».

Principio di funzionamento dei dati avvelenati

I grandi modelli di linguaggio vengono addestrati su enormi volumi di testo e codice raccolti da internet tramite programmi crawler specializzati. Le aziende di AI filtrano e confezionano questo materiale in set di dati di addestramento — ampie repository su cui i modelli si formano.

La strategia di Poison Fountain è quella di ingannare i crawler per raccogliere contenuti "avvelenati" in grado di deteriorare le prestazioni del modello durante l'addestramento. Il gruppo chiama a raccolta i sostenitori tra gli operatori di siti per incorporare link a flussi di dati di addestramento compromessi.

Il materiale avvelenato include codice errato con sottili errori logici e bug, progettati per danneggiare i modelli addestrati su di esso. Gli organizzatori hanno pubblicato due URL: uno sul normale internet e l'altro nel dark web, che è più difficile da rimuovere tramite le procedure standard di blocco.

Giustificazione scientifica dell'attacco

Recenti ricerche mostrano che Poison Fountain potrebbe non aver bisogno di compromettere un grande volume di dati di addestramento per infliggere un danno significativo alle prestazioni dei modelli di linguaggio. Nell'ottobre 2025, Anthropic ha pubblicato, insieme all'Istituto britannico per la sicurezza dell'AI e all'Istituto Alan Turing, i risultati che hanno messo in discussione l'assunto comune che avvelenare un grande modello richieda di compromettere una vasta porzione dei suoi dati di addestramento.

Negli esperimenti di Anthropic, solo 250 documenti dannosi sono stati sufficienti per indurre i modelli di AI a generare nonsenso. Se 250 documenti sono in grado di farlo, allora l'avvelenamento diventa una seria minaccia per i modelli addestrati su testi provenienti da internet.

Ostacoli al sabotaggio

Nonostante le possibilità teoriche, ci sono almeno tre motivi per essere scettici riguardo alle affermazioni che il progetto distruggerà investimenti in AI per miliardi di dollari.

In primo luogo, i pipeline di addestramento non sono aspirapolveri ingenui. I grandi sviluppatori di AI stanno già investendo seriamente nella pulizia dei dati: deduplicazione, filtraggio, valutazione della qualità e rimozione di evidente spazzatura. L'approccio di Poison Fountain include grandi volumi di codice e testo difettosi, che possono risultare più facili da rilevare rispetto a esempi di avvelenamento più accuratamente costruiti da lavori accademici.

In secondo luogo, internet è vasto. Anche se molti siti incorporano link a Poison Fountain, il materiale avvelenato deve comunque arrivare a uno specifico avvio di addestramento, passare attraverso il filtraggio e apparire nel flusso di addestramento abbastanza spesso da avere un impatto.

In terzo luogo, i difensori possono rispondere. Una volta noti i specifici fonti di avvelenamento, possono essere messe sulla lista nera a livello di URL, dominio e modelli.

Vulnerabilità strutturale dell'AI

Anche se Poison Fountain dovesse fallire, il progetto evidenzia una vulnerabilità strutturale dei modelli di linguaggio di grandi dimensioni. I dati di addestramento per i modelli sono spesso un mosaico disordinato, raccolto da milioni di fonti, gran parte dei quali estratti da internet aperto. Se le aziende di AI non possono fidarsi dei dati in ingresso, non possono fidarsi completamente nemmeno di quelli in uscita.

Questo progetto rappresenta una forma di protesta e segna l'inizio di un gioco del gatto e del topo che probabilmente si espanderà e diventerà più complesso man mano che l'AI sarà sempre più integrata nella vita quotidiana. Le dispute attorno all'AI potrebbero spostarsi da argomentazioni a azioni contro la tecnologia stessa.

Opinione sull'AI

Dal punto di vista dell'evoluzione tecnologica, la storia di Poison Fountain potrebbe rivelarsi un catalizzatore per un salto qualitativo nella sicurezza dell'AI. I tentativi di sabotaggio spesso stimolano lo sviluppo di soluzioni più robuste — simile a come gli attacchi informatici ai sistemi bancari negli anni '90 hanno portato alla creazione della crittografia moderna. Le aziende di AI stanno già investendo miliardi per proteggersi da tali minacce, sviluppando algoritmi di rilevamento delle anomalie e dati sintetici per l'addestramento.

L'analisi macroeconomica mostra una prospettiva diversa: i dati "avvelenati" potrebbero cambiare radicalmente la struttura del mercato dell'informazione. Il premio per set di dati di qualità e verificati aumenterà notevolmente, creando una nuova industria di "contenuti certificati". Le aziende inizieranno a pagare gli editori per un accesso esclusivo a dati puliti, trasformando l'informazione in un attivo ancora più prezioso. L'unica domanda è se questo diventerà un ostacolo all'ingresso di piccole startup di AI nel mercato.

#AI #AImodel #Write2Earn

$ETH

ETH
ETH
2,011.34
-2.04%