C’è un’immagine che mi torna spesso in mente ogni volta che si parla di intelligenza artificiale: quella degli illuministi del XVIII secolo, intenti a raccogliere e organizzare tutto il sapere umano nell’Enciclopedia.
Oggi, a distanza di tre secoli, quel sogno sembra finalmente compiuto — ma con un rovescio della medaglia. Perché l’“enciclopedia universale” del XXI secolo non è frutto di mani umane che scrivono, ma di algoritmi che raccolgono, analizzano e riproducono i contenuti creati dagli altri.
Indice dei Contenuti
E allora la domanda è inevitabile: a chi appartiene questa nuova conoscenza?
Ma, soprattutto, chi la paga?
L’intelligenza artificiale e la conoscenza rubata
L’intelligenza artificiale generativa si alimenta di enormi quantità di dati. Ogni articolo, post, immagine, recensione o discussione online diventa parte di un gigantesco archivio che serve ad addestrare modelli linguistici e visivi sempre più sofisticati. In poche parole: le IA apprendono leggendo noi, ma spesso lo fanno senza consenso e senza compenso.
Il recente rapporto dell’OECD “Intellectual Property Issues in AI Trained on Scraped Data” (2025) ha messo nero su bianco ciò che molti sospettavano: le pratiche di data scraping, l’estrazione automatica di informazioni da siti e piattaforme, pongono seri interrogativi sulla tutela della proprietà intellettuale. Quando un modello d’intelligenza artificiale ingloba miliardi di testi, immagini o codici di programmazione raccolti dal web, è quasi impossibile stabilire dove finiscano i dati pubblici e dove inizino le opere protette da copyright.
Eppure, la distinzione è cruciale. Perché ciò che per un algoritmo è solo “dato”, per un autore è l’espressione di un’idea, un’opera dell’ingegno, un investimento economico e creativo.
Il paradosso del sapere digitale

Gli illuministi credevano nella conoscenza condivisa come strumento di progresso collettivo. Internet sembrava aver realizzato quella promessa, ma con l’avvento dell’IA generativa il paradigma è completamente cambiato.
Non stiamo più condividendo la conoscenza: la stiamo estrapolando, riassemblando e riproponendo attraverso macchine che imparano dai nostri contenuti, senza però restituire valore a chi li ha prodotti.
È il grande paradosso del sapere digitale: più dati creiamo, più le IA diventano potenti; ma più diventano potenti, più riducono l’incentivo umano a creare nuovi contenuti.
In assenza di un sistema di compensazione equo, rischiamo un circolo vizioso in cui i creatori si impoveriscono e le macchine si arricchiscono, fino a quando, semplicemente, non ci sarà più nulla di nuovo da apprendere.
E… se il web si spegnesse
Immaginiamo, per assurdo, che un giorno i creatori di contenuti decidano di “scioperare” e che chiudano l’accesso ai crawler delle intelligenze artificiali o che cancellino i propri archivi dati online.
In uno scenario come quello appena descritto, quali potrebbero essere le conseguenze per le aziende del settore tech?
- Congelamento delle informazioni acquisite.
I modelli di intelligenza artificiale generativa dovrebbero basarsi solo su dati fissi senza la possibilità di aggiornarsi con le informazioni più recenti. - Degrado nella qualità delle risposte.
Le informazioni già in loro possesso diventerebbero rapidamente obsolete compromettendone la credibilità. - Aumento dei costi.
Dovuto sia all’acquisto delle licenze d’uso che alla necessità di collaborare direttamente con singoli creatori di contenuti per realizzare argomenti originali.
Senza nuove e aggiornate fonti informative, l’intelligenza artificiale tornerebbe ad essere un’enciclopedia statica, perfetta nella forma, ma incapace di evolversi con il mondo.
Ed è qui che il nodo etico si fa evidente. Non basta “addestrare” una macchina: bisogna nutrirla in modo sostenibile, riconoscendo il valore del lavoro umano che le permette di funzionare.
Il danno economico invisibile
Negli ultimi anni, molti editori hanno denunciato un crollo improvviso delle visite organiche ai propri siti, non ultimo, qualche giorno fa, Salvatore Aranzulla su FanPage.it. Il motivo? I chatbot e i motori di ricerca “assistiti da AI” rispondono direttamente alle domande degli utenti, senza rimandare alle fonti originali. Con il risultato che Il lettore ottiene l’informazione, ma il sito che l’ha generata non riceve né click né revenue pubblicitaria.
Come ha scritto Aleesha Jacob nel suo articolo “Dealing With Revenue Loss Due to AI Content Scraping” (luglio 2025), questa dinamica rappresenta “un’estinzione silenziosa” per l’editoria digitale. Le aziende editoriali, definite nell’articolo “il plancton dell’ecosistema digitale”, alimentano il mare dell’informazione da cui si nutrono le grandi piattaforme AI. Ma, in natura, se il plancton scompare l’intero ecosistema marino collassa.
Il problema è quindi strutturale:
- I bot di training accedono ai contenuti una sola volta, ma li riutilizzano all’infinito.
- I modelli generativi producono valore economico senza restituire alcun ritorno ai produttori di contenuti.
- Le metriche di traffico, alla base del modello pubblicitario, perdono completamente significato.
In questo contesto, la sfida non è più solo proteggere la proprietà intellettuale, ma preservare la sopravvivenza stessa del giornalismo online.
Leggi anche: L’intelligenza artificiale sta spegnendo la luce ai media online? Una riflessione necessaria
Etica e diritto d’autore nell’era delle macchine
Sul piano giuridico, la questione è ancora in evoluzione.
Ad esempio, il Consultation Report on Copyright in the Age of Generative AI del governo canadese (2024) evidenzia due posizioni opposte:
- I creatori e le industrie culturali sostengono che l’uso non autorizzato delle loro opere per l’addestramento dei modelli costituisca una violazione dei loro diritti economici e morali.
- I gruppi tecnologici replicano che l’attività di text and data mining non comporta una “riproduzione espressiva”, ma solo un’analisi statistica di dati, e dunque non dovrebbe rientrare nel campo del copyright.

Nel mezzo, c’è un vuoto normativo che molti Paesi stanno tentando di colmare. L’AI Act europeo, entrato in vigore il 1° agosto 2024, impone obblighi di trasparenza, tracciabilità e accountability per i fornitori di sistemi di IA generativa. AI Act che, tra l’altro, prevede che i produttori dichiarino se e come i loro modelli siano stati addestrati su opere protette da diritto d’autore.
Si tratta sicuramente di un primo passo ma certamente non basta. Servono accordi di licenza, sistemi di remunerazione e meccanismi di controllo che rendano la relazione tra autori e intelligenze artificiali economicamente e giuridicamente sostenibile.
Verso un nuovo patto tra umani e algoritmi
Il settore sta già sperimentando nuovi modelli di compensazione.
Due in particolare stanno attirando l’attenzione:
- Pay-per-crawl – un sistema in cui le aziende di IA pagano una piccola quota ogni volta che i loro bot accedono a una pagina web. È una forma di “pedaggio digitale”, utile ma limitata: il valore di quel contenuto non si esaurisce in un’unica scansione.
- Pay-per-query – un modello più evoluto, che prevede il pagamento ogni volta che un contenuto contribuisce a generare una risposta AI. Funziona come le “royalties musicali”: un autore non viene pagato solo quando incide un brano, ma ogni volta che quel brano viene trasmesso o ascoltato.
Questo secondo approccio, sostenuto dall’IAB Tech Lab, potrebbe rappresentare una svolta. Le grandi piattaforme potrebbero valutare l’opportunità di un incentivo economico per premiare i creatori di contenuti di qualità, trasformando l’attuale rapporto predatorio in una partnership basata su valori condivisi.
Il nodo della trasparenza
Affinché tutto questo funzioni, serve un’infrastruttura di tracciamento affidabile. Il rapporto dell’OECD (Organisation for Economic Co-operation and Development) propone la creazione di un “data scraping code of conduct/ codice di condotta per l’estrazione dei dati” internazionale, con standard tecnici comuni e strumenti per:
- controllare l’accesso dei bot ai contenuti;
- rendere automatici i contratti di licenza;
- certificare la provenienza e l’utilizzo dei dati nei modelli;
- introdurre un sistema che consenta di attribuire ogni frammento di testo o immagine al giusto autore originale.
In buona sostanza, una catena di custodia digitale dei dati, simile a quella usata dalle blockchain. Solo con un simile sistema di audit sarà possibile garantire che i contenuti umani rimangano riconoscibili, tracciabili ma soprattutto remunerati.

L’etica della generazione artificiale
Sul fronte etico, il documento di NTT Data “Ethical Considerations of Generative AI” (2024) introduce un concetto chiave: la Trustworthy AI. Secondo le linee guida europee, un sistema di intelligenza artificiale è “affidabile” solo se rispetta sette requisiti fondamentali:
- trasparenza,
- sicurezza,
- equità,
- accountability,
- rispetto dei diritti umani,
- sostenibilità ambientale,
- supervisione umana.
Il rischio, altrimenti, è duplice: da un lato la manipolazione, quando l’IA diventa così realistica da influenzare le decisioni degli utenti, dall’altro la perdita di responsabilità, in cui nessuno sa più chi è autore, chi è proprietario e chi è responsabile del contenuto generato.
L’AI Act europeo affronta unna parte di questi aspetti classificando i modelli generativi come “AI ad uso generale” ed imponendo loro obblighi di trasparenza rafforzata ma la sfida più grande non è tanto regolatoria, quanto culturale.
Serve una consapevolezza diffusa, sia tra i professionisti del digitale che tra gli utenti, sul fatto che ogni artefatto dell’IA è il risultato di un sapere umano e che quel sapere ha un valore.
Costruire un’AI sostenibile

Una governance equilibrata dell’intelligenza artificiale deve poggiare su tre pilastri complementari:
- Etica: definire principi chiari per l’uso delle informazioni, evitando abusi e distorsioni cognitive.
- Economia: realizzare modelli di remunerazione che esprimano al meglio l’impatto dei contenuti, magari con licenze flessibili legate al loro reale utilizzo.
- Tecnologia: sviluppare strumenti interoperabili di controllo, tracciamento e identificazione, come watermark digitali o blockchain per la certificazione delle fonti.
Alcune startup stanno già lavorando su sistemi di “content fingerprinting/impronta digitale del contenuto”, in grado di marcare digitalmente testi, immagini o suoni in modo da renderne riconoscibile la paternità anche dopo l’elaborazione da parte di un modello AI. È una strada promettente: non blocca l’innovazione, ma la rende trasparente e sostenibile.
Un’economia del riconoscimento
Se guardiamo la questione da un punto di vista macroeconomico, il valore della conoscenza online è immenso.
Secondo stime di PwC, il mercato dell’IA generativa potrebbe superare i 1.300 miliardi di dollari entro il 2032. Ma chi produce i dati che rendono possibile questo business non riceve praticamente nulla.
La logica del “gratis” che ha dominato il web negli ultimi vent’anni non è più sostenibile. Come accadde con la musica digitale dopo l’era di Napster, servirà una riconversione del modello di monetizzazione: piattaforme che pagano per l’uso dei contenuti, accordi di licenza tra publisher e aziende AI, e standard internazionali che garantiscano reciprocità e rispetto.
Le grandi redazioni stanno già muovendosi: The Associated Press e Axel Springer hanno siglato intese con OpenAI per l’uso dei loro archivi, mentre Getty Images ha avviato cause legali per proteggere le proprie fotografie. È solo l’inizio di una ridefinizione profonda del rapporto tra creatività umana e automazione.
Motivare, riconoscere, compensare
Alla fine, tutto si riduce a tre verbi che dovrebbero guidare la nostra convivenza con l’intelligenza artificiale: motivare, riconoscere, compensare.
- Motivare chi crea, perché senza creatività non c’è conoscenza.
- Riconoscere il valore di chi produce contenuti, perché ogni dato ha un autore.
- Compensare in modo equo, perché l’innovazione non può poggiare sull’ingiustizia.

L’IA può essere un alleato straordinario, ma solo se impariamo a bilanciare potere e responsabilità, e forse, come diceva Diderot, il vero progresso non è accumulare sapere, ma imparare a usarlo con coscienza.
Perché un’intelligenza che si nutre del lavoro umano senza restituire nulla non è davvero “intelligente” ma è soltanto un’eco sofisticata del passato mentre il futuro appartiene ancora a chi crea.
Alessandro Di Somma
Alessandro Di Somma è il referente di Web Napoli Agency, specializzata nella realizzazione e nel restyling di siti web a Napoli e provincia.
Sviluppa siti web professionali in ambiente WordPress, curando design, performance, sicurezza, SEO on-page e marketing SEO. Appassionato blogger, scrive di tecnologia, web design e marketing online, condividendo best practice e trend del settore.

