top of page

Dante Alighieri usava l'AI?

  • Immagine del redattore: Giuliano Dall'O'
    Giuliano Dall'O'
  • 6 mar
  • Tempo di lettura: 2 min

Ho fatto un esperimento molto semplice: ho incollato alcuni versi famosissimi della Divina Commedia in uno di quei siti che promettono di “rilevare” se un testo è stato scritto da un essere umano o dall’intelligenza artificiale.



Il risultato è stato sorprendente: 100% AI, e pensare che non si trattava di un italiano contemporaneo.

A questo punto dovremmo aggiornare i manuali: Dante Alighieri, avrebbe avuto anche un abbonamento a un modello linguistico già nel Trecento. Ovviamente è una battuta. Ma la battuta serve a illuminare un punto serio: molti “detector” non stanno davvero dimostrando che un testo sia stato generato dall’IA. Stanno producendo una stima probabilistica basata su indizi stilistici: regolarità, prevedibilità, certi pattern linguistici. E quando lo stile “assomiglia” a ciò che il modello si aspetta, possono scattare falsi positivi clamorosi.

Fin qui, già basterebbe per essere prudenti. Ma c’è un secondo passaggio, ancora più interessante, che rivela un vero paradosso.

Molti di questi siti, infatti, non si limitano a dirti “attenzione, questo testo sembra proprio AI”. Subito dopo ti offrono la soluzione: “Vuoi renderlo più umano? Umanizza.” Naturalmente a pagamento.

Ed ecco il paradosso: la “cura” è spesso prodotta dallo stesso tipo di tecnologia che il detector dichiara di voler smascherare. In altre parole: prima un algoritmo ti assegna una percentuale, comunque sempre alte, di AI poi un altro algoritmo (o lo stesso, in una funzione diversa) ti riscrive il testo per far scendere quella percentuale.

A questo punto la domanda non è più “è AI o non è AI?”. La domanda diventa: che cosa stanno misurando davvero questi strumenti, se poi basta un’ulteriore rielaborazione automatica per cambiare il verdetto? E soprattutto: non rischiamo di entrare in un circuito perfetto per alimentare ansia e speculazione? Prima ti spavento con un numero, poi ti vendo la via d’uscita.

Sia chiaro: il plagio è un’altra questione, ed è giusto che venga combattuto senza ambiguità, e aggiungo che gli strumenti sono utilissimi. I controlli antiplagio hanno un senso perché confrontano testi e somiglianze: lavorano su un terreno più solido. Ma “rilevare l’IA” non è la stessa cosa. Qui si entra in un dominio molto più scivoloso, dove si scambiano indizi per prove.

E infatti la domanda decisiva non è “questo testo ha un tono da IA?”. La domanda vera è: il contenuto è corretto? è onesto? è verificabile? Perché un testo può essere formalmente impeccabile e dire cose sbagliate. Oppure può essere stilisticamente regolare (come molti classici) e venire sospettato a torto.

Per questo credo che sia arrivato il momento di trattare il tema con serietà (e mi risulta che il dibattito in corso ci sia, eccome!): servono regole chiare, soprattutto in ambito scolastico e scientifico, che distinguano tra ciò che è inaccettabile (plagio, falsificazioni, contenuti inventati) e ciò che può essere legittimo (strumenti di supporto alla forma, alla lingua, alla chiarezza o generatori di immagini), sempre dentro un quadro di responsabilità e trasparenza.

Altrimenti rischiamo di sostituire il giudizio con un numerino, e il merito con un indicatore probabilistico. E se un numerino può dichiarare “AI” perfino la Divina Commedia, allora è evidente che quel numerino non può diventare un tribunale.



Che ne pensate? Stiamo costruendo strumenti per la qualità… o strumenti per la paura?

 
 
 

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione

© 2026 by Giuliano Dall'O'. Powered and secured by Wix

bottom of page