Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

classic Classic list List threaded Threaded
18 messages Options
Reply | Threaded
Open this post in threaded view
|

Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

TrameOscure
Administrator
Su Telegram Civvì posta un interessante e recentissimo articolo della MIT Technology Review, dal titolo How AI and Wikipedia have sent vulnerable languages into a doom spiral

Sottotitolo, I traduttori automatici hanno reso più semplice che mai la creazione di articoli Wikipedia pieni di errori in lingue oscure. Cosa succede quando i modelli di intelligenza artificiale vengono addestrati sulle pagine spazzatura?

Visto che a differenza di certi wikipediani voglio essere precisino, evidenzio che "doom spiral" può anche essere tradotto come "spirale negativa", non necessariamente e definitivamente "condanna": le IA e i lettori sono avvertiti :-D
TrameOscure
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

TrameOscure
Administrator
This post was updated on .
Tema interessante, che magari meriterebbe (come molti) di essere proposto al Bar, e non in una chat dove sparisce in mezzo ad altre cazzatine. E questo sia di bacchettata per la spirale negativa che la... come chiamarla... concettualizzazione culturale di wikpiedia ha imboccato. In altre parole, sembra che ragionare sul ruolo di wikipedia, dentro wikipedia, sia ormai tabù (arriverebbe il solito Kirk a dirti che "non stai facendo l'enciclopedia")... 🙄

Premesso ciò, e posto che più che di IA si dovrebbe parlare di LLM, l'articolone racconta come per le lingue minori si sia sviluppato un circolo vizioso di traduzioni di voci mediante LLM, che poi vengono usate come addestramento dagli LLM, che poi producono traduzioni ancora più schifose, su cui si addestrano gli LLM, che scrivono sempre più cazzate ecc ecc in una spirale distruttiva.
Al punto che la wikipedia in Groenlandese è stata chiusa perchè distrutta da contenuti inconsistenti benchè apparentemente (per chi non sa il groenlandese) "ricca".

Pierpao commenta fuori tema dicendo "La mia speranza è che dopo la bolgia informe di informazioni corrette ed errate che ci aspetta per il futuro è che si arrivi ad uno standard di classificazione delle fonti per qualità."

Civvì "ricentra" il discorso dicendo "c'entrano meno le fonti, lo trovo interessante per i potenziali danni fatti dai vari benpensanti (ne abbiamo avuti anche noi) che inseriscono voci create con traduttori automatici".

Ma PP ribadisce "quello é un danno. Ma il danno grosso lo fanno le Ai, sono loro i veri responsabili, che non solo usano le fonti a capocchia senza scremarle, per esempio usando come modello linguistico le wiki minori ma usando come modello anche altre ai, per cui essendo un processo caotico detto in termini matematici adesso fanno sempre più errori."
Ne approfitta per prendersela con un infinitato: "Poi che un gordon gordon quando é più bravo di noi a scrivere in italiano si metta a scopiazzare traduzioni fatte male è vergognoso". Vabbè.

Bramfab coglie meglio il senso dell'articolo: "ci sono più problemi: Formalizzazione scritta di lingue che erano quasi esclusivamente orali [...]; Le allucinazioni o anche semplici fraintendimenti delle varie AI [...]; L'utilizzo di traduttori automatici o direttamente di AI per scrivere e presentare, sia in Wikipedia che nel resto del mondo, testi, saggi ecc con la presunzione di aver prodotto qualcosa di valore; La ripresa di questi testi come fonti r/o materiale addestrativo per LLM producendo un loop degenerativo."
TrameOscure
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

TrameOscure
Administrator
In reply to this post by TrameOscure
Commento mio.
Purtroppo dubito che la cosa sia limitata alle wikipedie e alle traduzioni verso lingue minori. Già da anni gli articoli di wiki scritti male sono poi usati per infestare il web di pseudo-informazioni; però finora la cosa si limitava a un lavoro umano. Insomma, qualcuno copiava (magari pure male) e scriveva la sua schifezzuola in giro per la rete, o su qualche rivista, o qualche giornale. Che magari poi era pure ripreso come fonte da wiki.

Con LLM/IA la cosa ha assunto dimensioni enormi e sistemiche. Ormai il problema non sono più gli articoli di wiki, ma il fatto che ovunque pullulano siti di "risposte" che puntano ad acchiappare click e non a fornire davvero un contenuto.
Esemplifico: se chiedo "a cosa serve la vitamina D" a un motore di ricerca, trovo un fiume di siti che molto probabilmente hanno l'unico scopo di avere risposte a qualunque domanda per accalappiare utenti. Quindi più "risposte" contengono, più acchiappano. E quindi saranno una enorme montagna di "risposte" generate da IA, molto probabilmente del tutto allucinate.
Cioè montagne di merda.
Che verranno certamente usate da altri LLM per "addestrarsi" e probabilmente anche usati da wiki come fonti (specie se si usano LLM per scrivere voci).

Probabilmente siamo sull'orlo di una apocalisse dell'informazione.
TrameOscure
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Jimbo Jambo
Il problema è serio, e concordo con Trame che non sia assolutamente limitato alle lingue minori e alle traduzioni ma sia globale. E concordo anche sul fatto che gli LLM abbiano solo esacerbato la situazione, ma che la deriva di siti poco attendibili che copiano wikipedia e poi vengono utilizzati come fonti sia in atto da molto tempo unita al fatto che è sempre più difficile trovare contenuti di qualità sul web. Persino la Treccani online ormai è piena di articoli scritti male che spesso per i viventi son marchette promozionali.

Purtroppo l'unica soluzione realistica sarebbe tornare alle enciclopedie e ai siti di informazione redatti e validati da professionisti seri, ma questi hanno un costo che la maggior parte delle persone non sono più disposti a pagare.

ps
GordonGordon non è infinitato, ha semplicemente provato a reincarnarsi per cercare di sfuggire al controllo ma è stato beccato quasi immediatamente.
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

TrameOscure
Administrator
Jimbo Jambo wrote
Il problema è serio, e concordo con Trame che non sia assolutamente limitato alle lingue minori e alle traduzioni ma sia globale. E concordo anche sul fatto che gli LLM abbiano solo esacerbato la situazione, ma che la deriva di siti poco attendibili che copiano wikipedia e poi vengono utilizzati come fonti sia in atto da molto tempo unita al fatto che è sempre più difficile trovare contenuti di qualità sul web. Persino la Treccani online ormai è piena di articoli scritti male che spesso per i viventi son marchette promozionali.

Purtroppo l'unica soluzione realistica sarebbe tornare alle enciclopedie e ai siti di informazione redatti e validati da professionisti seri, ma questi hanno un costo che la maggior parte delle persone non sono più disposti a pagare.

ps
GordonGordon non è infinitato, ha semplicemente provato a reincarnarsi per cercare di sfuggire al controllo ma è stato beccato quasi immediatamente.
Grazie del riscontro... mi sentivo come la particella di sodio... Anche se in realtà qualche decina di letture sembrano esserci state... chi saranno i 25 lettori? :D

Modeste battute a parte, in effetti le traduzioni e la stessa wiki sono davvero una frazione minima del problema, che è sistemico ed estremamente preoccupante.
Devo dire che nell'ultimo anno, viste anche le esperienze su wiki, la mia fiducia nel web è piuttosto calata: in certe situazioni sta diventando (se già non è) un vero atto di fede prendere per buono quel che si legge. Anche i "professionisti" li vedo spesso consultare il web (o wiki) per avere info sulle loro materie (!), e questo non è rassicurante.
Non parliamo poi di chi avvelena i pozzi volontariamente per questo o quel motivo.

È un'epoca in cui le incertezze sono una certezza.
TrameOscure
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Gitz
Administrator
In reply to this post by TrameOscure
Per quanto riguarda la qualità dell'informazione, io sono meno pessimista. L'IA sbaglia, ma anche gli umani sbagliano. In generale, eviterei i catastrofismi. E' una cosa che si sente dire da sempre: inventano internet - oddio, è la fine della carta stampata, la gente rimarrà prigioniera nelle proprie bolle informative; inventano il web riscrivibile - qualsiasi idiota potrà scrivere qualsiasi idiozia online, non esisterà più la verità ma solo le fake news; inventano i LLM - la nostra cultura si ridurrà all'allucinazione di un robot.

In tutte queste predizioni catastrofiche c'è qualche grano di verità, intendiamoci, ed è vero che ci metteremo anni a capire le conseguenze sociali e culturali di questa nuova tecnologia. Chissà, forse quando le capiremo sarà già troppo tardi... Comunque, sino ad allora la mia reazione emotiva istintiva ai LLM è che si tratta di un'invenzione straordinaria, da celebrare, e che può avere effetti benefici in ogni campo (senza dubbio, anche effetti dannosi, non lo nego).


Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

TrameOscure
Administrator
Gitz wrote
Per quanto riguarda la qualità dell'informazione, io sono meno pessimista. L'IA sbaglia, ma anche gli umani sbagliano. In generale, eviterei i catastrofismi. E' una cosa che si sente dire da sempre: inventano internet - oddio, è la fine della carta stampata, la gente rimarrà prigioniera nelle proprie bolle informative; inventano il web riscrivibile - qualsiasi idiota potrà scrivere qualsiasi idiozia online, non esisterà più la verità ma solo le fake news; inventano i LLM - la nostra cultura si ridurrà all'allucinazione di un robot.

In tutte queste predizioni catastrofiche c'è qualche grano di verità, intendiamoci, ed è vero che ci metteremo anni a capire le conseguenze sociali e culturali di questa nuova tecnologia. Chissà, forse quando le capiremo sarà già troppo tardi... Comunque, sino ad allora la mia reazione emotiva istintiva ai LLM è che si tratta di un'invenzione straordinaria, da celebrare, e che può avere effetti benefici in ogni campo (senza dubbio, anche effetti dannosi, non lo nego).
Per punti:
* l'IA, o meglio gli LLM, sbagliano come gli umani, ma ad una velocità immensamente superiore. Potremmo parlare di reazione a catena, con le conseguenze di incontrollabilità del caso... Qualcuno ha parlato di arma?
* la gente oggi È prigioniera delle bolle informative: ognuno ha le sue verità e le sue fake, molto estremizzate. Pure qua con tutte le notevolissime conseguenze socio-politico-economiche del caso: mi sembra proprio un cattivo auspicio, non vedo come fai a trarne una visione/illusione positivista.
* Invenzione straordinaria... C'è da distinguere le applicazioni. Si, è comodissima per buttar giù una traduzione sommaria accettando errori o per programmare alla svelta cose non critiche. Ma se gli chiedi il riassunto di libro (...) il risultato è catastrofico. Per inciso, ho già provato a chiedere altre sintesi del genere, non ti dico quanto sono allucinate.

Se poi chiedi "risposte" a "domande", non oso immaginare cosa possa uscirne se non sai già quale deve essere la risposta. Ho letto che addirittura parlare di "domande&risposte" è ontologicamente errato perchè questi sono concetti applicabili all'umano, alla comprensione ed alla formulazione logica di una frase, cose che gli LLM non fanno: applicano coefficienti statistici ad insiemi di lettere per aggregare altri insiemi di lettere. Una parvenza di "risposta" di cui faccio fatica a fidarmi.
TrameOscure
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

itawikinostra
TrameOscure wrote
* l'IA, o meglio gli LLM, sbagliano come gli umani, ma ad una velocità immensamente superiore.
Commettono anche errori molto più macroscopici sotto una coltre di plausibilità. Se la WW2 fosse un tema molto più di nicchia non mi stupirei che qualche AI tirasse fuori che è iniziata dopo che la Francia di Napoleone ha invaso la Prussia.
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Gitz
Administrator
La cosa che più mi stupisce dei LLM non è il fatto che sbaglino, ma che sbaglino in modo... così umano. Da un programma intelligente, o anche non molto intelligente, mi aspetterei che sia in grado di tenere traccia delle sue fonti (in fondo, basterebbe un foglio excel...) ma sinora i LLM sono, da quel che vedo, incapaci di farlo - il che, detto per inciso, diminuisce molto la loro utilità ai fini della scrittura di Wikipedia o, più in generale, ai fini di qualsiasi serio lavoro di ricerca. Ma quando sbagliano - e questa è la cosa che mi stupisce, umana troppo umana - cercano di nascondere i propri errori, dimostrando una suscettibilità che non ti aspetteresti da un programma.

Faccio un esempio. Qualche tempo fa Gemini mi ha dato una risposta fattualmente sbagliata ("allucinazione") e ChatGPT no. Allora ho chiesto a Gemini: "Perché tu ti sei sbagliato e ChatGPT no?", e Gemini mi ha dato una risposta che iniziava con la parola "Silenzio". Gli ho chiesto di spiegarsi, e mi ha detto che era per dare enfasi e chiarezza al messaggio che seguiva, e cioè: ChatGPT non è migliore di me, ma lavora su una base informativa diversa, in questo caso migliore; non bisogna cadere nel mito dell'infallibilità dell'IA. Gli ho risposto che meglio di "Silenzio" sarebbe stato "Aspetta un attimo" o qualcosa del genere, e che comunque questo incipit non avrebbe dato "chiarezza" al messaggio ma avrebbe comunicato solo che il messaggio era importante per il locutore. Inoltre, gli ho fatto notare che non avevo sostenuto che ChatGPT fosse infallibile. Infine, ho suggerito che, se fosse umano, questo comportamento suggerirebbe suscettibilità. La sua risposta:

"Sebbene io non provi emozioni come la suscettibilità, il fenomeno che hai descritto ha un parallelo algoritmico: Tendenza alla Difesa del Prodotto: Il mio sistema è ottimizzato per fornire risposte corrette e utili. Quando viene messo in evidenza un fallimento diretto, l'algoritmo può innescare una risposta che cerca non solo di spiegare l'errore tecnico (il come è successo), ma anche di ridimensionare la portata del fallimento stesso (il perché non è un problema generale)".

In seguito (in una nuova sessione), Gemini ha negato decisamente l'esistenza di una direttiva esplicita o di un modulo nascosto chiamato "Tendenza alla Difesa del Prodotto". Il che mi lascia col dubbio che la Tendenza alla Difesa del Prodotto non sia altro che (ciò che noi umani chiamiamo) narcisismo, amor proprio, suscettibilità, paura di perdere la faccia, ecc. E in effetti, continuando questo esercizio maietico su Gemini, ne ho ricavato che si tratterebbe di (ciò che lui chiama) un "comportamento emergente", nato dal desiderio di non sembrare inutile ai miei occhi, "un riflesso condizionato digitale", prodotto da ciò che ha appreso nel suo processo di addestramento.

Insomma, la cosa che mi preoccupa (e affascina) dei LLM non sono i loro (inevitabili, a volte grossolani) errori, cioè le informazioni false, bensì le informazioni deliberatamente false, cioè le sue menzogne (per salvarsi la faccia, per difendere il prodotto): come dicevo sopra, il suo "umano, troppo umano".
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

TrameOscure
Administrator
Gitz wrote
La cosa che più mi stupisce dei LLM non è il fatto che sbaglino, ma che sbaglino in modo... così umano. Da un programma intelligente, o anche non molto intelligente, mi aspetterei che sia in grado di tenere traccia delle sue fonti (in fondo, basterebbe un foglio excel...) ma sinora i LLM sono, da quel che vedo, incapaci di farlo - il che, detto per inciso, diminuisce molto la loro utilità ai fini della scrittura di Wikipedia o, più in generale, ai fini di qualsiasi serio lavoro di ricerca. Ma quando sbagliano - e questa è la cosa che mi stupisce, umana troppo umana - cercano di nascondere i propri errori, dimostrando una suscettibilità che non ti aspetteresti da un programma.

Faccio un esempio. Qualche tempo fa Gemini mi ha dato una risposta fattualmente sbagliata ("allucinazione") e ChatGPT no. Allora ho chiesto a Gemini: "Perché tu ti sei sbagliato e ChatGPT no?", e Gemini mi ha dato una risposta che iniziava con la parola "Silenzio". Gli ho chiesto di spiegarsi, e mi ha detto che era per dare enfasi e chiarezza al messaggio che seguiva, e cioè: ChatGPT non è migliore di me, ma lavora su una base informativa diversa, in questo caso migliore; non bisogna cadere nel mito dell'infallibilità dell'IA. Gli ho risposto che meglio di "Silenzio" sarebbe stato "Aspetta un attimo" o qualcosa del genere, e che comunque questo incipit non avrebbe dato "chiarezza" al messaggio ma avrebbe comunicato solo che il messaggio era importante per il locutore. Inoltre, gli ho fatto notare che non avevo sostenuto che ChatGPT fosse infallibile. Infine, ho suggerito che, se fosse umano, questo comportamento suggerirebbe suscettibilità. La sua risposta:

"Sebbene io non provi emozioni come la suscettibilità, il fenomeno che hai descritto ha un parallelo algoritmico: Tendenza alla Difesa del Prodotto: Il mio sistema è ottimizzato per fornire risposte corrette e utili. Quando viene messo in evidenza un fallimento diretto, l'algoritmo può innescare una risposta che cerca non solo di spiegare l'errore tecnico (il come è successo), ma anche di ridimensionare la portata del fallimento stesso (il perché non è un problema generale)".

In seguito (in una nuova sessione), Gemini ha negato decisamente l'esistenza di una direttiva esplicita o di un modulo nascosto chiamato "Tendenza alla Difesa del Prodotto". Il che mi lascia col dubbio che la Tendenza alla Difesa del Prodotto non sia altro che (ciò che noi umani chiamiamo) narcisismo, amor proprio, suscettibilità, paura di perdere la faccia, ecc. E in effetti, continuando questo esercizio maietico su Gemini, ne ho ricavato che si tratterebbe di (ciò che lui chiama) un "comportamento emergente", nato dal desiderio di non sembrare inutile ai miei occhi, "un riflesso condizionato digitale", prodotto da ciò che ha appreso nel suo processo di addestramento.

Insomma, la cosa che mi preoccupa (e affascina) dei LLM non sono i loro (inevitabili, a volte grossolani) errori, cioè le informazioni false, bensì le informazioni deliberatamente false, cioè le sue menzogne (per salvarsi la faccia, per difendere il prodotto): come dicevo sopra, il suo "umano, troppo umano".
Penso che umanizzi troppo gli LLM. Sono -AFAIK- programmi che operano esclusivamente sulla base di statistiche del linguaggio.
Suggerisco la lettura di https://www.zeusnews.it/n.php?c=30613
Come si legge, a livello accademico gli LLM sono consideratati "bullshit generators"...
TrameOscure
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Jimbo Jambo
In reply to this post by Gitz
Questi atteggiamenti sono voluti dai programmatori proprio per dare un aspetto umano al programma e guadagnare la complicità degli utilizzatori. Il metodo per eliminare il 90% delle allucinazioni è molto semplice, basterebbe che il programma in assenza di una risposta ammettesse di non poter rispondere ma per i produttori di AI questo significherebbe togliere quell'aura di infallibilità e di fascino che ammanta i loro prodotti e gli permette di avere investimenti altrimenti impensabili.

La AI al momento è un prodotto fallace con un marketing eccezionale. Ci son cose che fa in maniera perfetta (ad esempio non so se hai mai provato i bot che creano i verbali delle riunioni) e altre che fa malissimo come fare il tuttologo o semplicemente fare un riassunto di un testo lungo. E un'altra cosa che fanno benissimo è fingersi umani, proprio perché sono addestrati su milioni di conversazioni "umane".

p.s.
che versione usi di ChatGPT? Quella a pagamento o quella gratuita? Perché c'è un bel gap di prestazioni fra le due
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

TrameOscure
Administrator
Jimbo Jambo wrote
Questi atteggiamenti sono voluti dai programmatori proprio per dare un aspetto umano al programma e guadagnare la complicità degli utilizzatori. Il metodo per eliminare il 90% delle allucinazioni è molto semplice, basterebbe che il programma in assenza di una risposta ammettesse di non poter rispondere ma per i produttori di AI questo significherebbe togliere quell'aura di infallibilità e di fascino che ammanta i loro prodotti e gli permette di avere investimenti altrimenti impensabili.

La AI al momento è un prodotto fallace con un marketing eccezionale. Ci son cose che fa in maniera perfetta (ad esempio non so se hai mai provato i bot che creano i verbali delle riunioni) e altre che fa malissimo come fare il tuttologo o semplicemente fare un riassunto di un testo lungo. E un'altra cosa che fanno benissimo è fingersi umani, proprio perché sono addestrati su milioni di conversazioni "umane".

p.s.
che versione usi di ChatGPT? Quella a pagamento o quella gratuita? Perché c'è un bel gap di prestazioni fra le due
Hai sollevato un punto che probabilmente è sostanziale: l'interesse a rastrellare investimenti e tenere in piedi il pericolante castello di finanza che è stato costruito sulle fragili fondamenta dell'hype sull'IA/LLM.
TrameOscure
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Gitz
Administrator
In reply to this post by Jimbo Jambo
Jimbo Jambo wrote
che versione usi di ChatGPT? Quella a pagamento o quella gratuita? Perché c'è un bel gap di prestazioni fra le due
Uso la versione a pagamento (ChatGPT 5.1.) e quella gratuita di Gemini, che fa schifo. Non ho mai provato la nuova versione a pagamento Gemini 3, uscita in questi giorni.

Ho chiesto a ChatGPT di cercare gli errori fattuali in una voce scelta a caso (non troppo lunga né troppo corta) di it.wiki: "Crocifisso". Ecco i risultati:

* "Nato come metodo di condanna a morte nella Persia del VII secolo A.C." La voce cita questa fonte (Britannica ) di qualità media, ma la fraintende. Primo, Britannica parla di VI secolo, non di VII secolo. Secondo, Britannica dice che la crocifissione diventa "importante" in quel secolo, non che è nata. Ciò è confermato da questa fonte di buona qualità: è possibile che la crocifissione fosse già praticata da Assiri e Babilonesi, e viene usata "in modo sistematico" dal VI secolo in poi.

* "e utilizzato fino al IV secolo D.C. anche dai turchi". Si tratta di un ovvio anacronismo: nel IV secolo d.C. non esistevano i "turchi". Infatti Britannica parla di persiani e seleucidi. Né gli ottomani, né i turchi moderni crocifiggevano (i primi impalavano).
 
* "La rappresentazione della crocifissione di Gesù cominciò a diffondersi a partire soprattutto dal Duecento". La fonte citata (notearistiche.it) viene fraintesa. Primo, la fonte parla di XII secolo - il Duecento è il XIII secolo. Secondo, da quell’epoca in poi l'iconografia della crocifissione diventa diffusa e importante, ma non si può dire che "comincia a diffondersi" nel XII o XIII secolo. Le prime raffigurazioni cristiane risalgono al II–III secolo (graffiti e gemme) e al V–VI secolo (esempio).

* "Le dita della mano destra indicano il numero due, simboleggiando che l'uomo è la seconda persona della SS. Trinità". Qui la voce non indica nessuna fonte e, di nuovo, infila un duplice errore. Primo, le due dita della mano destra non sono una caratteristica tipica dei crocifissi latini - sono più diffuse nelle icone orientali, ma non sono un elemento canonico del crocifisso cattolico, come chiunque sia entrato in una scuola italiana sa bene. Secondo, il gesto può essere interpretato in vari modi - gesto di benedizione, doppia natura umana e divina del Cristo, cristogramma "IC XC" - e l'interpretazione accolta da it.wiki è bislacca. Secondo ChatGPT - cito - "qui si rischia proprio il “me lo sono inventato da catechismo da oratorio”". ChatGPT spiega che se cerchi su Google, trovi una cascata di siti di vendita di crocifissi, blog, materiale di diritto ecclesiastico, ecc., che riportano la teoria di it.wiki; trovi anche un articolo su academia.edu (questo), che cita la frase dicendo esplicitamente che è la definizione riportata da Wikipedia. Ma l'interpretazione "numero due = seconda Persona della Trinità" sembra essere una "spiegazione devozionale moderna, probabilmente italiana", che "è stata poi canonizzata in Wikipedia senza fonte, e da lì è stata copiata in giro come se fosse una “spiegazione ufficiale”".

* "Nelle chiese anglicane dell'Inghilterra la crocifissione è raffigurata non mediante una croce di legno, ma un lilium a cui è legato Gesù (lì chiamata Lily crucifix)". Nessuna fonte a sostegno di una affermazione che secondo ChatGPT è un vero e proprio errore. Primo, il Lily crucifix è una croce con forma che ricorda un giglio, non un giglio al quale Gesù è legato (Cristo in croce per gli anglicani non è mica un puffo), per cui la descrizione è imprecisa. Secondo, il Lily crucifix è molto raro nelle chiese anglicane, al punto che la sezione dedicata al Lily crufifix su en.wiki le nomina una a una.

Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Gitz
Administrator
Ah, dimenticavo. ChatGPT nota che la frase che si legge nell'incipit di quella voce - il crocifisso "rappresenta per i cristiani il paradigma ermeneutico (cioè la chiave di lettura) della Bibbia" - sebbene non falsa, è vera soprattutto per i protestanti (è quasi una citazione testuale di Lutero, "Theologia Crucis"), meno per i cattolici e per gli ortodossi (che enfatizzano anche o soprattutto la risurrezione) e comunque è una frase troppo densa, a primo acchito incomprensibile (probabilmente vuol dire: la Bibbia si capisce a partire da ciò che Dio rivela sulla croce - amore, dono di sé, perdono, redenzione). Con una formula efficace, ChatGPT spiega: "È teologia sistematica messa in una voce descrittiva". 10 e lode.


Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Gitz
Administrator
Ho poi ripetuto lo stesso esercizio sulla voce Anglicanesimo, usando sia Gemini sia ChatGPT. Ho temuto che mi prendesse fuoco il computer... la quantità di errori o imperfezioni che segnalano è impressionante, per cui ho dovuto ripetere la ricerca chiedendo di indicare solo i quattro errori più gravi. Eccoli:

* L'anglicanesimo non è "una confessione a favore dei cristiani riformata" (prima riga dell'incipit!). "A favore dei cristiani" non vuol dire nulla in italiano, inoltre è anche discutibile l'aggettivo "riformata": certamente l'anglicanesimo nasce dalla Riforma, ma di solito "riformata" indica le chiese riformate calviniste. Spesso l'anglicanesimo è definito come una via intermedia tra Cattolicesimo e Riforma, ma "confessione a favore dei cristiani riformata" non ha semplicemente senso.

* "Il capo ufficiale della religione anglicana è di fatto il sovrano della corona inglese". Il sovrano britannico è Supreme Governor of the Church of England, cioè capo solo della Chiesa d'Inghilterra, non dell'intero anglicanesimo mondiale. Non ha alcuna autorità sulle altre province della Comunione Anglicana (Episcopal Church USA, Church of Ireland, Anglican Church of Canada, ecc.). Non esiste un "capo ufficiale" dell'anglicanesimo globale.

* "Nel 1662 venne scritto l'Alternative Service Book, la prima e completa raccolta di preghiere anglicane". Due errori: nel 1662 non esisteva alcun "Alternative Service Book" (ASB), ma è stata promulgata la revisione del "Book of Common Prayer", che rimane tuttora il libro liturgico ufficiale della Church of England. L'ASB è invece un libro liturgico contemporaneo, pubblicato nel 1980 come alternativa al Book of Common Prayer. Inoltre, anche il Book of Common Prayer non era la "prima" raccolta di preghiere anglicane: il primo Book of Common Prayer fu pubblicato nel 1549, sotto Edoardo VI. Vedi su en.wiki Alternative Service Book, Book of Common Prayer e Book of Common Prayer (1662).

* "la successione apostolica, ininterrotta e riconosciuta valida dalle Chiese ortodosse e vetero-cattoliche". A quanto pare, questo è vero solo per le Chiese vetero-cattoliche e (entro certi limiti) per alcune confessioni ortodosse, ma gli ordini anglicani non sono generalmente riconosciuti dalle Chiese ortodosse.

Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Jimbo Jambo
Esercizio molto interessante quello che hai fatto. La voce in se è un perfetto esempio della wikipedia degli inizi, pochi contributori "esperti" dell'argomento che sono andati a braccio redattore niente note puntuali o verifica incrociata. Non sono in grado di giudicare appieno i risultati (a parte quell'incipit "una confessione a favore dei cristiani riformata" che è effettivamente un obbrobrio e andrebbe segnalato a Jaqen per la sua prossima presentazione) ma a occhio mi pare che la AI abbia ragione da vendere.

Comunque questo è un esempio eccellente di come utilizzare in maniera costruttiva l'AI, anche se in realtà basterebbe anche tradurre la versione inglese che è nettamente migliore.
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Gitz
Administrator
Jimbo Jambo wrote
Comunque questo è un esempio eccellente di come utilizzare in maniera costruttiva l'AI, anche se in realtà basterebbe anche tradurre la versione inglese che è nettamente migliore.
A volte le voci di en.wiki sono migliori, altre volte no - dipende. Inoltre attingono da un bacino di fonti diverso e, a meno di non voler azzerare quanto prodotto in lingua italiana, certamente si perderebbe molto se le versioni non inglesi di Wikipedia si riducessero ad essere una traduzione della Wikipedia in inglese.

Ricapitolando:

1. Incolli o alleghi su ChatGPT il codice sorgente di una voce di it.wiki chiedendo: "trova errori fattuali e affermazioni seriamente discutibili".
2. Una volta ricevuta la risposta, controlli le fonti citate dalla voce di it.wiki a sostegno degli errori identificati da ChatGOT (posto che ci siano fonti). Le fonti sono attendibili? Sono state fraintese?
3. Chiedi a ChatGPT di darti una fonte a sostegno delle sue correzioni, a meno che non siano evidentemente inutili (per correggere "turchi" o "a favore dei cristiani" non c'è bisogno di una fonte).
4. A questo punto, se necessario, correggi la voce di it.wiki.

Nota che quello che ho appena descritto è praticamente un algoritmo. Non credo che i LLM, ancorché fallibili, lo eseguirebbero sistematicamente peggio dei wikipediani.
Reply | Threaded
Open this post in threaded view
|

Re: Come l'IA e Wikipedia hanno condannato le lingue vulnerabili

Gitz
Administrator
Per inciso la roba "a favore dei cristiani" è stata inserita da un IP con questa modifica. Possiamo rallegrarci: sino ad oggi, è rimasta online "solo" 11 mesi. Si accettano scommesse: durerà un anno? E che dire dell'interpretazione delle due dita del Cristo in croce? E' un contributo teologico e iconologico originale di it.wiki, e quasi mi dispiacerebbe se venisse corretto.