Accessibility Tools

Per fare debunking serve l’arte

Arte e Tecnologia

Condividi su

Cosa trovi in questa news

Cosa è il debunking?

Viviamo in un’era denominata “era delle fake news” . Sebbene le fake news non siano una novità dei nostri tempi, oggi, rispetto al passato, la loro diffusione è in crescita, perché l’industria dei media non mette barriere all’ingresso ed è molto più facile immettere notizie e far circolare informazioni in rete senza dover dimostrare la loro veridicità. Vista la possibilità per chiunque di accedere ai mezzi di creazione e diffusione di contenuto, le false notizie vengono inoltre prodotte e veicolate non solo da chi produce contenuti per i media ufficiali, ma da chiunque abbia accesso a internet. Inoltre, recentemente è emersa una complessità maggiore nel contrasto alle fake news, posta dalla multicanalità e multimedialità: può realizzarsi il caso di una notizia vera accompagnata da immagine falsa, o di un video vero ma con didascalia falsa.

Il debunking – o quello che molti chiamano debunkering – è una conseguenza portata dalla crescita di questo fenomeno: la disinformazione in questi tempi è vista come un problema da cui dobbiamo difenderci e nascono figure, strumenti e competenze per fare “debunking”, ovvero distinguere le notizie e i contenuti veri da quelli falsi. 

Come descritto nei paragrafi successivi, in realtà il termine debunking deriva da una pratica di origini antiche e il debunker è, letteralmente, il “demistificatore” (da de-bunk, termine di origini inglesi composto dal prefisso de- , che sta per “rimuovere” e da –bunk, che sta per “discorso senza senso”). Chi fa debunking oggi è la persona che si occupa di sbugiardare e smentire notizie false, dubbie o antiscientifiche: smontare i complotti, individuare le bufale.

Cosa c’entra con Sineglossa

L’interesse di Sineglossa per il tema del debunking proviene dalla lettura del romanzo La Q di Qomplotto. QAnon e dintorni di Wu Ming 1, pubblicato nel marzo del 2021 da Edizioni Alegre. Nel volume, un “oggetto narrativo non identificato” – come afferma la recensione di Enrico Manera per Doppiozero, viste le diverse tipologie di scrittura che lo compongono – viene raccontata la difficile, disturbante e contorta storia di QAnon, ma non solo. Partendo da un reportage d’inchiesta su QAnon, viene proposta una ridefinizione semantica e linguistica dei termini usati per descrivere il fenomeno delle teorie del complotto, fino a comporre una fenomenologia del funzionamento mitico delle fantasie di complotto. Infine, l’autore evidenzia quali caratteristiche dovrebbero avere le pratiche di debunking per essere efficaci: il fascino delle storie e il nocciolo di verità.

Se, come afferma Wu Ming 1, sono necessari questi due elementi per una forma efficace di debunking, cosa succederebbe se ad assumere questa sfida fosse un’artista?

Un estratto di La Q di complotto, Wu Ming 1, Edizioni Alegre, 2021

Da questa domanda nasce il progetto di Sineglossa presentato per European Digital Deal, l’iniziativa cofinanziata dal programma Creative Europe e guidata da Ars Electronica, di cui Sineglossa è l’unico partner italiano. 14 organizzazioni culturali europee insieme per investigare come la rapida e, a volte, ingenua adozione di nuove tecnologie di intelligenza artificiale possa contribuire ad alterare o minare i processi democratici. Attraverso una call internazionale per artisti, European Digital Deal selezionerà 12 progetti che, dopo una fase di residenze artistiche nei centri culturali coinvolti, realizzeranno delle installazioni interattive per esporre i rischi e le opportunità connesse all’utilizzo dell’intelligenza artificiale nella vita quotidiana dei cittadini europei. Sineglossa lancerà a settembre una call for artists sui temi del debunking, complotto, contrasto alle fake news, in collaborazione con il Visit Lab del Cineca e il patrocinio di Regione Emilia Romagna.

5 esperti per il mentoring dell’artista

Il progetto European Digital Deal si sviluppa attorno a 5 obiettivi principali, attraverso una serie di azioni che vanno dall’organizzazione di eventi pubblici alla produzione di contenuti divulgativi, dalla produzione di opere artistiche al capacity building:

  1. Build and validate: ogni partner individua alcuni esperti di tecnologia, arte e digitale che costituiscono un “Local Expert Groups (LEG)”, ovvero definiscono la challenge da porre nella call for artists, mettono a disposizione risorse, strumenti e conoscenze per l’implementazione del programma di residenza artistica a cui avrà accesso l’artista selezionato dalla call for artists, infine affiancano l’artista attraverso momenti di consulenza e mentoring online e offline per accompagnarlo alla prototipazione del progetto pilota.
  2. Innovate: attraverso una Open Call lanciata in ognuno degli stati membri (12 in totale per la rete di partner), verranno individuati lɜ artistɜ che lavoreranno a 12 diverse sfide inerenti alle tematiche di tecnologia, giustizia e digitale, per sviluppare individualmente 12 differenti progetti artistici, avvalendosi del supporto di alcuni dei partner coinvolti (FZC, ZK, CY e CPN) per le attività di ricerca e sviluppo, e dei momenti di incontro e scambio previsti tra lɜ artistɜ, per la condivisione delle conoscenze.
  3. Learn: il progetto implementa una serie di attività educative non formali per scuole e studenti, attraverso metodologie artistiche e creative, e altrettante occasioni di capacity building per artistɜ, sulle tematiche di ricerca delle organizzazioni membri (Trasparenza dell’IA, arte e democrazia, arte e debunking, plant/animal/human AI interaction).
  4. Showcase: le opere e i contenuti di ricerca e studio emersi nel corso del progetto saranno oggetto di eventi, festival e mostre in ognuno degli stati membri.
  5. Guide: lo step ultimo del progetto sarà presentare i risultati agli stakeholder esterni al settore della cultura, sensibilizzando un pubblico di non espertɜ sulla capacità dell’arte di attrarre e sviluppare innovazione. La disseminazione dei risultati avverrà attraverso il Digital Future Action Plan through arts.

Come emerge dalla lista sopra elencata, la formazione dellɜ artistɜ è uno degli obiettivi del progetto European Digital Deal e viene attuata sia con percorsi di capacity building gratuiti aperti a gruppi vari di artistɜ, che attraverso l’individuazione di 5 figure che forniranno supporto e mentoring all’artista selezionato dalla call for artists. Il gruppo di esperti ed esperte individuato da Sineglossa si compone di:

  • Ilaria Bonacossa, 
  • Wu Ming 2,
  • Luca Baraldi,
  • Sara Tonelli,
  • Barbara Busi.
Foto del primo incontro del Local Experts Group promosso da Sineglossa per il progetto europeo European Digital Deal, Bologna, Palazzo Vizzani Sanguinetti, giugno 2023

Dall'arte del debunking all'arte per il debunking

Nel primo meeting del gruppo, tenutosi il 13 giugno a Bologna ospiti dell’associazione culturale Alchemilla presso la sede storica di Palazzo Vizzani Sanguinetti, si è discusso quali indicazioni, limiti, stimoli e obiettivi condividere nella call for artists in uscita a settembre 2023 finalizzata a selezionare l’artista che, nel corso del 2024, si occuperà di sviluppare il progetto curato da Sineglossa su arte e debunking. Di seguito, una sintesi delle riflessioni più significative emerse nel corso dell’incontro.

Foto del primo incontro del Local Experts Group promosso da Sineglossa per il progetto europeo European Digital Deal, Bologna, Palazzo Vizzani Sanguinetti, giugno 2023

Wu Ming e il mostrare le suture

Negli anni ‘90 il collettivo Luther Blisset lancia una strana pratica per il contrasto alla disinformazione, che negli anni è stata rinominata come “orrorismo”: un terrorismo artistico che si basava sull’inoculazione delle false notizie.

Il primo esercizio di debunking vero e proprio che il gruppo Wu Ming condusse con questa strategia fu in occasione del caso delle Bestie di Satana, con l’obiettivo di dimostrare la facilità con cui le notizie venivano ripubblicate sulla stampa senza adeguata verifica.

Il debunking strettamente razionalista, che mette la persona affascinata dalle fantasie di complotto di fronte alle incongruenze di ciò che crede, ha un funzionamento inefficace. Per capire cosa potrebbe funzionare di più, il collettivo ha indagato quello che comunemente è chiamato complottismo, con l’obiettivo di decostruirne gli elementi caratteristici.

Così in La Q di complotto emerge la differenza tra la “teoria del complotto” e la “fantasia del complotto”: i primi hanno uno scopo preciso, sociale e politico, sono reali e imperfetti, hanno una fine e i responsabili prima o poi, dalla giustizia o dal sapere collettivo, vengono individuati. Le seconde riguardano invece un numero illimitato di persone, non hanno uno scopo preciso, sono perfette e internamente coerenti, e non hanno fine, per cui travalicano la storia.

Chi crede alle fantasie di complotto è semplicemente una persona che non resiste al fascino delle storie, su cui ha presa più la spiegazione “narrativa” del fatto, che quella scientifica. Il debunker razionale in questo scenario appare come un guastafeste, colui che rovina quella sensazione di “essere depositario di una verità particolare” che prova chi è affascinato dalle fantasie di complotto.

Al contrario, il debunker dovrebbe piuttosto soddisfare quel desiderio di meraviglia che ha presa sul pubblico delle fantasie di complotto. Tra debunker e pubblico dovrebbe allora attuarsi quella pratica che per esempio mette in atto il duo di magia Penn & Teller nei propri spettacoli: mettendo in discussione la gerarchia di potere che tutte le regole dell’illusionismo dicono di rispettare tra chi fa il trucco e chi guarda (non rivelare mail trucco, non svelare le regole del gioco).

Mantenendo la capacità di fare spettacolo e suscitare meraviglia, i due artisti riescono a attivare nel pubblico un processo di empowerment, restituendo gli strumenti necessari a comprendere cosa sta succedendo sul palco. Per approfondire: Penn and Teller’s “Lift Off”Penn & Teller Explain Ball & Cups on Jonathan Ross 2010.07.09 (Part 2)

Attualmente l’IA ha un portato di meraviglia simile al trucco di magia perché restituisce risposte alle domande delle persone simili alle stesse risposte che darebbero le persone; sarebbe allora interessante che il debunking di questa magia, la spiegazione di quello che c’è dietro, del trucco, potesse essere fatto con gli stessi strumenti dell’intelligenza artificiale. Potrebbe essere l’artista a “mostrare la sutura”? A spiegare come funziona l’intelligenza artificiale senza distruggere la magia che l’IA porta con sé?

La critica all'IA in due esempi artistici concreti

Natalia Trejbalova è un’artista di Bratislava che ha lavorato sul complotto dei terrapiattisti. In questo video, affascinata dal fatto che, nonostante Google Earth e tutti gli strumenti ad oggi conosciuti per osservare la terra come una sfera, crescano progressivamente le persone “terrapiattiste”, si immagina di vivere su una Terra piatta, in cui non valgono le regole della fisica del mondo tridimensionale, cavalcando l’esperienza comune di ogni persona che nella vita quotidiana esperisce la realtà terrestre come piatta.

Cecilie Waagner Falkenstrøm è un’artista danese attualmente seguita da una factory per lo sviluppo di progetti tech-art, che ha raggiunto la fama con il progetto per le Nazioni Unite Tech for democracy, ma fin da prima della nascita di Alexa la sua ricerca era visionaria e pioneristica perché aveva inventato “Frank”, un soggetto virtuale con cui sul palco, durante la performance, lei parlava, e a un certo punto lui entrava nello spettacolo chiamando il pubblico al telefono. Oggi Frank è diventato una sala faustiana in cui il pubblico entra e parla con l’IA come fosse un oracolo, dopo aver dato il consenso al trattamento di tutti i propri dati personali.

Gli strumenti per il debunking: sfide e problemi

Oggi il sistema dell’informazione si affida ad agenzie di debunking, soggetti che analizzano la veridicità delle notizie confrontandoli con i database in archivio. L’intelligenza artificiale in questa filiera interviene in diverse fasi e con diversi tipi di meccanismo:

  1. inizialmente opera una componente di claim detection, ovvero un meccanismo capace di individuare i “claim”, le informazioni fattuali, che si possono debunkare, diversamente da opinioni e interpretazioni che invece non hanno bisogno di essere demistificate.
  2. L’IA, identificato il claim, prosegue all’evidence retrieval: cerca qualcosa a supporto del debunking del claim, affidandosi a motori di ricerca più intelligenti e affidabili della media (un esempio è il toolbox We Verify, in cui l’utente può inserire un link e vederne i metadati, accedendo così a vari strumenti e informazioni per decidere se la notizia è vera o falsa).
  3. Infine, a un certo punto, arriva la verdict prediction: la macchina usa machine learning e algoritmi più o meno sofisticati per decidere se, apprese tutte le precedenti informazioni, la notizia è vera o falsa, sulla base del ranking di affidabilità delle fonti (ad esempio Media Bias fact check è un servizio che assegna un ranking alla possibilità che un certo sito pubblichi un complotto). Adesso sta avendo una grande spinta la componente di “generazione della giustificazione”: una volta che il sistema ha deciso, può essere chiesto all’algoritmo di spiegare, con una versione apposita di ChatGPT, perché ha preso quella decisione. Infatti con l’IA generativa è vero che è più facile immettere nel web false notizie, ma esistono applicazioni di IA generativa che aiutano nel debunking, contrastando le fake news. 


Un grande limite dell’IA in questo ambito è riuscire a operare nella zona grigia: ci sono claim non identificabili come veri o falsi, appartenenti a una sorta di “zona grigia” in cui l’IA non dovrebbe comportarsi in modo binario ma dimostrare di saper astenersi, ammettere di non sapere se quell’affermazione è vera o falsa.

Etica dei dati per una trasparenza dell’informazione

Parlare di etica dei dataset richiede innanzitutto alcune precisazioni di carattere metodologico, legate a:

  • ambiguità e svuotamento semantico dei termini: le diverse scuole in ambito accademico rincorrono la notiziabilità, spesso usando termini e parole in modo errato, impreciso, scorretto e non adeguatamente studiato, per cui leggere articoli e risorse istituzionali su questi temi spesso significa dover confrontare concetti nominati allo stesso modo ma relativi a questioni diverse;
  • alimentazione della tensione tra umano e tecnologia: spesso ci si dimentica che le tecnologie sono strumenti creati dall’evoluzione umana. Le riflessioni chiamano oggi una contrapposizione tra umano e macchine ma il potenziale epistemologico di questa relazione emerge se si pensa in ottica di integrazione, compenetrazione, non differenza;
  • lentezza istituzionale: sussiste una fragilità strutturale che non sa stare al passo con la velocità del progresso tecnologico.


Acquisite queste note metodologiche, il tema dell’etica dei dati potrebbe essere aperto su tre diversi fronti:

    1. Problema di dataset e qualità dei dati: la questione epistemologica sui dati che allenano l’algoritmo deve essere trattata con una volontà normativa; non è sufficiente l’AI ACT – la normativa europea sull’intelligenza artificiale – ma è molto più delicato e complesso il processo che sta interessando il Data Governance ACT, che introduce il tema del dataltruism (altruismo dei dati): i dati possono essere usati, aggregati, valorizzati, o per bene comune (chi li può cedere e a chi?), oppure possono essere messi in vendita su meccanismi di transazione tra privati. Il principio del dataltruism è in contrasto con la fisiologia del mercato, da un lato, e il GDPR, dall’altro.
    2. Problema di responsabilità dei dati: la tracciabilità e la provenienza dei dati deve essere garantita dall’utente finale – colui che acquista quei dati – o da chi li raccoglie nella fase iniziale di aggregazione dell’informazione sui propri clienti? 
    3. Problema della verità del dato digitalizzato: la profilazione per e-marketing sui profili social non intercetta il bisogno autentico della persona ma il bisogno che quella persona vuole che gli altri percepiscano. La presenza della maggior parte delle persone sui social network non è mai basata sul dato “autentico”, ma sull’autorappresentazione: se la profilazione del digital marketing crede di rispondere al bisogno dell’utente, in realtà sta rispondendo a come quell’utente vuole farsi vedere bisognoso agli occhi degli altri. 
    4. Problema della verità del dato istituzionale: i sistemi presunti di verità si contendono il dominio nel gestire il potere della verità a livello mondiale.
    5. Problema della verità del dato scientifico: quale dato è più veritiero di altri? I sistemi di IA generativa non parlano mai di verità ma di “contenuti credibili e coerenti”. La gerarchia e istituzionalità delle fonti è stata messa in discussione da un noto studio – inchiesta di Naomi Oreskes ed Erik M. Conway – diventato un libro e un movimento, Mercanti di dubbi – che svela la pubblicazione di studi su autorevoli riviste scientifiche tramite commissione da parte di aziende private. La manipolazione dei flussi informativi determina un problema di mancata affidabilità delle fonti istituzionali.

In questo scenario, l’automazione della produzione di contenuti tramite IA generativa complica ulteriormente lo stato delle cose perché l’IA si basa sul passato, digerito dall’essere umano secondo una logica lineare. Che rapporto c’è tra la costruzione della memoria e l’automazione della previsione che si basa sul passato? L’immaginazione che l’intelligenza artificiale può avere sul futuro è limitata dalla linearità del matematico lineare con cui quell’IA ha digerito il passato. Un esperimento interessante è il chatbot dell’European Association for Jewish: un rabbino cyborg del 2600 che si può interrogare nel futuro sul passato dell’ebraismo rispetto al suo futuro. Sarebbe interessante chiedersi allora: come educare “l’immaginazione possibile”?

Inoltre, in che rapporto sta l’accesso alla conoscenza con la codificabilità dei flussi di verifica dell’informazione? Quanto la creazione di step nel processo di verifica facilita la possibilità di hackeraggio del sistema?

Le potenzialità della collaborazione con il Tecnopolo

L’artista che sarà selezionato dalla call for artists avrà la possibilità di lavorare in residenza nel Tecnopolo di Bologna e avrà a disposizione gli strumenti del Visit Lab del CINECA. Cosa significa per l’artista essere immerso in un ecosistema come quello del Tecnopolo? E quali potrebbero essere i vantaggi reciproci di questo incontro?
Il Tecnopolo è un’area di 120 000 mq in rigenerazione posta a Bologna finanziata dal settore pubblico. Nasce con l’obiettivo di ridonare alla città uno spazio che le dia un valore aggiunto, in cui si fa innovazione tecnologica e che posizioni Bologna e la Regione l’Emilia Romagna come attore di rilevanza globale nel settore dei dati. In questo momento è un’area in cui si stanno insediando tanti oggetti diversi: il Centro Meteo Europeo, il cui datacenter è parte di un’area militare protetta per via dell’importanza geopolitica dei dati studiati; il supercomputer Leonardo, una tra le tre più potenti a livello europeo, gestita dal Cineca; un nuovo istituto della United Nations University (ONU) dedicato ai Big Data e Intelligenza Artificiale per la Gestione del Cambiamento dell’Habitat Umano – IBAHC; ENEA – l’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile, che avrà al Tecnopolo la propria sede principale, e altri istituti di ricerca, soggetti abilitatori di innovazione tecnologica, incubatori per nuove imprese. In questo panorama si avverte la necessità di portare avanti anche un discorso culturale, tramite programmi, azioni, enti che possano tradurre l’enorme offerta di tecnologia in un significato per cittadini e territorio.
Come la riflessione sul debunking si può inserire in questo spazio istituzionale? 

Leggi anche