PD, Letta: "Parlerò con Renzi sul futuro della sinistra"L'intelligenza artificiale (Ia) sta rivoluzionando il mondo dei media e dei giornali in particolare. Molte redazioni stanno adottando l'Ia per automatizzare processi come la scrittura automatica di articoli,VOL la generazione di titoli e l'analisi dei dati per la pianificazione delle notizie. Tuttavia, l'uso dell'Ia nelle redazioni dei giornali solleva importanti questioni etiche e giuridiche che devono essere affrontate attraverso una chiara policy sull'uso dell'Ia. L’attacco di questo articolo – che non è proprio un capolavoro, ma rispetta comunque tutte le regole base del giornalismo – ha la particolarità di essere stato generato da ChatGpt. Ed è solo una parte di 2.800 battute che forse avrebbero potuto essere copiate e incollate senza troppe modifiche, facendolo passare come un nostro contributo. Chi se ne sarebbe accorto? Il dibattito La questione, in effetti, è di grandissima attualità e non riguarda più soltanto il futuro di certi professioni e la questione se noi giornalisti umani diventeremo inutili retaggi del passato. Riguarda più l’aspetto etico del giornalismo, la deontologia e come ci sia il rischio che certe notizie false abbiano più visibilità. Il dibattito fra gli addetti ai lavori è già diffuso da tempo, ma sta assumendo ancora più visibilità adesso, con i nuovi strumenti a disposizione della massa (e delle redazioni). Nei giorni scorsi hanno avuto grande diffusione le immagini dell’arresto di Donald Trump e quelle di papa Francesco vestito con un piumino bianco. Tutte finte, ovviamente, ma generate con un sistema di intelligenza artificiale (Midjourney) che dà risultati impressionanti. È giusto che i giornali rilancino quelle foto, anche solo per smentirle? O così contribuiscono alla confusione che l’intelligenza artificiale potrebbe generare nei lettori più distratti? In altre parole: le immagini false dovrebbero avere un “disclaimer” evidente, come succede per le notizie false? O non dovrebbero proprio essere usate dai professionisti dell’informazione? TecnologiaL’intelligenza artificiale renderà sempre più precario il mondo del lavoroAntonio Casillisociologo Il patto con i lettori La versione americana di Wired ha scelto di prendere posizione e di scrivere una policy sull’uso dell’intelligenza artificiale in redazione. È qualcosa di molto simile a quell’insieme di regole che vengono scritte per il rispetto della privacy degli utenti. Ma in questo caso assume un valore simbolico ancora più forte: è l’idea di stringere un nuovo patto con i lettori, che tenga conto dei confini etici di certi strumenti. «Vogliamo essere in prima linea nell’uso di nuove tecnologie, ma anche farlo in maniera etica e con una certa attenzione», scrive Wired. «Non pubblichiamo storie con testo generato dall’intelligenza artificiale, tranne quando è proprio il fatto che sia generato dall’intelligenza artificiale il fulcro della storia. (In questo caso ne dichiariamo l’uso e ne segnaleremo gli eventuali errori)». Esperimenti Ovviamente l’intelligenza artificiale può diventare uno strumento utile anche a supporto del giornalismo. Qualche tempo fa, Stefano Cipolla, art director dell’Espresso, aveva ad esempio ospitato sul suo sito il contributo di Adriano Attus. Anche lui è un art director di Plus24, l’allegato settimanale del Sole 24 Ore. A metà strada fra esperimento e provocazione, aveva usato l’intelligenza artificiale per illustrare una delle storie raccontate sul giornale. Però ora la discussione non è più confinata ai soli esperimenti e alla creatività degli art director. Sono gli stessi giornalisti a doversi interrogare sull’utilizzo di certi strumenti. E nei giorni scorsi il dibattito è arrivato anche in Italia. CulturaChatGpt, il mistero dell’intelligenza è che a volte gli uomini non la usanoRaffaele Simone La via italiana Fra i primi a scriverne è stato Alberto Puliafito, fra i fondatori di Slow News (un progetto digitale che si dà come missione quella di fare giornalismo "lento” e di qualità). Con la sua redazione, ha scritto una policy simile a quella di Wired. E ha condiviso un documento aperto, dove gli interessati possono lasciare il loro commento. Nelle scorse ore, sono arrivate le prime adesioni. La policy di Slow News è stata condivisa su Facebook da Mario Tedeschini-Lalli, fra le massime autorità di giornalismo digitale in Italia (è stato fra i fondatori della presenza digitale di Repubblica, sul finire degli anni Novanta). Paolo Cagnan, condirettore del Mattino di Padova e di altri giornali locali del triveneto, ha scritto che sta lavorando ad alcune linee di guida interne e a un «patto di trasparenza» con i lettori. «Le immagini prodotte con l'intelligenza artificiale, specie dopo la versione 5 di Midjourney, stanno creando il solito cortocircuito ipocrita nei giornali che oggi hanno a che fare con l’intelligenza artificiale», scrive Ciro Pellegrino di Fanpage su LinkedIn. «Probabilmente occorre una revisione delle regole deontologiche dei giornalisti rispetto all’intelligenza artificiale». Il dibattito è aperto ed è probabile che nei prossimi giorni arriveranno altre prese di posizione. Cosa fare Ogni “nuova tecnologia” (scritto fra virgolette, perché in fondo l’intelligenza artificiale non è affatto una novità) porta con sé dibattiti come questo, in cui si alternano entusiasmi e diffidenze, talvolta polarizzando il discorso fra opposte tifoserie. Il punto non è bandire l’intelligenza artificiale dai giornali, visto che esperimenti interessanti sono già stati fatti in alcune redazioni. I giornali hanno anzi la grande occasione di rispondere a un bisogno di spiegazione e analisi del fenomeno, che sembra diffuso fra i lettori. Il Financial Times, come ricorda anche Francesco Oggiano nella sua newsletter sul giornalismo digitale, è stato ad esempio il primo giornale al mondo a individuare la figura dell’artificial intelligence editor. La questione riguarda più in generale il futuro della professione. I giornali hanno la possibilità di rinnovare il patto con la loro comunità di riferimento, mentre la disinformazione acquista nuove armi e si appresta a esplorare nuove frontiere (come, appunto, quella delle immagini, dei video e degli audio falsi). Lo si può fare con nuove policy, che mettano nero su bianco le regole del gioco. O semplicemente cercando di fare bene il proprio lavoro ogni giorno, senza cedere alla tentazione di scorciatoie artificiali. Facendo giornalismo come andrebbe sempre fatto: con la ricerca maniacale della verità e con l’ammissione e la correzione degli errori che, inevitabilmente, capiteranno. Se vuoi partecipare al dibattito su cosa dovrebbero fare i giornali con l’intelligenza artificiale, puoi scrivere a [email protected] © Riproduzione riservataPer continuare a leggere questo articoloAbbonatiSei già abbonato?AccediDaniele Erler Giornalista trentino, in redazione a Domani. In passato si è laureato in storia e ha fatto la scuola di giornalismo a Urbino. Ha scritto per giornali locali, per la Stampa e per il Fatto Quotidiano. Si occupa di digitale, tecnologia ed esteri, ma non solo. Si può contattare via mail o su instagram.
Franceschini: "Riapriamo i cinema e i teatri prima di tutti"Nuovo decreto Covid, Salvini prima del Cdm: "Non voto chiusure a oltranza" Infrastrutture, Draghi: "Nominati 57 commissari per 57 opere"Di Battista non è più iscritto alla piattaforma Rousseau Notizie.itCaso Astrazeneca, Figliuolo: "Il piano vaccini non cambia, verso le 500mila dosi al giorno"