L
o
a
d
i
n
g
.
.
.

Finale Euro2020, disordini a Londra prima e dopo la partita: 49 arresti e 19 poliziotti feriti

Iraq, incendio in un Covid hospital: almeno 52 morti a NassiriyaNel corso dell’ultima settimana si sono diffuse perplessità e indignazione tra molti utenti delle applicazioni Adobe. Alcune modifiche ai termini di servizio hanno lasciato presupporre per qualche giorno che l’azienda intendesse utilizzare i singoli progetti per addestrare modelli di intelligenza artificiale. L’avviso inaspettatoLo scorso mercoledì tutti gli utenti hanno hanno ricevuto un avviso che riportava “potremmo accedere ai tuoi contenuti tramite metodi sia manuali che automatizzati “. Il linguaggio era vago ma è stato sufficiente per destare preoccupazione per via della menzione specifica a quel “sistemi automatizzati”. I social network si sono riempiti di critiche e molti utenti hanno minacciato di abbandonare l’uso delle applicazioni per proteggere il proprio lavoro creativo ed evitare che potesse essere utilizzato come materiale di addestramento per gli strumenti di intelligenza artificiale di Adobe. Ovviamente non è mancata una specifica preoccupazione sulla privacy degli utenti che lavorano con informazioni riservate.L’antitrust francese multa Google per l’uso dei dati: prima volta per una big techSpiegazione o marcia indietro?Professore per gli Investimenti Istituzionali e Individuali di BlackRockIn risposta alle critiche, Adobe ha fatto una marcia indietro precisando che i contenuti non saranno usati negli addestramenti, parlando di un generico errore nell’aggiornamento della policy. “Avremmo dovuto modernizzare e chiarire prima i termini del servizio – ha dichiarato il presidente dei digital media di Adobe, David Wadhwani – Inoltre, avremmo dovuto restringere i termini in modo più proattivo per adattarli a ciò che effettivamente facciamo e spiegare meglio quali sono i nostri requisiti legali”.La community però è rimasta solo parzialmente rassicurata dalle sue parole. Nel corso degli ultimi mesi Adobe ha dichiarato di avere addestrato il suo modello di AI Firefly su contenuti di pubblico dominio archiviati in Adobe Stock. Molte persone però sostengono che l’AI di Adobe genererebbe contenuti palesemente ispirati anche a materiale degli utenti e coperto da copyright.Una questione di fiduciaLa raccolta dati di addestramento per i modelli di intelligenza artificiale da parte delle aziende che producono e distribuiscono applicazioni nel mondo creativo è una questione complessa. La necessità di creare tool AI per sopravvivere nel mercato è innegabile. Tuttavia è difficile per le aziende tracciare delle linee nette in merito a quali contenuti vadano protetti da copyright. D’altro canto è difficile anche per i creativi capire in quali casi concedere i propri dati rappresenta uno sfruttamento e in quali può rappresentare un’opportunità.Negli ultimi giorni anche Meta è nell’occhio del ciclone per le sue nuove policy sull’uso dei dati per l’addestramento delle sue AI. Ѐ un tema molto controverso. Tutte le aziende tech del mondo cercano voracemente dati e l’unico modo per ottenerli sembra essere forzare la mano sul consenso degli utenti. Ma questi ultimi sono sempre più sensibilizzati sul tema e sempre meno disponibili a regalare il proprio materiale alle big tech.Dove risiede l’utilità per le aziende nel creare applicazioni di intelligenza artificiale se il prezzo da pagare è quello di perdere la fiducia degli utenti? Un dilemma che sarà al centro del dibattito nell’immediato futuro.

Ponte Brolla (Svizzera), tuffo si trasforma in tragedia per un ragazzo di vent'anniArgentina, approvato decreto per introdurre il genere neutro “X” sui documenti di identità Florida, mamma uccisa accidentalmente dal figlio durante una chiamata su ZoomVice sceriffo muore di covid e lascia sola una bimba di sei anniVariante Delta in Cina, contagi in tre province dopo il focolaio all'aeroporto di Nanchino

Campanella