Diana Pifferi, l'esito degli esami tossicologici: la bimba ha assunto tranquillantiSanità,criptovalute guerre, esami di maturità, sfera personale e sessuale. Tutti ambiti in cui, ormai, gli esseri umani non giocano più in ruolo da protagonista assoluto. Ad accompagnarli, da almeno un paio d'anni, è l'Intelligenza artificiale generativa, strumento rivoluzionario quanto potenzialmente dannoso. Sono i concetti che (anche quest'anno) si trovano alla base della Relazione annuale del Garante per la protezione dei dati personali, con cui mercoledì 3 luglio a Montecitorio l'Autorità ha presentato le attività svolte nel 2023. E in questa occasione il presidente Pasquale Stanzione ha ribadito l'invito al governo a coinvolgere il Garante nella gestione dell'AI Act, il regolamento europeo sull'intelligenza artificiale, affidando all'ente il ruolo di autorità delegata in materia a livello nazionale a dispetto di Agenzia per la cybersicurezza nazionale e Agenzia per l'Italia digitale, attualmente designate.Le preoccupazioni dell'AutoritàIn questa occasione il Presidente Pasquale Stanzione rivela il cauto atteggiamento del Garante nei confronti di AI e massiccio uso del web. Da una parte l’AI è pienamente integrata “nella nostra vita privata e pubblica” - con ad esempio il 25% delle imprese che la utilizzano nei processi produttivi e il 60% delle aziende che, probabilmente, entro un anno la utilizzeranno per le assunzioni. Dall’altra, la possibilità che l’intelligenza artificiale faccia scomparire, nel giro di pochi anni, 85 milioni di posti di lavoro. Una crisi dalla quale le statistiche sono destinate a riprendersi: secondo quanto riportato da Stanzione, tale processo genererà a sua volta 97 milioni di nuove posizioni. Il rischio, tuttavia, è quello di un aumento delle diseguaglianze. Il Presidente sottolinea con forza questo passaggio tanto che, in riferimento ai “lavoratori ‘invisibili’ della gig economy” (probabilmente rider e fattorini) afferma che il capitalismo digitale è responsabile di profonde disparità sociali.L'intelligenza artificiale nei conflittiSi passa poi all'impiego dell'AI nel conflitto russo-ucraino e in quello a Gaza, dove le forze israeliane sono state accusate di ricorrere a un sistema di AI, Lavender, per individuare i target anche causando numerose vittime civili. Un ricorso sempre più frequente a queste tecnologie in contesti bellici o nel più ampio campo della competizione geopolitica rappresenta, per il Garante, un pericoloso passaggio che, senza un tempestivo intervento, rischia di trasformarsi in un punto di non ritorno. O meglio, un “momento Oppenheimer” stando alla definizione dell'Autorità, che con il rimando al più celebre film del 2023 vuole rendere l’idea della dimensione del pericolo.
Imprenditrice agricola morta schiacciata dalla mandria che stava portando al pascoloCagliari, donna diventa mamma a 57 anni: “Perché negare una gioia a chi ha quest’età?” Notizie di Cronaca in tempo reale - Pag. 731Turiste belghe uccise da un pirata della strada a Roma, una delle due era incinta di 16 settimanePrevisioni meteo 8 e 9 ottobre: finisce l'ottobrata, arrivano i temporali