Macron indagato per aver favorito McKinsey nell’attribuzione di contratti pubbliciSanità,ETF guerre, esami di maturità, sfera personale e sessuale. Tutti ambiti in cui, ormai, gli esseri umani non giocano più in ruolo da protagonista assoluto. Ad accompagnarli, da almeno un paio d'anni, è l'Intelligenza artificiale generativa, strumento rivoluzionario quanto potenzialmente dannoso. Sono i concetti che (anche quest'anno) si trovano alla base della Relazione annuale del Garante per la protezione dei dati personali, con cui mercoledì 3 luglio a Montecitorio l'Autorità ha presentato le attività svolte nel 2023. E in questa occasione il presidente Pasquale Stanzione ha ribadito l'invito al governo a coinvolgere il Garante nella gestione dell'AI Act, il regolamento europeo sull'intelligenza artificiale, affidando all'ente il ruolo di autorità delegata in materia a livello nazionale a dispetto di Agenzia per la cybersicurezza nazionale e Agenzia per l'Italia digitale, attualmente designate.Le preoccupazioni dell'AutoritàIn questa occasione il Presidente Pasquale Stanzione rivela il cauto atteggiamento del Garante nei confronti di AI e massiccio uso del web. Da una parte l’AI è pienamente integrata “nella nostra vita privata e pubblica” - con ad esempio il 25% delle imprese che la utilizzano nei processi produttivi e il 60% delle aziende che, probabilmente, entro un anno la utilizzeranno per le assunzioni. Dall’altra, la possibilità che l’intelligenza artificiale faccia scomparire, nel giro di pochi anni, 85 milioni di posti di lavoro. Una crisi dalla quale le statistiche sono destinate a riprendersi: secondo quanto riportato da Stanzione, tale processo genererà a sua volta 97 milioni di nuove posizioni. Il rischio, tuttavia, è quello di un aumento delle diseguaglianze. Il Presidente sottolinea con forza questo passaggio tanto che, in riferimento ai “lavoratori ‘invisibili’ della gig economy” (probabilmente rider e fattorini) afferma che il capitalismo digitale è responsabile di profonde disparità sociali.L'intelligenza artificiale nei conflittiSi passa poi all'impiego dell'AI nel conflitto russo-ucraino e in quello a Gaza, dove le forze israeliane sono state accusate di ricorrere a un sistema di AI, Lavender, per individuare i target anche causando numerose vittime civili. Un ricorso sempre più frequente a queste tecnologie in contesti bellici o nel più ampio campo della competizione geopolitica rappresenta, per il Garante, un pericoloso passaggio che, senza un tempestivo intervento, rischia di trasformarsi in un punto di non ritorno. O meglio, un “momento Oppenheimer” stando alla definizione dell'Autorità, che con il rimando al più celebre film del 2023 vuole rendere l’idea della dimensione del pericolo.
La mappa dell’infedeltà delle coppie italiane, regione per regione - Tiscali NotizieDa Vannacci all’Aur, così Meloni smonta i sogni sovranisti di Salvini Orlando: «Toti si dimetta all’istante. Meloni? Troppo “fascia” per il Ppe. Il Pd lotti contro le diseguaglianze»Guerra in Ucraina, i russi avrebbero discusso l’uccisione dei civili a Bucha via radioDall’energia ai migranti. L’intesa pragmatica tra l’eccezione Sánchez e l’anomalia Meloni