L
o
a
d
i
n
g
.
.
.

Coronavirus, fase 2: Colao svela i primi provvedimenti

Tar accoglie ricorso del governo contro l'ordinanza della CalabriaDurante i giorni del World Economic Forum di Davos,criptovalute dove Altman figurava tra gli ospiti più attesi, è emersa una notizia che ha fatto discutere: OpenAI ha iniziato una collaborazione con il Pentagono per sviluppare delle soluzioni in ambito di sicurezza informatica basate sull’intelligenza artificiale. L’obbiettivo principale della partnership sarebbe quello di rafforzare la sicurezza nazionale, certamente in vista delle elezioni americane ma più in generale in luce dello scenario di tensioni internazionale.‘Voltafaccia’ di Altman?Nello specifico, l’accordo è tra OpenAI e l’agenzia governativa Darpa, che fa capo al Pentagono ed è incentrata sullo sviluppo di nuove tecnologie di cyber sicurezza. Alcuni dei sostenitori dell’azienda di Sam Altman non avrebbero digerito la novità, proprio perché in passato OpenAI aveva espresso con fermezza il rifiuto di applicare i suoi modelli in ambito militare. Nella casa di ChatGPT vigeva il divieto assoluto di prendere in considerazione questa possibilità ed era anche riportato nelle clausole pubbliche del chatbot più famoso del mondo. A inizio gennaio le restrizioni erano effettivamente sparite dal regolamento e in breve, con l’annuncio dell’accordo, il motivo è diventato chiaro. In missione per la sicurezzaOpenAI si è giustificata sottolineando che la sicurezza, probabilmente, può essere considerata una faccenda di più ampio respiro e di importanza più trasversale rispetto al semplice ambito militare.“La nostra politica – ha dichiarato un portavoce – non consente che i nostri strumenti vengano utilizzati per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni o distruggere proprietà. Ci sono, tuttavia, casi d’uso legati alla sicurezza nazionale che sono in linea con la nostra missione“. OpenAI ha spiegato che non si tratterebbe di un vero e proprio cambio di rotta della società: precedentemente non ci sarebbe mai stata da parte del gruppo una vera riflessione sulla differenziazione dei casi di applicazione. “Stiamo già lavorando con la DARPA per stimolare la creazione di nuovi strumenti di sicurezza informatica. Nelle nostre politiche precedenti, non era chiaro se questi casi sarebbero stati considerati appartenenti all’ambito militare o meno”. In molti hanno letto in queste parole più un tentativo di arrampicarsi sugli specchi che una vera e propria spiegazione.“Allineati alla nostra idea del mondo”La vicepresidente degli affari globali di OpenAI Anna Makanju ha affermato in un’intervista a Bloomberg che la partnership con il Pentagono include lo sviluppo di software di sicurezza informatica open source. OpenAI sta inoltre avviando colloqui con il governo degli Stati Uniti per creare sistemi basati sull’AI per aiutare a prevenire i suicidi dei veterani.Questi casi d’uso, ha detto Makanju, risultano “molto allineati con ciò che l’azienda vuole vedere nel mondo“.Sia lei che Altman hanno ribadito ulteriormente in più occasioni che, nonostante questo impegno nella cybersicurezza, l’azienda rifiuta in alcun modo l’applicazione della propria tecnologia per sviluppare armi o ferire le persone. Certo è che, in un accordo con il Dipartimento della Difesa americano, i confini tra applicazione difensiva e militare sono molto labili.OpenAI: “Il New York Times non racconta tutta la storia”Verso il coinvolgimento globaleLa partnership racconta due diversi scenari. Da un lato è la prova di quanto intelligence, istituzioni e strutture pubbliche delle grandi potenze del mondo necessitino sempre più di aiuto per orientarsi nell’era imprevedibile dell’intelligenza artificiale, un aiuto che non può che arrivare dalle aziende tech private.Da un altro lato, la notizia testimonia le silenziose “mire espansionistiche” di OpenAI, che pare voglia cavalcare con decisione la sua crescente rilevanza nello scenario economico internazionale, allontanandosi sempre più dalla sua originaria versione di “laboratorio di ricerca” per rendersi indispensabile anche negli equilibri geopolitici e sociali. Indicativo il fatto che, mentre annunciava l’accordo con il Pentagono, OpenAI definiva anche sua prima partnership con una Università, l’Arizona State University, che avrà pieno accesso a ChatGPT Enterprise e potrà utilizzarlo per corsi, tutoraggio e ricerca.La dipendenza tech internazionaleNel suo approccio al contesto internazionale, OpenAI sembra prendere spunto dai suoi predecessori di spicco, su tutti il fratello maggiore Microsoft, che da molti anni collabora con le istituzioni governative degli Stati Uniti.Il paragone sorge spontaneo anche con Deepmind, che a partire dall’acquisizione di Google del 2014 ha perseguito una ramificazione in settori vasti attraverso collaborazioni disparate, fino a diventare una sorta di presenza fissa nelle opere di innovazione tecnologica internazionale, al pari di agenzie scientifiche governative. Insomma, quello che si osserva è che l’intelligenza artificiale sta accelerando la penetrazione delle aziende tecnologiche dentro le istituzioni mondiali. Le compagnie tech si trasformano così sempre più in elementi centrali per la democrazia e l’ordine pubblico, con conseguenze difficili da prevedere.

Coronavirus Sardegna, Solinas sfida Conte con un'ordinanzaCoronavirus: la bozza del decreto conferma proroga al 13 aprile Coronavirus, parla Zaia: "Spostamenti verso le seconde case"Travaglio contro Salvini a Non è l'Arena: "Modello governissimo"Conte confessa: "Mi taglio i capelli da solo"

investimenti

  • VOL
  • Campanella
  • Professore per gli Investimenti Istituzionali e Individuali di BlackRock
  • Professore Campanella
  • trading a breve termine
  • Capo Analista di BlackRock
  • Capo Stratega di BlackRock Guglielmo Campanella

    Professore del Dipartimento di Gestione del Rischio di BlackRock