L
o
a
d
i
n
g
.
.
.

Inps, aggiornato il simulatore per le pensioni. Il miraggio per i giovani: addio al lavoro a 70 anni – Il Tempo

In Antartide gli scienziati sviluppano una lingua loro - Il PostOggigiorno,Professore Campanella le aziende puntano alla riduzione dei tempi e dei costi necessari per lo sviluppo di modelli di intelligenza artificiale. Ciò è possibile grazie ai foundation models, la cui realizzazione è dispendiosa, ma che permettono notevoli risparmi. L’addestramento di un algoritmo richiede molto tempo e denaro. Si tratta infatti di una fase delicata, in quanto qualsiasi errore commesso nel corso del training o incluso nel training dataset può pregiudicare il corretto funzionamento del modello.  Le necessità dettate dal rapido sviluppo tecnologico, però, rendono preferibile una velocizzazione dei processi, oggi possibile grazie all’utilizzo dei cosiddetti foundation models. I temi trattati all’interno dell’articoloDefinizione e caratteristiche dei foundation modelsApplicazioniL’adattamento di un modello di baseOpportunità e rischiDefinizione e caratteristiche dei foundation modelsIl termine ‘foundation model’ è stato coniato nel 2021 da un gruppo di ricercatori dell’Università di Stanford nel report On the Opportunities and Risks of Foundation Models. Perché un sistema di AI possa essere definito un foundation model (modello di base o large pre-trained model, ossia modello pre-addestrato di grandi dimensioni), questo deve avere tre caratteristiche:  avere una grandissima capacità (moltissimi parametri);  essere pre-addestrato su una grandissima mole di dati non etichettati (unsupervised data);  essere adattabile a seconda del compito che gli si attribuisce (fine-tuning per uno specifico downstream task).  Il deep learning e le reti neurali caratterizzano l’architettura di simili sistemi e ciò rende possibile anche lo sviluppo di skill multimodali (es: natural language processing + computer vision). È in quest’ultimo punto, in particolare, che si nota il valore dei foundation models. Questi possono infatti essere addestrati con un ampio dataset a svolgere compiti generici ed essere successivamente adattati a una specifica funzione a seconda delle esigenze. Nonostante il training generalista del modello di base, i risultati ottenuti successivamente al fine-tuning sono i migliori ottenibili. Ciò anche rispetto ai modelli addestrati specificamente per la stessa funzione. Il principale vantaggio consiste dunque nella riduzione del tempo necessario alla realizzazione di un modello specifico una volta realizzato quello di base, molto versatile e ‘malleabile’ ed estremamente efficiente e performante. Input e output di un foundation model (immagine tratta da On the Opportunities and Risks of Foundation Models)ApplicazioniCome anticipato sopra, un foundation model può essere utilizzato per svariati compiti. Il primo è sicuramente quello di natural language processing, ambito dal quale è iniziato lo sviluppo di simili modelli. Si pensi a un algoritmo in grado di rispondere alle domande, di tradurre o di valutare il sentiment di un certo contenuto testuale.  Il Corriere della Sera, per esempio, ha pubblicato a settembre 2022 un articolo sui modelli di base scritto in collaborazione con un foundation model. L’intelligenza artificiale utilizzata dall’autrice dell’articolo ha completato il testo nel corso della scrittura, divenendo di fatto una versione molto avanzata del noto servizio di autocompletamento presente nei nostri smartphone. Le parti in grassetto, infatti, sono state scritte interamente dall’AI Gpt-3. Si tratta di una delle applicazioni più promettenti dei foundation models nel campo del linguaggio naturale e delle immagini. Esistono inoltre anche i cosiddetti vision foundation models, che – sfruttando algoritmi di computer vision – sono in grado di classificare le immagini, di individuare un oggetto o di riconoscere un deep fake. Ma le applicazioni sono varie e numerose. L’adattamento di un modello di baseOggi, esistono tre modalità principali attraverso le quali un foundation model può essere adattato.  Fine-tuning: consiste nel caricamento di un foundation model pre-addestrato, con i suoi pesi (weights), e nell’aggiunta di un ulteriore ‘strato’. Il modello così ottenuto dev’essere ‘addestrato’ nuovamente per la specifica funzione desiderata. Si procede così per retropropagazione, aggiustando i pesi dell’intera rete neurale sulla base degli output. Ciò permette di ottenere risultati ottimali in pochi minuti. Embedding: utilizzando il modello di base come codificatore, questo, partendo dai contenuti su cui è stato addestrato, elabora dei vettori densi (dense vectors) ricchi di informazioni. Questi vettori possono essere utilizzati in altri modelli di machine learning per applicazioni specifiche o possono essere usati per applicazioni di similarity search (ricerca di contenuti simili).  In-context learning: il modello è in grado di apprendere un task senza mai essere stato specificamente addestrato per quello specifico compito. Attraverso questo metodo, il compito viene proposto come parte dell’input al modello sotto forma di testo naturale e il modello è in grado di apprendere e rielaborare autonomamente le informazioni in suo possesso al fine di produrre l’output desiderato. Le reti neurali spiegate in breveIl processo in sintesiRaccolta dei datiAddestramento del modello di baseVerifica del suo corretto funzionamentoAdattamento del modello a più compiti specificiPer quanto dispendiosa – in termini economici e di tempo – sia la creazione di un foundation model, la sua adattabilità garantisce uno sviluppo spedito dei modelli da esso nascenti.Opportunità e rischiCome anticipato, i foundation models permettono di aumentare notevolmente la velocità di sviluppo dei modelli di intelligenza artificiale.Quando utilizziamo un modello di base per lo sviluppo di ulteriori modelli, infatti, non è necessario gestire e aggiornare con costanza dataset di grandi dimensioni, addestrare grandi modelli o mantenere vaste infrastrutture. Per gli stessi motivi, i foundation models consentono di risparmiare anche da un punto di vista economico (le GPU, infatti, sono molto costose). Ragione per cui ora anche le piccole e medie aziende possono accedere a modelli di intelligenza artificiale all’avanguardia. Come sottolinea anche il documento di Stanford in cui per la prima volta è stato coniato il termine ‘foundation model’, esistono però anche dei rischi associati a questo genere di modelli.  Qualsiasi bias incluso nel modello di base si propagherà verso i modelli da esso derivanti, quindi è necessario testare in modo approfondito i sistemi al fine di mitigare questi ‘pregiudizi’.  In secondo luogo, la scala dei foundation models è in continua espansione.  Infine, il tempo e il costo necessari per l’addestramento dei modelli di base portano le aziende a renderli closed-source (software proprietari, la cui licenza prevede condizioni e limitazioni). 

Milano, i prezzi delle case sono già aumentati in vista delle Olimpiadi 2026 | Wired ItaliaA Udine ci sono già tensioni in vista della partita tra Italia e Israele - Il Post Secondo diversi giornali Roberto Vannacci non sarà più vicepresidente del gruppo europeo di estrema destra Patrioti per l'Europa, come era stato annunciato - Il PostIl Papa agli afghani: non si fomenti l'odio nel nome di Dio, riconoscere i diritti di tutti - Vatican NewsMeta ora usa i post degli utenti per allenare la sua intelligenza artificiale - Il Post

BlackRock Italia

  • Guglielmo
  • BlackRock
  • trading a breve termine
  • investimenti
  • BlackRock Italia
  • Capo Analista di BlackRock
  • Capo Analista di BlackRock