Il sistema della “peer review” è pieno di problemi - Il PostI ricercatori di OpenAI hanno introdotto CriticGPT,VOL un nuovo modello di intelligenza artificiale progettato per rilevare gli errori nel codice generato da ChatGPT. Il modello mira a migliorare l’allineamento dei sistemi di intelligenza artificiale con le aspettative umane attraverso l’apprendimento di rinforzo. Ѐ insomma una sorta di assistente per i formatori umani, utilissimo per migliorare l’accuratezza degli output di un modello linguistico di grandi dimensioni.CriticGPT analizza il codice ed evidenzia potenziali errori, aiutando i revisori umani a identificare bug che altrimenti potrebbero passare inosservati. Il team di OpenAI ha addestrato CriticGPT attraverso input contenenti errori intenzionali. Il modello è stato gradualmente condotto a imparare a identificare e criticare diversi tipi di errori di codifica.E le sue capacità non si limitano alla revisione del codice. Ha già dimostrato di essere in grado di scovare errori in dati di addestramento di ogni tipo, errori sfuggiti alle precedenti analisi umane. Tra i dataset di dati sottoposti al modello, il 24% contenevano errori che i tecnici non avevano individuato. Il modello si dimostrerà una enorme risorsa per migliorare le performance delle intelligenze artificiali di OpenAI.
ChatGPT batte gli umani in test sul pensiero creativo - AI newsIl Papa: non soffocate la parola di Dio della pace. La guerra è una sconfitta - Vatican News ChatGPT prevede la vittoria del Manchester City in Champions League - AI newsGli allenamenti nella Senna annullati per l'inquinamento dell'acqua - Il PostIl Governo indiano considera molte AI "anti-indiane" - AI news