banner
Centro notizie
Ci impegniamo a fornire prodotti di alta qualità a prezzi competitivi.

OpenAI rilascia GPT

Apr 11, 2024

OpenAI ha rilasciato un nuovo e potente modello di intelligenza artificiale per la comprensione di immagini e testo, GPT-4, che l'azienda definisce "l'ultima pietra miliare nel suo impegno nel potenziare il deep learning".

GPT-4 è disponibile oggi per gli utenti paganti di OpenAI tramite ChatGPT Plus (con un limite di utilizzo) e gli sviluppatori possono iscriversi a una lista d'attesa per accedere all'API.

Il prezzo è di $ 0,03 per 1.000 token di "prompt" (circa 750 parole) e $ 0,06 per 1.000 token di "completamento" (di nuovo, circa 750 parole). I token rappresentano il testo grezzo; ad esempio, la parola “fantastico” verrebbe divisa nei simboli “fan”, “tas” e “tic”. I token di richiesta sono le parti delle parole inserite in GPT-4 mentre i token di completamento sono il contenuto generato da GPT-4.

GPT-4 si è nascosto in bella vista, a quanto pare. Microsoft ha confermato oggi che Bing Chat, la sua tecnologia chatbot sviluppata in collaborazione con OpenAI, funziona su GPT-4.

Altri primi utilizzatori includono Stripe, che utilizza GPT-4 per scansionare siti Web aziendali e fornire un riepilogo al personale dell'assistenza clienti. Duolingo ha integrato GPT-4 in un nuovo livello di abbonamento per l'apprendimento delle lingue. Morgan Stanley sta creando un sistema basato su GPT-4 che recupererà informazioni dai documenti aziendali e le fornirà agli analisti finanziari. E la Khan Academy sta sfruttando GPT-4 per creare una sorta di tutor automatizzato.

Le nuove funzionalità di GPT-4 alimentano un "volontario virtuale" per i non vedenti

GPT-4 può generare testo e accettare input di immagini e testo – un miglioramento rispetto a GPT-3.5, il suo predecessore, che accettava solo testo – e funziona a “livello umano” su vari benchmark professionali e accademici. Ad esempio, GPT-4 supera un esame di abilitazione simulato con un punteggio pari a circa il 10% dei migliori partecipanti al test; al contrario, il punteggio di GPT-3.5 era intorno al 10% più basso.

OpenAI ha trascorso sei mesi ad "allineare iterativamente" GPT-4 utilizzando le lezioni di un programma interno di test contraddittorio e di ChatGPT, ottenendo i "migliori risultati di sempre" su fattualità, manovrabilità e rifiuto di uscire dai guardrail, secondo l'azienda. Come i precedenti modelli GPT, GPT-4 è stato addestrato utilizzando dati disponibili al pubblico, inclusi quelli provenienti da pagine Web pubbliche, nonché dati concessi in licenza da OpenAI.

OpenAI ha collaborato con Microsoft per sviluppare da zero un “supercomputer” nel cloud di Azure, utilizzato per addestrare GPT-4.

"In una conversazione casuale, la distinzione tra GPT-3.5 e GPT-4 può essere sottile", ha scritto OpenAI in un post sul blog che annuncia GPT-4. "La differenza emerge quando la complessità dell'attività raggiunge una soglia sufficiente: GPT-4 è più affidabile, creativo e in grado di gestire istruzioni molto più sfumate rispetto a GPT-3.5."

Senza dubbio, uno degli aspetti più interessanti di GPT-4 è la sua capacità di comprendere sia le immagini che il testo. GPT-4 può didascalia e persino interpretare immagini relativamente complesse, ad esempio identificando un adattatore per cavo Lightning da un'immagine di un iPhone collegato.

La capacità di comprensione delle immagini non è ancora disponibile per tutti i clienti OpenAI: OpenAI la sta testando con un unico partner, Be My Eyes, per cominciare. Basata su GPT-4, la nuova funzionalità Virtual Volunteer di Be My Eyes può rispondere a domande sulle immagini inviate. L’azienda spiega come funziona in un post sul blog:

“Se, ad esempio, un utente invia una foto dell'interno del proprio frigorifero, il Volontario Virtuale non solo sarà in grado di identificare correttamente cosa c'è dentro, ma anche di estrapolare e analizzare cosa si può preparare con quegli ingredienti. Lo strumento può anche offrire una serie di ricette per tali ingredienti e inviare una guida passo passo su come realizzarli”.

Un miglioramento più significativo in GPT-4, potenzialmente, è rappresentato dai suddetti strumenti di governabilità. Con GPT-4, OpenAI introduce una nuova funzionalità API, i messaggi “di sistema”, che consentono agli sviluppatori di prescrivere stile e attività descrivendo indicazioni specifiche. I messaggi di sistema, che in futuro arriveranno anche su ChatGPT, sono essenzialmente istruzioni che danno il tono e stabiliscono i confini per le prossime interazioni dell'IA.

Ad esempio, un messaggio di sistema potrebbe leggere: “Sei un tutor che risponde sempre in stile socratico. Non dai mai la risposta allo studente, ma cerchi sempre di porre la domanda giusta per aiutarlo a imparare a pensare con la propria testa. Dovresti sempre adattare la tua domanda agli interessi e alle conoscenze dello studente, suddividendo il problema in parti più semplici finché non raggiunge il livello giusto per lui."