Indietro

Architettura GPT

GPT (Generative Pre-trained Transformer) è una famiglia di modelli linguistici creati da OpenAI. Combina la generazione di testo, un immenso pre-addestramento su dati di internet e la rivoluzionaria architettura neurale Transformer.


Ogni singola lettera dell'acronimo GPT spiega come funziona questa tecnologia.

'G' sta per Generative: non cerca risposte in un database, le crea da zero parola per parola. 'P' sta per Pre-trained: il modello viene prima esposto a tutto lo scibile umano online imparando la grammatica e i concetti base del mondo, per poi essere specializzato. 'T' sta per Transformer: la tecnologia di Google che gli permette di leggere intere frasi contemporaneamente per coglierne il contesto.

Nata come progetto di ricerca nel 2018 (GPT-1), la sua terza iterazione (GPT-3) e il successivo rilascio al pubblico tramite l'interfaccia di chat nel 2022 hanno innescato l'attuale rivoluzione globale dell'AI.