Indietro

Mixture of Agents (MoA)

La Mixture of Agents (MoA) è un'architettura logica in cui più modelli linguistici diversi vengono fatti ragionare in parallelo sulla stessa domanda; successivamente, un modello 'giudice' raccoglie le loro risposte per sintetizzare la soluzione finale perfetta.


Se chiedi un parere a un solo dottore potresti ottenere una diagnosi sbagliata. Se riunisci cinque dottori eccellenti in una stanza, la diagnosi collettiva sarà nettamente migliore. La MoA fa la stessa cosa. Il sistema prende il tuo prompt e lo invia contemporaneamente a LLaMA 3, GPT-4, Claude e Mistral. Ognuno genera la sua risposta. Poi, queste risposte vengono rimescolate e passate a un modello sintetizzatore che fonde le idee migliori di ognuno e corregge i reciproci errori. Costa di più in termini di calcolo API, ma sta battendo ogni singolo record di intelligenza artificiale sui benchmark globali.