Indietro

State Space Models (Mamba / SSM)

Gli State Space Models (SSM), come il famoso modello Mamba, sono un'architettura neurale alternativa ai Transformer. Offrono velocità estreme e consumo di memoria lineare, permettendo di analizzare testi lunghissimi a costi irrisori.


Tutte le AI famose di oggi (ChatGPT, Claude) sono basate sull'architettura Transformer. Il problema dei Transformer è che se gli fai leggere un libro molto lungo (Context Window estesa), la memoria del computer si riempie in modo esponenziale e i costi esplodono. Gli State Space Models risolvono questo collo di bottiglia: comprimono le informazioni passate in uno 'stato' fisso e aggiornabile. Modelli come Mamba riescono a leggere documenti infiniti alla velocità della luce usando pochissima RAM, candidandosi a diventare la base dell'AI del futuro.