La Cina ha svelato SpikingBrain 1.0, un modello linguistico di nuova generazione che imita il funzionamento dei neuroni biologici. A differenza di sistemi come ChatGPT, che utilizzano l’intera rete per ogni richiesta, SpikingBrain attiva solo le parti necessarie, rendendo l’elaborazione più rapida ed efficiente.

Come funziona

Il segreto sta nella spiking computation, un metodo che riproduce i picchi di attività dei neuroni:

  • Solo i nodi rilevanti vengono attivati per ogni compito.
  • Consumo energetico notevolmente ridotto.
  • Tempi di risposta fino a 100 volte più veloci rispetto ai modelli tradizionali.

Il team cinese ha addestrato due versioni: una con 7 miliardi di parametri e una con 76 miliardi, usando solo il 2% dei dati normalmente richiesti.

Prestazioni sorprendenti

  • Elaborazione di sequenze lunghissime: 4 milioni di token gestiti 100 volte più velocemente di un Transformer standard.
  • Generazione del primo token da 1 milione di token: miglioramento di 26,5 volte.
  • Stabilità garantita per settimane su centinaia di chip MetaX, riducendo la dipendenza da Nvidia.

Applicazioni future

SpikingBrain 1.0 può rivoluzionare settori che gestiscono grandi quantità di dati:

  • Analisi legale e medica.
  • Ricerca in fisica delle alte energie.
  • Sequenziamento del DNA.

Un passo verso IA più “cervellotica”

Secondo i ricercatori, l’adozione di meccanismi ispirati al cervello offre nuove strade per IA scalabili ed efficienti, riducendo i colli di bottiglia dei modelli basati su Transformer.

Con SpikingBrain 1.0, la Cina dimostra che l’IA non deve essere solo potente, ma anche intelligente e parsimoniosa nel consumo di risorse.

Foto di Steve Johnson su Unsplash