Volver al blog
Noticias de IA

Se publica la versión demo del modelo SpikingBrain AI

Modelo SpikingBrain AI publicado

2025.09.16
Se publica la versión demo del modelo SpikingBrain AI

Temas de IA: Modelo SpikingBrain AI publicado

Modelo SpikingBrain AI
Imagen con un diseño de circuito en forma de cerebro montado en un servidor GPU MetaX, que representa simbólicamente la tecnología detrás del modelo SpikingBrain AI de China.
Los servidores GPU MetaX modelados como un cerebro digital se usaron para entrenar SpikingBrain 1.0, un modelo de IA chino que funciona sin hardware NVIDIA.
Fuente de imagen: ChatGPT-5

Un nuevo avance en IA inspirada en el cerebro

Puntos clave

  • SpikingBrain 1.0 imita cómo el cerebro humano procesa información. Usa neuronas de impulso que se activan solo cuando es necesario, haciéndolo más eficiente.
  • Los investigadores entrenaron modelos de 7B y 76B parámetros usando menos del 2% de los datos utilizados en sistemas de IA convencionales.
  • El modelo 7B procesó prompts de 4 millones de tokens a una velocidad 100 veces mayor que los modelos típicos.
  • Ambos modelos fueron entrenados y probados completamente en GPUs MetaX, demostrando que China puede construir IA avanzada sin NVIDIA.
  • Una demo pública llamada "Shunxi" permite a cualquiera probar el modelo SpikingBrain en línea.

SpikingBrain: Un nuevo modelo alternativo inspirado en el cerebro

Un equipo de investigación en Beijing presentó SpikingBrain 1.0, un sistema de IA diseñado para imitar más de cerca cómo funciona el cerebro humano.

A diferencia de los modelos de lenguaje grandes (LLMs) actuales que mantienen todas las neuronas en un estado "siempre encendido", las neuronas de SpikingBrain se activan solo cuando es necesario.

Este enfoque, combinado con mecanismos de atención híbridos y escalado de Mezcla de Expertos (MoE), hace que el sistema sea mucho más rápido y eficiente.

El entrenamiento muestra mayor velocidad con menos datos

SpikingBrain viene en dos versiones: el SpikingBrain-7B más pequeño diseñado para eficiencia, y el SpikingBrain-76B más grande construido para mayor precisión.

Ambos modelos fueron entrenados con aproximadamente 150 mil millones de tokens — menos del 2% de los datos típicamente usados para modelos de lenguaje modernos.

El SpikingBrain-7B procesó prompts de 4 millones de tokens más de 100 veces más rápido que los modelos transformadores típicos mientras mantenía estabilidad durante semanas.

A table comparing the SpikingBrain-7B AI model with other models, showing parameters, tokens, complexity type, and benchmark performances.
SpikingBrain Research Paper (arXiv, 2025)

El SpikingBrain-76B más grande usa una arquitectura híbrida de Mezcla de Expertos, reduciendo significativamente la brecha con los modelos transformadores principales y en algunos casos igualando o superando sistemas ampliamente usados como Llama2-70B, Mixtral-8x7B y Gemma2-27B.

A table comparing the performance and parameters of the SpikingBrain-76B model with other AI models, including benchmarks for MMLU, CMMLU, ARC-C, and more.
SpikingBrain Research Paper (arXiv, 2025)
A table comparing the performance metrics of various AI models including SpikingBrain-7B and SpikingBrain-76B across different benchmarks.
SpikingBrain Research Paper (arXiv, 2025)

Independencia de hardware: Un sistema que funciona con chips MetaX

Uno de los logros más notables es que los investigadores entrenaron SpikingBrain exclusivamente en cientos de GPUs MetaX C550 chinas, no en hardware NVIDIA.

Esta independencia es particularmente significativa dadas las preocupaciones continuas sobre las cadenas de suministro de chips y la independencia tecnológica nacional.

Demo Shunxi disponible para usuarios generales

Los investigadores publicaron como código abierto el modelo SpikingBrain-7B más pequeño a través de GitHub.

También introdujeron Shunxi, una demo pública del SpikingBrain-76B estrella, para demostrar las capacidades del sistema más grande.

Implicaciones

El lanzamiento de SpikingBrain destaca tres cambios importantes:

Eficiencia sobre escala

El diseño inspirado en el cerebro muestra que las mejoras de rendimiento no siempre requieren conjuntos de datos más grandes o costos más altos.

La diversificación de hardware está en marcha

Al demostrar que las GPUs MetaX pueden ejecutar modelos avanzados, China reduce su dependencia de fabricantes de chips occidentales.

La competencia global se intensifica

A medida que múltiples países construyen sus propios sistemas de IA y hardware, el panorama se vuelve más diverso y competitivo.

Estos nuevos desarrollos prometen sistemas más rápidos, más baratos y más eficientes energéticamente, remodelando cómo y dónde se construyen los modelos de lenguaje grandes.

Fuente: Alicia Shapiro, AiNews, "China's New SpikingBrain AI Models Deliver Speed and Efficiency on Domestic Chips", https://www.ainews.com/p/china-s-new-spikingbrain-ai-models-deliver-speed-and-efficiency-on-domestic-chips, (2025-09-15)

Le interesa la automatizacion con IA?

Encuentre la solucion adecuada para su negocio a traves de una consulta gratuita.

Solicitar consulta gratuita