AI Infra:SpikingBrain,中科院研发的脑仿生AI模型
由中科院自动化所发布,SpikingBrain 1.0 是一款“类脑”大语言模型。旨在比主流模型更节能、更适合国产芯片。
https://github.com/BICLab/SpikingBrain-7B
1、痛点与创新
传统Transformer模型在训练时计算量随序列长度平方增长,推理内存线性上升。SpikingBrain采用“脉冲计算”技术,模仿人脑神经元活动——只在必要时激活,显著降低能耗和提升速度。
2、性能表现
- 使用不到常规2%的数据,完成训练。
- 处理400万token输入,速度快100倍以上。
- 推出两个版本:7B与76B参数,共用约150B token数据训练。
- 在生成首个输出token时,比Transformer快26.5倍。
3、部署与意义
在MetaX芯片上稳定运行数周,验证了国产硬件支持高阶AI的可能性。
4、潜在应用
长文档分析(法律/医学)、高能物理研究、DNA测序等需大规模高效处理的实际场景。
中文论文:
https://github.com/BICLab/SpikingBrain-7B/blob/main/SpikingBrain_Report_Chi.pdf