Neogenint Intelligence
首页/智算体BPU™

BPU 类
计算。

事件驱动、脉冲神经网络、存算一体——在匹配任务上能效远超 GPU 的类脑计算芯片与系统。

10×
vs A100
10⁹
神经元规模
~100×
能效提升
§ 000向下滚动
§ 001定义

不是另一种
GPU。是大脑

BPU(Brain Processing Unit)指脉冲 / 事件驱动的类脑计算芯片与系统。它的核心目标是以硬件原生支持 SNN 的神经元更新、突触事件传播与事件路由调度,通过异步 AER(Address-Event Representation)通信机制,把大量简单的神经元-突触-路由单元构造成可扩展的类脑计算系统。

TrueNorth、Loihi 以及更近期的晶圆级类脑系统都属于这类代表。在与其范式匹配的任务上——事件流、稀疏时序信号、在线学习——BPU 的能效远超传统 GPU。

事件驱动

只对实际发生的脉冲做计算

稀疏激活

跳过无效的密集 MAC 扫描

存算一体

避免搬数据比算数据更耗能

§ 002对比

BPU vs GPU:
不是替代,是互补

如果把「计算效率」理解为单位能耗可完成的有效任务量,BPU 在与其范式匹配的任务上通常明显优于 GPU。

维度
BPU
GPU
计算范式
事件驱动,稀疏激活
密集并行,张量运算
能效比
稀疏场景下优势明显
密集计算效率高
适用任务
事件流、稀疏时序信号
密集张量、矩阵运算
通信机制
异步 AER,按需传递
全局同步,批量传输
延迟特性
超低延迟,实时响应
批处理模式,有排队延迟

效率高低取决于任务是否能表达为稀疏事件驱动的 SNN,并能被 BPU 的神经元 / 突触模型高效映射。

§ 003产品系列

三种形态,
同一个大脑

从 PCIe 加速卡到晶圆级服务器——根据你的任务规模选择合适的 BPU 产品形态。

01
入门

BPU PCI 计算卡

单卡或少量 BPU 芯片封装成板卡 / 开发平台,通过 PCIe 挂到主机上。易于融入现有服务器工作流,调试和量产门槛低。

  • PCIe 接口,易于集成
  • 开发调试门槛低
  • 适合原型开发
02
中端

BPU 晶圆计算模组

BPU 芯粒模组化封装,可灵活集成到各类计算平台中,提供更高密度的类脑计算能力。

  • 模组化设计
  • 灵活集成
  • 高密度计算
  • 支持 4 亿+ 神经元模拟
03
旗舰旗舰

天琴芯海 · 晶圆计算服务器

晶圆级类脑计算系统,在晶圆内短距高密度互连,大规模事件通信、全局同步与能效优势明显。适合脑规模 SNN 推理与仿真。

  • 亿级神经元规模
  • 数万亿级突触连接
  • 相比 A100 提升 10 倍以上
  • 接近生物脑能效
如何选择

PCIe 版本

原型开发、小规模应用。易于融入现有工作流。

模组版本

中等规模应用。灵活集成,按需组合。

晶圆计算

超大规模脑仿真和研究。亿级神经元,接近生物能效。

旗舰产品
§ 004深度解析

天琴
芯海

突破性的晶圆级类脑计算系统——在整片晶圆上互连成统一的事件驱动计算网络。

什么是晶圆级计算?

BPU 晶圆级计算指把大量类脑芯片(或芯粒)在整片晶圆上互连成一个统一的事件驱动系统。晶圆内运行的计算本质上仍是 SNN 的神经元状态更新与突触事件传播,只是规模被提升到「晶圆级神经元-突触总量」。事件在晶圆内以 AER 等异步方式高速传递,同时用分层时间步或 GALS 同步机制保证跨芯粒 / 跨区域的时序一致性。

性能突破

亿级
神经元
计算规模
10×+
vs A100
~100×
能效提升
< 1ms
事件延迟
01

高密度互连

晶圆内短距高密度互连替代 PCB 级长距互连,显著降低带宽、延迟和能耗的数量级惩罚。

02

超高能效比

使得大规模 SNN 和脑仿真在能耗-时延上更接近生物系统的效率区间。

03

事件驱动架构

事件在晶圆内以 AER 等异步方式高速传递,配合 GALS 同步机制保证时序一致性。

04

脑规模仿真

支持更接近脑规模的并行脉冲计算与仿真,亿级神经元并行处理。

§ 005应用场景

事件驱动
世界

BPU 最适合那些输入本身是事件流或可自然稀疏化、并且决策强依赖时间结构的场景。

01

脑仿真研究

大规模神经科学脑回路仿真,支持亿级神经元并行处理。

02

DVS 事件相机

基于事件的视觉感知处理,超低延迟实时响应。

03

低功耗边缘智能

超低延迟实时控制与在线学习,适合 IoT 和嵌入式场景。

04

脉冲传感融合

雷达 / 声呐 / 触觉传感器集成,多模态事件流统一处理。

共同点:对低延迟、低功耗、稀疏时序处理或在线可塑性有强需求。

§ 006硬件产品

卡片
服务器

Brain-Inspired Computing Acceleration Card LBM212

Neogenint类脑计算加速卡 LBM212

自研LYRArc-II存算融合处理架构,支持BI-Link类脑计算卡互连扩展,支持全范围神经元连接,支持可变计算精度(FP32/FP16/INT8),具有高灵活度、高处理能效、高互连带宽和超低通信延时等优势。

  • 自研LYRArc-II存算融合处理架构
  • 支持BI-Link类脑计算卡互连扩展
  • 支持全范围神经元连接
  • 支持可变计算精度(FP32/FP16/INT8)
  • 高灵活度、高处理能效、高互连带宽和超低通信延时
  • 支持最大2600万神经元模拟计算
  • 支持事件驱动计算与稀疏计算
  • 支持面向类脑计算的微代码级指令重构
  • 支持类脑神经网络训练和推理
咨询此产品
LBM212 Brain-Inspired Computing Acceleration Card
Brain-Inspired Wafer Computing Subsystem Module LBW2216

Neogenint类脑晶圆计算子系统(模组)LBW2216

自研LYRArc-II存算融合处理架构,自研计算、供电、散热、互连一体化组装集成技术,支持BI-Link系统级扩展互连,支持可变计算精度(FP32/FP16/INT8)。

  • 自研LYRArc-II存算融合处理架构
  • 自研计算、供电、散热、互连一体化组装集成技术
  • 支持BI-Link系统级扩展互连
  • 支持可变计算精度(FP32/FP16/INT8)
  • 高灵活度、高处理能效、高互连带宽和超低通信延时
  • 支持4亿以上神经元模拟计算
  • 支持事件驱动计算与稀疏计算
  • 支持面向类脑计算的微代码级指令重构
  • 支持类脑神经网络训练和推理

支持 4 亿以上神经元模拟计算

咨询此产品
LBW2216 Wafer Computing Subsystem Module
High-Density Brain-Inspired Computing Server BPSC-II

Neogenint高密度类脑算力服务器 BPSC-II

自研超高算力密度整机集成技术(4U 16张LBM212 BPU加速卡),自研类脑血管相变液冷技术,支持BI-Link类脑计算卡互连,支持可变计算精度(FP32/FP16/INT8),运行噪音低于65dB。

  • 自研超高算力密度整机集成技术(4U 16张LBM212 BPU加速卡)
  • 自研类脑血管相变液冷技术
  • 支持BI-Link类脑计算卡互连
  • 支持可变计算精度(FP32/FP16/INT8)
  • 运行噪音低于65dB(约为办公室环境噪音水平)
  • 支持4亿以上神经元模拟计算
  • 支持事件驱动计算与稀疏计算
  • 支持面向类脑计算的微代码级指令重构
  • 支持类脑神经网络训练和推理

4U 空间集成 16 张 LBM212 加速卡,超高算力密度

咨询此产品
BPSC-II High-Density Brain-Inspired Computing Server
§ 007下一步

想用类脑计算
解决真实问题?

珠海 · 横琴NEOGENINT · BPU · 2026