
一个比 Transformer 更接近生物直觉的类脑架构。三值逻辑、稀疏激活、CPU 即可推理。可解释性内建,不是事后补的。
传统深度学习是一个黑箱——你把数据喂进去,它吐出预测,但你永远不知道为什么。INN 从第一性原理改变了这一点。
INN 采用「结构信息抽取—逻辑组网」机制,融合符号计算与数据驱动的三值逻辑类脑模型。它能像人类一样进行逻辑推理,并解释自己的决策过程。
这不是在 Transformer 上打补丁。这是一个全新的大脑——从神经元到网络结构,从激活函数到推理路径,每一层都为可解释性而设计。
INN 是一个全新的大脑架构——从神经元到网络,从激活到推理,每一层都重新设计。
仅需少量数据即可提炼规律,而不是百万级标注。
学习新知识而不遗忘已掌握内容,没有灾难性遗忘。
同时处理文本、图像、语音等多种信息,统一表征。
无需 GPU 集群,在普通 CPU 上即可高效运行。
3 节点 BIE 智算体,CPU 推理,无需 GPU 集群
100 亿 token 训练,30 小时完成,单节点 CPU。媲美需要多张高端 GPU 的传统算力集群。
公开数据集,可复现的结果。不是实验室精心挑选的测试用例,而是真实的分类任务。
医疗诊断
疾病预测
图像识别
科学分类
INN 不只是更快的模型——它在精度、透明度、能耗和通用性上重新定义了基准线。
在标准测试集上持续超越同类模型,准确率领先,误差极低。
每个推理步骤均可溯源,逻辑链路清晰可见,不再是黑箱。
CPU 原生推理,无需 GPU 集群,运行功耗降低数个数量级。
整机推理吞吐达 1260 万 tokens/s,响应延迟低于 100ms。
符号逻辑与数值计算在同一框架中协同,兼顾精确性与泛化能力。
从 NLP 到图像识别,从分类到多模态,单一架构覆盖多类任务。
为构建和部署 INN 模型而开发的 AI 开发框架。根据任务生成学习网络,确定网络节点、连接结构以及节点计算模型。
基于底层CPU、GPU、BPU等硬件资源提供直觉神经业务网络数据存储和元数据管理等功能,具体包括业务数据KV存储引擎、元数据字典、神经元节点和网络结构数据存取接口,以及跨进程或多机网络通讯接口。
在任务训练阶段,负责从用例数据中提取组织关系并进行数据标注拟合。该层利用直觉神经网络的感知与认知组件,结合过滤、分类等算子,基于底层的神经元抽象接口,构建出任务所需的多方向、多尺度神经网络图结构。
为直觉神经网络的训练和推理全生命周期提供辅助工具与管控操作接口,便于快速构建各类模型应用。主要包括神经元网络连接结构可视化工具、数据预处理与加载工具,以及训练和推理的命令行接口。
直觉神经网络作为一种通用人工智能学习算法,基于此,Flint平台能够支撑多种场景的智能应用开发,例如当前流行的NLP对话系统、传统分类任务(如Kaggle竞赛任务),以及文本与图像结合的多模态应用。
在易用性和性能之间取得最佳平衡,开发者可以快速上手并高效使用。
每个组件都可以独立替换或扩展,支持灵活的系统架构设计。
支持快速迭代开发,从原型到生产环境无缝过渡。
内置网络结构可视化工具,让复杂的神经网络变得可理解。
最小的 INN 模型软件版本,可直接从网站下载使用。这是 INN 直觉类脑大模型的入门版本,让您能够体验 INN 架构的核心功能。
注意: INN inside™ PRO 和 INN inside™ Ultra 仅随 BIE PRO 和 BIE Ultra 硬件平台提供。