投资算力芯片公司海飞科。

算力卡中搭载的Compass C10 GPU芯片是海飞科全自研的创新技术核心,采用海飞科自主研发的单指令多线程(SIMT)架构,显著提升了并行处理能力。这一先进设计确保了在执行大规模AI计算任务时的高资源利用率和低能耗。芯片内置的全自研细粒度指令集,为AI大模型的运算提供了灵活精准的计算资源调度,使得各种计算任务能够得到更加高效的执行。此外,针对AI深度学习中的张量运算,海飞科GPU算力卡对其进行了深度优化,确保了处理复杂张量操作时的高效率和稳定性,加速了AI大模型的推理过程

1、主营业务:

研发先进通用并行处理器架构和指令集,为AI、图形和科学计算等典型应用进行优化;

研制通用可编程、高算力、高能效比、高性价比的云端或服务器端算力处理器芯片产品;

开发包括编译器、Kernel、Runtime、驱动及支持主流深度学习和并行计算框架的完整工具链;

和产业链深入合作,支持云服务和强边缘计算厂商,为终端用户提供软硬件整体解决方案。

2、主要产品:

包括Compass C10通用GPU芯片、C10-S1X和C10-S2X两款计算加速卡 。

这些产品可广泛应用于人工智能的计算机视觉、语音、自然语言、数据分析等领域,亦可用于大数据处理、科学计算等场景

3、投资亮点

底层内核+硬件架构+指令集&编程语言全自研并实现产品化,具有优异的通用兼容性。

一代处理器Compass C10已量产,支持FP32、BF16、NT8,提供高达128GB的内存管理能力,可以和各类服务器CPU通信并协同工作,可满足高并发的多路视频AI处理。

芯片单位算力成本开销约为英伟达一半,性能指标行业领先。

海飞科在边缘推理、大模型单卡部署、能效比上展现差异化优势,适合预算有限且需快速部署的客户

海飞科(Hexaflake)与英伟达(NVIDIA)产品对比分析


一、核心技术对比

维度海飞科(Hexaflake)英伟达(NVIDIA)
架构设计
自研SIMT并行架构,支持细粒度指令访问,兼容CUDA C、OpenCL等主流编程模型。
成熟的SIMT架构(如Ampere、Hopper),CUDA生态系统高度优化,支持大规模并行计算。
显存容量
单卡最高128GB(LPDDR5),支持千亿参数大模型单卡部署(如GLM130B)。
主流产品如H100显存80GB(HBM3),需多卡互联(NVLink)部署大模型。
能效比
实测能效比为主流GPU的3倍(如GLM6B模型功耗90W),强调低碳节能。
高性能伴随高功耗(如H100 TDP 700W),依赖先进制程(4nm)和HBM显存提升能效。
兼容性
通过TOPCA平台兼容PyTorch、TensorFlow等框架,支持CUDA C代码迁移。
CUDA生态无可替代,支持TensorRT、RAPIDS等工具链,覆盖全栈AI开发。

二、产品线与应用场景

维度海飞科(Hexaflake)英伟达(NVIDIA)
核心产品
- Compass C10/C20加速卡(边缘/云计算)
- 大模型一体机(单卡部署千亿模型)
- 消费级:RTX 4090
- 数据中心:A100/H100、Grace Hopper超级芯片
- DGX系统(AI超算)
目标场景
- AI推理(高吞吐、低延时)
- 边缘计算(低功耗)
- 科学计算(药物开发、仿真)
- AI训练与推理(大规模集群)
- 高性能计算(HPC)
- 自动驾驶(DRIVE平台)
大模型支持
单卡支持千亿参数模型(如GLM130B),多batch并发优化,实测吞吐量246 token/s(ChatGLM2-6B)。
依赖多卡互联(如H100 NVLink集群),训练场景优势显著,但单卡推理显存受限。

三、差异化优势与挑战

海飞科优势英伟达优势海飞科挑战
1.单卡大显存:128GB显存支持千亿模型单卡部署,降低成本与复杂度。
1.生态系统:CUDA生态成熟,开发者社区庞大。
1.生态依赖:需长期维护CUDA兼容性,生态扩展压力大。
2.高性价比:采用LPDDR5降低成本,/Token计费)。
- 硬件销售(GPU、DGX)
- 软件授权(CUDA、AI工具链)
- 云服务(NGC平台)。

目标客户
中小型企业、边缘计算服务商、需低成本大模型部署的行业(如医疗、金融)。
大型云厂商、科研机构、自动驾驶企业等高预算客户。

恒林股份于2024年上半年以人民币5,000万元投资海飞科(珠海)信息技术有限公司。感谢您对公司的关注!

免责声明:本网站提供的所有数据及资讯(包括第三方机构提供的信息)仅作交流学习及参考用途,不构成任何投资建议或交易要约‌。