VXI

VELOX INTELLIGENCE

22nm SRAM-CIM AI ACCELERATOR

Application Scenarios

應用場域

從個人私有雲到邊緣伺服器,VXI SRAM-CIM 處理器為五大場域提供量身定制的 AI 推理方案。

個人私有雲 / 智能盒
VXI-EM5

個人私有雲 / 智能盒

痛點:雲端 AI 助手資料外洩風險、月費高昂、離線不可用

巴掌大無風扇機殼,5W 被動散熱,1.5B LLM 35-45 tok/s 流暢對話。所有數據本地處理,搭配 Web3 身份簽章確保隱私主權。

功耗

5W

推理速率

35-45 tok/s

體積

巴掌大

  • 5W 被動散熱,靜音運行
  • 1.5B DeepSeek 流暢推理
  • Web3 身份簽章 + PUF
  • Wi-Fi 6 無線部署
  • 家庭 NAS AI 搜索
了解導入方案
信創桌面 / 工作站
VXI-XC8

信創桌面 / 工作站

痛點:信創桌面缺乏本地 AI 能力,敏感文件無法上雲處理

22nm 國產化晶片,DeepSeek 7B / Qwen 7B 本地推理。國密 SM2/SM3/SM4 硬體加密,滿足等保三級合規要求。

功耗

8-12W

推理速率

15-20 tok/s

合規

等保三級

  • 7B 級 LLM 本地推理
  • 國密硬體加密引擎
  • 等保三級合規
  • PCIe 3.0 x4 即插即用
  • TEE 可信執行環境
了解導入方案
工業 / 機器狗大腦
VXI-IR5

工業 / 機器狗大腦

痛點:機器狗需要即時語意理解 + 動作規劃,雲端延遲不可接受

寬溫無風扇設計(-40°C~85°C),VLA 視覺-語言-動作模型即時推理。MIPI CSI 直連相機,CAN-FD 控制馬達,具身智能的核心大腦。

功耗

5-8W

推理速率

30-40 tok/s

溫度範圍

-40~85°C

  • VLA 模型即時推理
  • -40°C~85°C 工業級
  • MIPI CSI 相機直連
  • CAN-FD 馬達控制
  • Secure Boot 防篡改
了解導入方案
邊緣推理伺服器
VXI-SV15

邊緣推理伺服器

痛點:邊緣場景需要 14B 級模型推理,單晶片容量不足

4 顆 VXI SoC 透過 die-to-die 互連組成 MCM,128 MB CIM + 64 MB KV Cache,支援 14B 級模型邊緣部署。

功耗

15-25W

推理速率

8-12 tok/s

模型規模

14B

  • 4-die MCM 互連
  • 14B 級模型推理
  • PCIe 4.0 x8 高速介面
  • 2.5GbE 網路
  • Full security suite
了解導入方案
智慧園區 / 交通
VXI-SV15

智慧園區 / 交通

痛點:園區 / 交通場景需要多路視頻 + 語意理解,雲端頻寬成本高

邊緣伺服器部署 VXI-SV15,本地處理多路視頻流 + 自然語言查詢。降低雲端頻寬成本 80%,同時滿足數據本地化合規要求。

視頻路數

8-16 路

頻寬節省

80%

可用性

99.9%

  • 多路視頻本地處理
  • 自然語言查詢
  • 數據本地化合規
  • 降低雲端成本 80%
  • 7×24 穩定運行
了解導入方案

找到您的應用場景了嗎?

我們的應用工程師團隊可以為您量身定制部署方案。

預約技術諮詢