Application Scenarios
應用場域
從個人私有雲到邊緣伺服器,VXI SRAM-CIM 處理器為五大場域提供量身定制的 AI 推理方案。

VXI-EM5
個人私有雲 / 智能盒
痛點:雲端 AI 助手資料外洩風險、月費高昂、離線不可用
巴掌大無風扇機殼,5W 被動散熱,1.5B LLM 35-45 tok/s 流暢對話。所有數據本地處理,搭配 Web3 身份簽章確保隱私主權。
功耗
5W
推理速率
35-45 tok/s
體積
巴掌大
- 5W 被動散熱,靜音運行
- 1.5B DeepSeek 流暢推理
- Web3 身份簽章 + PUF
- Wi-Fi 6 無線部署
- 家庭 NAS AI 搜索

VXI-XC8
信創桌面 / 工作站
痛點:信創桌面缺乏本地 AI 能力,敏感文件無法上雲處理
22nm 國產化晶片,DeepSeek 7B / Qwen 7B 本地推理。國密 SM2/SM3/SM4 硬體加密,滿足等保三級合規要求。
功耗
8-12W
推理速率
15-20 tok/s
合規
等保三級
- 7B 級 LLM 本地推理
- 國密硬體加密引擎
- 等保三級合規
- PCIe 3.0 x4 即插即用
- TEE 可信執行環境

VXI-IR5
工業 / 機器狗大腦
痛點:機器狗需要即時語意理解 + 動作規劃,雲端延遲不可接受
寬溫無風扇設計(-40°C~85°C),VLA 視覺-語言-動作模型即時推理。MIPI CSI 直連相機,CAN-FD 控制馬達,具身智能的核心大腦。
功耗
5-8W
推理速率
30-40 tok/s
溫度範圍
-40~85°C
- VLA 模型即時推理
- -40°C~85°C 工業級
- MIPI CSI 相機直連
- CAN-FD 馬達控制
- Secure Boot 防篡改

VXI-SV15
邊緣推理伺服器
痛點:邊緣場景需要 14B 級模型推理,單晶片容量不足
4 顆 VXI SoC 透過 die-to-die 互連組成 MCM,128 MB CIM + 64 MB KV Cache,支援 14B 級模型邊緣部署。
功耗
15-25W
推理速率
8-12 tok/s
模型規模
14B
- 4-die MCM 互連
- 14B 級模型推理
- PCIe 4.0 x8 高速介面
- 2.5GbE 網路
- Full security suite

VXI-SV15
智慧園區 / 交通
痛點:園區 / 交通場景需要多路視頻 + 語意理解,雲端頻寬成本高
邊緣伺服器部署 VXI-SV15,本地處理多路視頻流 + 自然語言查詢。降低雲端頻寬成本 80%,同時滿足數據本地化合規要求。
視頻路數
8-16 路
頻寬節省
80%
可用性
99.9%
- 多路視頻本地處理
- 自然語言查詢
- 數據本地化合規
- 降低雲端成本 80%
- 7×24 穩定運行