开麒智爪 Opencraw

国产边缘智能底座,基于开放麒麟 openKylin 与 Nanabot 框架,打造从底层到应用的全栈自主可控解决方案。

核心架构

全栈透明,每一层都可审计

应用层
Nanabot Edge
香港大学研发的边缘智能框架,支持多模态交互
本地大模型
Qwen3.5 0.8B-4B 参数,完全离线运行
多模态处理
文本、语音、图像本地推理,无需云端
知识库系统
本地向量数据库,支持 RAG 检索增强生成
平台层
openKylin 2.0
中国首个桌面OS根社区,Linux 6.1 LTS
UKUI 4.0
Qt架构桌面环境,熟悉的使用体验
容器支持
Docker / Podman,灵活的部署方式
软件仓库
丰富的国产软件生态,一键安装
安全层
国密算法
SM2/SM3/SM4 全支持,满足合规要求
可信启动
Secure Boot 验证链,防止恶意篡改
全盘加密
LUKS 数据加密与密钥管理
访问控制
细粒度权限管理,多用户安全隔离
硬件层
ARM64 模组
工业级嵌入式模组,四核 Cortex-A76
极致能效
5-12W 典型负载,POE 单线供电
丰富接口
双千兆网口、多USB、GPIO扩展
工业品质
-20°C~60°C 工作温度,7×24稳定

本地模型

预置 Qwen3.5 系列,无需云端 API,数据完全本地处理

Qwen3.5-0.8B
0.8B 参数
显存需求 2GB
推理速度 极快

轻量级任务、边缘设备

文本生成 代码补全 简单推理
Qwen3.5-4B
4B 参数
显存需求 8GB
推理速度 流畅

复杂推理、专业场景

深度推理 多模态 代码生成
自定义模型支持

支持导入自定义 GGUF、ONNX 格式模型,灵活适配各种场景需求

本地部署优势

本地推理

所有计算在设备本地完成,无需联网,响应速度快至毫秒级

数据安全

敏感数据永不离开本地设备,彻底杜绝数据泄露风险

低功耗运行

优化后的模型在 5-12W 功耗下流畅运行,适合 7×24 小时部署

一键部署

预置模型仓库,支持一键下载与切换,无需复杂配置

企业集成

无缝连接企业微信、钉钉、飞书、QQ,快速接入 Openclaw API

企业微信
已就绪

企业微信原生集成,支持群机器人、单聊、应用消息等多种对接方式

群机器人 单聊对接 应用消息 审批流
钉钉
已就绪

钉钉开放平台深度对接,支持智能工作流与审批自动化

群机器人 工作通知 审批回调 考勤集成
飞书
已就绪

飞书开放平台集成,支持多维表格与文档协作

群机器人 飞书文档 多维表格 日历集成
QQ
Beta

QQ 机器人协议支持,适合社区与客服场景

群消息 私聊 好友管理 群管理
申请 API 接入 →

Openclaw API

OpenAPI

RESTful API 设计,支持模型调用、知识库查询、任务管理

SDK 支持

提供 Python、JavaScript、Go 等多语言 SDK

可视化配置

Web 管理界面,零代码完成平台对接与流程编排

Webhook

支持自定义 Webhook,灵活对接第三方系统

快速接入示例 Python SDK
from opencraw import Client

# 初始化客户端
client = Client(host="http://localhost:8080")

# 调用本地模型
response = client.chat.completions.create(
    model="qwen3.5-1.8b",
    messages=[{"role": "user", "content": "你好"}]
)

# 发送企业微信消息
client.wecom.send_message(
    agent_id="your-agent-id",
    content=response.choices[0].message.content
)