AI
SageLLM 工作站
连接中
模型库
私有 AI 工作站已就绪
选择推理后端,开始本地对话
帮我写一份工作周报
用 Python 写一个快速排序
解释一下量子计算的原理
翻译这段英文
实时监控
吞吐率
—
tok/s
首 Token 延迟
—
ms
P50 响应时间
算力利用率
—
%
显存占用
—
GB
— / — GB
吞吐率趋势
延迟趋势
已服务
—
排队
—
模型
—
后端
—
运行时长
—
📦 模型库
选择并下载模型到本地,下载完成后可一键切换使用
保存目录:
镜像:
✕
loading…