AI 聚合聊天
选择模型,开始聚合对话
👋 你好!我是 AI 助手
选择模型后,输入消息开始对话
当前未登录,登录后即可使用 AI 聊天功能。去登录
工具亮点
🎯 多模型聚合
集成 Qwen、DeepSeek、GLM 等多个先进模型,一站式使用。根据任务自由切换,兼顾速度、准确率与上下文长度。
⚡ 流式响应
采用 SSE 流式传输,逐字输出。边看边思考,缩短等待时间,体验更接近实时的交互。
🧠 思考过程
部分模型支持推理可视化(reasoning)。先看思考再看答案,帮助你理解结论来源与可靠性。
📱 响应式设计
适配移动与桌面,Markdown 渲染友好,代码块、表格与列表均有良好可读性。支持一键导出 Markdown。
如何使用
- 从顶部下拉框选择一个模型(如 Qwen、DeepSeek、GLM)。
- 在输入框中描述你的需求:对话问答、代码生成、文案撰写、表格分析等。
- 按 Enter 或点击“发送”。
- 若模型支持,将先展示“思考过程”,随后流式输出正式回答。
- 可随时切换模型、清空对话、或点击“导出对话”保存为 Markdown。
💡 提示:复杂任务建议拆分为多个小问题;需要代码时请附上上下文与错误信息,有助于获得高质量答案。
常见问题
技术说明
- API 提供商:硅基流动(SiliconFlow),聚合多款开源与商用大模型的推理服务
- 流式传输:基于 Server-Sent Events (SSE) 技术实现实时流式响应
- Markdown 渲染:使用 react-markdown 和 remark-gfm 插件,支持 GitHub 风格 Markdown
- 响应式设计:基于 Tailwind CSS 与 shadcn/ui 构建,移动/桌面一致的交互体验
本工具遵循项目规范:服务端渲染优先、移动端友好、代码清晰易维护;并提供一键导出能力,便于分享与归档。
相关工具
暂无同分类其他工具。