开源 · 高效 · 智能对话新体验
Phoenix 模型是一个基于开源社区协作开发的大语言模型(Large Language Model, LLM),旨在提供高质量的中文对话能力与文本生成能力。 它在多个公开数据集上进行训练,并通过指令微调(Instruction Tuning)和人类反馈强化学习(RLHF)优化对话表现。
代码与模型权重完全开源,支持学术研究与商业应用。
支持上下文理解,实现自然流畅的多轮人机对话。
针对中文语境深度优化,理解地道表达与文化背景。
提供多种参数规模版本,可在消费级 GPU 上运行。
通过 Hugging Face 或 ModelScope 即可一键下载使用:
Phoenix 模型由全球开发者共同维护。欢迎在 GitHub 提交 Issue、PR,或参与模型评测与数据标注。 访问 GitHub 仓库