AutoGLM-Phone-9B GGUF 量化模型集合

这是 AutoGLM-Phone-9B 模型的完整 GGUF 量化版本集合,专门为手机自动化任务优化。

🎯 模型简介

AutoGLM-Phone-9B 是基于 GLM-4V-9B 的多模态视觉语言模型,专门针对手机自动化场景进行了优化。该模型能够理解手机屏幕截图并生成相应的操作指令。

📦 可用的量化版本

量化类型 文件大小 内存需求 推荐用途 下载链接
Q2_K 3.73 GB ~4 GB 极限内存环境 下载
Q3_K_S 4.28 GB ~5 GB 低内存设备 下载
Q3_K_M 4.63 GB ~5 GB 平衡性能/内存 下载
Q3_K_L 4.84 GB ~6 GB 稍好质量 下载
Q4_0 5.08 GB ~6 GB 传统4位量化 下载
Q4_1 5.60 GB ~6 GB 改进4位量化 下载
Q4_K_S 5.36 GB ~6 GB 推荐-小显卡 下载
Q4_K_M 5.74 GB ~7 GB 推荐-平衡 下载
Q5_0 6.11 GB ~7 GB 传统5位量化 下载
Q5_1 6.62 GB ~8 GB 改进5位量化 下载
Q5_K_S 6.24 GB ~7 GB 高质量-小 下载
Q5_K_M 6.57 GB ~8 GB 高质量-中 下载
Q6_K 7.70 GB ~9 GB 接近原始质量 下载
Q8_0 9.31 GB ~11 GB 最高质量 下载
F16 17.52 GB ~20 GB 原始精度 下载

🚀 快速开始

使用 llama.cpp

# 下载模型和视觉投影器
wget https://huggingface.co/Luckybalabala/AutoGLM-Phone-9B-Q4_K_M.gguf/resolve/main/AutoGLM-Phone-9B-Q4_K_M.gguf
wget https://huggingface.co/Luckybalabala/AutoGLM-Phone-9B-Q4_K_M.gguf/resolve/main/AutoGLM-Phone-9B-mmproj.gguf

# 启动服务器
./llama-server -m AutoGLM-Phone-9B-Q4_K_M.gguf --mmproj AutoGLM-Phone-9B-mmproj.gguf --host 0.0.0.0 --port 8080

与 Open-AutoGLM 集成

# 克隆 Open-AutoGLM 项目
git clone https://github.com/OpenBMB/AutoGLM.git
cd AutoGLM

# 配置模型 API
python main.py --base-url http://localhost:8080/v1

💻 系统要求

推荐配置

  • 8GB 显卡: Q4_K_M 或 Q5_K_S
  • 12GB 显卡: Q5_K_M 或 Q6_K
  • 16GB+ 显卡: Q8_0 或 F16
  • CPU 推理: Q4_K_M 或更低

最低要求

  • 操作系统: Windows 10/11, Linux, macOS
  • 内存: 8GB+ RAM
  • 存储: 根据选择的量化版本

🔧 技术细节

  • 基础模型: THUDM/glm-4v-9b
  • 量化工具: llama.cpp quantize
  • 支持格式: GGUF
  • 多模态: 支持图像+文本输入
  • API: OpenAI 兼容接口

📊 性能对比

量化类型 推理速度 内存占用 质量保持 推荐场景
Q2_K 最快 最低 70% 资源受限
Q4_K_M 中等 85% 平衡推荐
Q6_K 中等 较高 95% 高质量需求
Q8_0 较慢 98% 最佳质量

🔗 相关资源

📝 使用许可

本模型遵循 Apache 2.0 许可证。请查看原始模型的许可证条款。

⚠️ 注意事项

  1. 模型用途: 专门用于手机自动化任务,其他用途效果可能不佳
  2. 安全提醒: 请在受控环境中测试,避免在重要设备上直接使用
  3. 性能差异: 不同量化级别的性能和质量存在差异,请根据需求选择
  4. 更新频率: 模型会根据 Open-AutoGLM 项目更新而更新

🤝 贡献

欢迎提交 Issue 和建议来改进这个模型集合。


标签: GLM-4V 多模态 手机自动化 GGUF 量化模型 llama.cpp

Downloads last month
2,753
GGUF
Model size
9B params
Architecture
glm4
Hardware compatibility
Log In to view the estimation

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Luckybalabala/AutoGLM-Phone-9B-Q4_K_M.gguf

Base model

zai-org/glm-4v-9b
Quantized
(5)
this model