内容纲要
Ollama 安装:https://ollama.qianniu.city/doc/Ollama%20Linux%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.html
以下是一些 Ollama 支持的模型以及它们的运行命令:
可以在此页面搜索:https://registry.ollama.ai/
-
Llama 3.1:
- 8B 参数规模:
ollama run llama3.1:8b
- 70B 参数规模:
ollama run llama3.1:70b
- 405B 参数规模:
ollama run llama3.1:405b
- 8B 参数规模:
-
Gemma2:
- 2B 参数规模:
ollama run gemma:2b
- 7B 参数规模:
ollama run gemma:7b
- 27B 参数规模:
ollama run gemma:27b
- 2B 参数规模:
-
Qwen2.5:
- 0.5B 参数规模:
ollama run qwen2.5:0.5b
- 1.5B 参数规模:
ollama run qwen2.5:1.5b
- 3B 参数规模:
ollama run qwen2.5:3b
- 7B 参数规模:
ollama run qwen2.5:7b
- 14B 参数规模:
ollama run qwen2.5:14b
- 32B 参数规模:
ollama run qwen2.5:32b
- 72B 参数规模:
ollama run qwen2.5:72b
- 0.5B 参数规模:
-
Phi3.5:
- 3.8B 参数规模:
ollama run phi3.5
- 3.8B 参数规模:
-
Dolphin-Llama3:
- 8B 参数规模:
ollama run dolphin-llama3:8b
- 8B 参数规模:
-
Yi:
- 具体参数规模和运行命令未在搜索结果中提供。
-
Dolphin-Mistral:
- 7B 参数规模:
ollama run mistral
- 7B 参数规模:
-
Qwen2.5-coder:
- 具体参数规模和运行命令未在搜索结果中提供。
请注意,运行这些命令之前,确保你已经安装了 Ollama 并且你的系统环境满足运行这些模型的要求。某些模型可能需要较高的显存和计算资源。此外,第一次运行模型时,Ollama 会从网络上下载模型文件,这可能需要一些时间。
Ollama部分支持的模型