Ollama部分支持的模型

内容纲要

Ollama 安装:https://ollama.qianniu.city/doc/Ollama%20Linux%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.html
以下是一些 Ollama 支持的模型以及它们的运行命令:
可以在此页面搜索:https://registry.ollama.ai/

  1. Llama 3.1

    • 8B 参数规模:ollama run llama3.1:8b
    • 70B 参数规模:ollama run llama3.1:70b
    • 405B 参数规模:ollama run llama3.1:405b
  2. Gemma2

    • 2B 参数规模:ollama run gemma:2b
    • 7B 参数规模:ollama run gemma:7b
    • 27B 参数规模:ollama run gemma:27b
  3. Qwen2.5

    • 0.5B 参数规模:ollama run qwen2.5:0.5b
    • 1.5B 参数规模:ollama run qwen2.5:1.5b
    • 3B 参数规模:ollama run qwen2.5:3b
    • 7B 参数规模:ollama run qwen2.5:7b
    • 14B 参数规模:ollama run qwen2.5:14b
    • 32B 参数规模:ollama run qwen2.5:32b
    • 72B 参数规模:ollama run qwen2.5:72b
  4. Phi3.5

    • 3.8B 参数规模:ollama run phi3.5
  5. Dolphin-Llama3

    • 8B 参数规模:ollama run dolphin-llama3:8b
  6. Yi

    • 具体参数规模和运行命令未在搜索结果中提供。
  7. Dolphin-Mistral

    • 7B 参数规模:ollama run mistral
  8. Qwen2.5-coder

    • 具体参数规模和运行命令未在搜索结果中提供。

请注意,运行这些命令之前,确保你已经安装了 Ollama 并且你的系统环境满足运行这些模型的要求。某些模型可能需要较高的显存和计算资源。此外,第一次运行模型时,Ollama 会从网络上下载模型文件,这可能需要一些时间。

Ollama部分支持的模型

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

滚动到顶部