检测本地硬件适配ollama大模型

llm-checker 是一款专为 Ollama 设计的命令行工具,核心作用是扫描你的电脑硬件,智能推荐最适合本地运行的大语言模型(LLM)

一、核心功能

  • 硬件检测:自动识别 CPU、GPU(NVIDIA/AMD/Intel/Apple Silicon)及可用内存。
  • 模型匹配:基于硬件配置,从 Ollama 库的 6900+ 模型变体中筛选可运行模型。
  • 智能推荐:按质量、速度、内存适配、上下文窗口多维度评分,给出最优选择。
  • 场景分类:支持按 coding、creative、reasoning、multimodal 等7类用途筛选。
  • 一键部署:直接给出 ollama pull / ollama run 命令,区分已安装/待安装模型。

二、快速安装与使用

1. 安装(需 Node.js 环境)

1
npm install -g llm-checker

2. 常用命令

  • 检测硬件
    1
    
    llm-checker hw-detect
  • 获取通用推荐
    1
    
    llm-checker check
  • 按场景推荐(如编程)
    1
    
    llm-checker check --category coding
  • 对比指定模型
    1
    
    llm-checker ai-check --models llama2:7b mistral:7b
  • 列出所有可用模型
    1
    
    llm-checker list-models
原文链接: https://www.17you.com/tool/llm-checker/ 已复制!
脚本编程和自动化工具

寻找技术支持帮助和技术合伙人一起搞事。

请点击联系我


相关内容