检测本地硬件适配ollama大模型
目录
llm-checker 是一款专为 Ollama 设计的命令行工具,核心作用是扫描你的电脑硬件,智能推荐最适合本地运行的大语言模型(LLM)。
一、核心功能
- 硬件检测:自动识别 CPU、GPU(NVIDIA/AMD/Intel/Apple Silicon)及可用内存。
- 模型匹配:基于硬件配置,从 Ollama 库的 6900+ 模型变体中筛选可运行模型。
- 智能推荐:按质量、速度、内存适配、上下文窗口多维度评分,给出最优选择。
- 场景分类:支持按 coding、creative、reasoning、multimodal 等7类用途筛选。
- 一键部署:直接给出
ollama pull/ollama run命令,区分已安装/待安装模型。
二、快速安装与使用
1. 安装(需 Node.js 环境)
| |
2. 常用命令
- 检测硬件
1llm-checker hw-detect - 获取通用推荐
1llm-checker check - 按场景推荐(如编程)
1llm-checker check --category coding - 对比指定模型
1llm-checker ai-check --models llama2:7b mistral:7b - 列出所有可用模型
1llm-checker list-models
原文链接:
https://www.17you.com/tool/llm-checker/
已复制!
脚本编程和自动化工具
寻找技术支持帮助和技术合伙人一起搞事。