手把手教程:在Windows和Ubuntu上部署高性能本地AI大模型引擎llama.cpp 辉哥 发布于 2026-03-16 收录于 实用工具与脚本 和 AI技术教程 Ubuntullama.cpp 是轻量级、高性能的本地 LLM 推理引擎,纯 C/C++ 实现,无冗余依赖,支持 GGUF 模型量化、多硬件加速(CPU/GPU)、多模态推理,是本地部署翻译 / 对话类 LLM 的核心工具。 ...
传统 AI 搜索的幻觉困境与治理路径 辉哥 发布于 2026-03-01 收录于 AI 智能体实践在人工智能飞速发展的今天,传统AI搜索面临着幻觉困境和数据非确定性的双重挑战 传统AI搜索的幻觉困境 深度解析大语言模型的虚假信息生成机制及其对用户信任的系统性破坏 ...
检测本地硬件适配大模型LLM 辉哥 发布于 2026-02-22 收录于 实用工具与脚本 和 OpenClaw检测本地用户硬件配置(CPU、RAM、GPU),匹配适配的能流畅运行的本地大语言模型(LLM),目前已收录157个模型、支持30家提供商 ...
普通电脑跑本地LLM大模型 辉哥 发布于 2026-02-21 收录于 免费资源与机会 和 Python无需高端显卡,普通电脑也能跑 2026年,大语言模型(LLM)早已不是高端显卡和专业服务器的“专属品”。 随着模型量化技术的迭代和轻量级模型的爆发,只要你有一台普通办公本、家用台式机(哪怕没有独立显卡),就能轻松部署本地LLM,实现离线对话、代码生成、文本摘要等核心功能——无需联网、不占云端配额、数...
免费LLM API资源整理 辉哥 发布于 2026-02-13 收录于 AI 智能体实践整理可通过API访问的免费大语言模型(LLM)推理资源 一、资源分类 整体分为纯免费提供方和提供试用额度的提供方两类,前者可直接免费调用API,后者赠送一定额度的免费使用资源,超出后需付费。 ...
大模型文本生成参数详解 辉哥 发布于 2026-01-12 收录于 编程技巧项目实战大型语言模型生成文本行为的关键参数 Model Capabilities 模型能力: 它定义了模型能做什么、不能做什么,以及做得有多好。了解一个模型的能力,可以帮助你更好地利用它,并对其产出有合理的预期 ...