LLM 27

普通电脑跑本地LLM大模型

无需高端显卡,普通电脑也能跑 2026年,大语言模型(LLM)早已不是高端显卡和专业服务器的“专属品”。 随着模型量化技术的迭代和轻量级模型的爆发,只要你有一台普通办公本、家用台式机(哪怕没有独立显卡),就能轻松部署本地LLM,实现离线对话、代码生成、文本摘要等核心功能——无需联网、不占云端配额、数...

免费LLM API资源整理

整理可通过API访问的免费大语言模型(LLM)推理资源 一、资源分类 整体分为纯免费提供方和提供试用额度的提供方两类,前者可直接免费调用API,后者赠送一定额度的免费使用资源,超出后需付费。 ...