AI是什么?一篇文带你彻底搞懂人工智能的核心原理
《什么是 AI?》AI 入门探索笔记
这个系列不是教程。我不是老师,我只是比你早走了几步的探索者。更准确地说,这是一本探索笔记——“我在研究 AI 的过程中,发现了这些有趣的东西,想分享给你。”
写作原则
每一个概念,都要拆到你能在纸上算出来为止。不跳步骤,不留黑箱。
开篇引言
你让 ChatGPT 帮你写一封邮件。
几秒钟后,它给了你一段文字——语气得体,结构清晰,甚至比你自己写的还好一点。
你看着屏幕,突然有一个念头冒出来:这东西到底是怎么做到的?
作者也想知道。
这个问题驱动他花了很长时间去研究。拆到后来,发现了一件让人意外的事情:
AI 的核心原理,比我以为的简单得多。
如果非要用一句话概括,作者会说:AI 是统计学的胜利。
阅读目标
读完这个系列,你不会变成 AI 专家。
但下次再看到关于 AI 的新闻——不管是"突破"还是"威胁"——你能有自己的判断,而不只是跟着标题走。
系列目录
第一章:拆开黑箱(第 1-8 篇)
主题: AI 到底是什么?它是怎么"看"、怎么"学"、怎么"想"的?
第二章:AI 能做什么,不能做什么(第 9-12 篇)
主题: AI 在各个领域的真实能力边界在哪里?
第三章:和 AI 一起工作(第 13-16 篇)
主题: 理解了 AI 的原理和边界,普通人该怎么用好它?
《AI是怎么回事》第1-8章 完整总结
作者:我没有三颗心脏
第1章:人脸识别的奥秘
核心:AI看到的不是图片,是数字
- 一张照片 = 几百万个 0-255 的像素值
- 边缘检测只用加减乘除就能完成(Sobel算子)
- AI卡住几十年的原因:人类写不完所有规则
- 真正突破:不要人类设计检测器,让电脑自己学
第2章:文字如何变成数字
核心:语义可以被测量
- Token化:文字拆成最小单位(不是词,可能是偏旁)
- 词向量:每个词变成 768 维的一串数字
- 震惊整个领域的发现:国王 - 男人 + 女人 ≈ 王后
- 虚无缥缈的"语义",变成了高维空间中可测量的距离
第3章:2012年的转折点
核心:三个齿轮同时咬合
AlexNet把图像识别错误率从 26% 一口气降到 15.3%,这不是一个算法的胜利,而是三件事同时到位:
- ✅ 算法:卷积神经网络
- ✅ 数据:ImageNet 120万张标注图片
- ✅ 算力:GPU 并行计算
缺任何一个,AI革命都不会发生。
第4章:神经网络到底是什么
核心:祛除神秘感——只有乘法和加法
“所谓人工智能,本质就是一大堆精心安排的乘法和加法。没有魔法,没有意识,只有数字。”
- 一个神经元 = 输入 × 权重 + 偏置 → 激活函数 → 输出
- 一层 = 几千个神经元并行计算
- 多层 = 上一层的输出是下一层的输入
- 所有的"智能"都藏在参数里——而参数,是从数据中"学"出来的
第5章:6000万个旋钮是怎么调好的
核心:训练 = 教材 + 老师 + 算盘
| 要素 | 类比 | 技术 |
|---|---|---|
| 教材 | 几百万道练习题 | 120万张标注图片 + 数据增强 |
| 老师 | 批改作业+改错 | 梯度下降 + 反向传播 |
| 算盘 | 算出天文数字的计算 | GPU 并行计算 |
关键概念:
- 梯度下降:蒙着眼睛下山,每一步往最陡的下坡走
- 反向传播:错误从输出端逐层往回传递
- 过拟合:AI 记住了答案,而不是学会了方法
- 规模定律:参数越多、数据越多、算力越大 → 效果越好,而且是可预测的幂律关系
第6章:改变一切的 8 个字
核心:Attention Is All You Need(你只需要注意力)
2017年Google的这篇论文,催生了今天所有的大模型:
RNN 的致命问题:
- 一个字一个字地读,读到后面忘了前面
- 必须串行计算,无法并行
Transformer 的革命: - 不要一个字一个字地读了。
- 让 AI 同时看到所有的字,然后自己决定哪些字和哪些字相关。
- GPT 进化史(同一个架构,只是不断放大):
- 2018 GPT-1:1.17亿参数
- 2019 GPT-2:15亿参数
- 2020 GPT-3:1750亿参数(放大1500倍)
- 2022 ChatGPT:GPT-3 + RLHF(给 AI 上一门"好好说话"的课)
第7章:为什么AI会一本正经地撒谎
核心:统计相关性 ≠ 因果理解 ≠ 事实核查
律师假判例事件的真相:
- ChatGPT 不是在"查找"判例
- 它是在"生成"看起来像判例的文字序列
- 它甚至不知道什么是"真"、什么是"假"
三个经典案例揭示 AI 的本质:
- 📄 假判例:AI 学的是"法律引文长什么样",不是法律本身
- 🏋️ 哑铃带手臂:AI 只知道"哑铃和手臂总是一起出现",不知道哑铃是单独的物体
- 🐼 熊猫变成长臂猿:一点人眼看不见的像素噪声,就能100%骗过AI
“AI 的每一个聪明表现和每一个犯傻表现,来自完全相同的机制——统计模式匹配。”
第8章:回答你的三秒钟里发生了什么
完整流程拆解:
- Token化:“什么是量子力学?” → 拆成 5 个编号
- 词向量:每个编号 → 768 维数字
- 注意力机制:每个词同时看全文,算出该关注谁
- 96层神经网络:每层都是乘法加法,层层提取特征
- 预测下一个词:给 50000 个词算概率,选一个
- 重复:把生成的词加回去,从头再算一遍,生成下一个词
一句话总结整个系列:
AI 是一个超级模式匹配器。凡是能转化为模式识别的问题,AI 都可能做得比人好。
凡是需要真正"理解"的问题,AI 目前还做不到。
🎯 给你的实用判断框架
读完这8章,你可以回答所有AI相关的争论了:
| 问题 | 答案 |
|---|---|
| AI会取代我的工作吗? | 模式匹配的部分会被加速,需要理解的部分不会 |
| AI写的东西能信吗? | AI不在乎真假。关键信息永远自己验证 |
| AI会有意识吗? | 1750亿个数字的乘法加法里,有意识吗? |
| AI会突然危险吗? | 更现实的风险是人类过度信任AI的输出 |
✨ 作者最后的洞察
了解AI的过程,其实是一个「祛魅」的过程。
每一次拆解,都是一层神秘感的消退。
但这不意味着AI不了不起——恰恰相反,用这么"简单"的原理做到这些事情,本身就是人类智慧的奇迹。
这个奇迹的名字不是"人工智能"——它的名字是统计学和工程学。
理解这一点,你就不会盲目崇拜AI,也不会盲目恐惧AI。
你会把它看成它本来的样子:
一个极其强大的工具,有着清晰的能力边界,等着被正确地使用。
更多原文地址
保持关注,记得把网址 (17you.com) 加收藏夹!有空经常来网站看看!我们每天都分享最新鲜、最实用的AI知识、最新动态、最新技术,以及最新的应用场景。