AI是什么?一篇文带你彻底搞懂人工智能的核心原理

《什么是 AI?》AI 入门探索笔记

这个系列不是教程。我不是老师,我只是比你早走了几步的探索者。更准确地说,这是一本探索笔记——“我在研究 AI 的过程中,发现了这些有趣的东西,想分享给你。”

写作原则

每一个概念,都要拆到你能在纸上算出来为止。不跳步骤,不留黑箱。

开篇引言

你让 ChatGPT 帮你写一封邮件。
几秒钟后,它给了你一段文字——语气得体,结构清晰,甚至比你自己写的还好一点。
你看着屏幕,突然有一个念头冒出来:这东西到底是怎么做到的?
作者也想知道。
这个问题驱动他花了很长时间去研究。拆到后来,发现了一件让人意外的事情:
AI 的核心原理,比我以为的简单得多。
如果非要用一句话概括,作者会说:AI 是统计学的胜利。

阅读目标

读完这个系列,你不会变成 AI 专家。
但下次再看到关于 AI 的新闻——不管是"突破"还是"威胁"——你能有自己的判断,而不只是跟着标题走。

系列目录

第一章:拆开黑箱(第 1-8 篇)

主题: AI 到底是什么?它是怎么"看"、怎么"学"、怎么"想"的?

第二章:AI 能做什么,不能做什么(第 9-12 篇)

主题: AI 在各个领域的真实能力边界在哪里?

第三章:和 AI 一起工作(第 13-16 篇)

主题: 理解了 AI 的原理和边界,普通人该怎么用好它?

《AI是怎么回事》第1-8章 完整总结

作者:我没有三颗心脏

第1章:人脸识别的奥秘

核心:AI看到的不是图片,是数字

  • 一张照片 = 几百万个 0-255 的像素值
  • 边缘检测只用加减乘除就能完成(Sobel算子)
  • AI卡住几十年的原因:人类写不完所有规则
  • 真正突破:不要人类设计检测器,让电脑自己学

第2章:文字如何变成数字

核心:语义可以被测量

  • Token化:文字拆成最小单位(不是词,可能是偏旁)
  • 词向量:每个词变成 768 维的一串数字
  • 震惊整个领域的发现:国王 - 男人 + 女人 ≈ 王后
  • 虚无缥缈的"语义",变成了高维空间中可测量的距离

第3章:2012年的转折点

核心:三个齿轮同时咬合
AlexNet把图像识别错误率从 26% 一口气降到 15.3%,这不是一个算法的胜利,而是三件事同时到位:

  1. ✅ 算法:卷积神经网络
  2. ✅ 数据:ImageNet 120万张标注图片
  3. ✅ 算力:GPU 并行计算
    缺任何一个,AI革命都不会发生。

第4章:神经网络到底是什么

核心:祛除神秘感——只有乘法和加法
“所谓人工智能,本质就是一大堆精心安排的乘法和加法。没有魔法,没有意识,只有数字。”

  • 一个神经元 = 输入 × 权重 + 偏置 → 激活函数 → 输出
  • 一层 = 几千个神经元并行计算
  • 多层 = 上一层的输出是下一层的输入
  • 所有的"智能"都藏在参数里——而参数,是从数据中"学"出来的

第5章:6000万个旋钮是怎么调好的

核心:训练 = 教材 + 老师 + 算盘

要素类比技术
教材几百万道练习题120万张标注图片 + 数据增强
老师批改作业+改错梯度下降 + 反向传播
算盘算出天文数字的计算GPU 并行计算

关键概念:

  • 梯度下降:蒙着眼睛下山,每一步往最陡的下坡走
  • 反向传播:错误从输出端逐层往回传递
  • 过拟合:AI 记住了答案,而不是学会了方法
  • 规模定律:参数越多、数据越多、算力越大 → 效果越好,而且是可预测的幂律关系

第6章:改变一切的 8 个字

核心:Attention Is All You Need(你只需要注意力)
2017年Google的这篇论文,催生了今天所有的大模型:
RNN 的致命问题:

  • 一个字一个字地读,读到后面忘了前面
  • 必须串行计算,无法并行
    Transformer 的革命:
  • 不要一个字一个字地读了。
  • 让 AI 同时看到所有的字,然后自己决定哪些字和哪些字相关。
  • GPT 进化史(同一个架构,只是不断放大):
  • 2018 GPT-1:1.17亿参数
  • 2019 GPT-2:15亿参数
  • 2020 GPT-3:1750亿参数(放大1500倍)
  • 2022 ChatGPT:GPT-3 + RLHF(给 AI 上一门"好好说话"的课)

第7章:为什么AI会一本正经地撒谎

核心:统计相关性 ≠ 因果理解 ≠ 事实核查
律师假判例事件的真相:

  • ChatGPT 不是在"查找"判例
  • 它是在"生成"看起来像判例的文字序列
  • 它甚至不知道什么是"真"、什么是"假"
    三个经典案例揭示 AI 的本质:
  1. 📄 假判例:AI 学的是"法律引文长什么样",不是法律本身
  2. 🏋️ 哑铃带手臂:AI 只知道"哑铃和手臂总是一起出现",不知道哑铃是单独的物体
  3. 🐼 熊猫变成长臂猿:一点人眼看不见的像素噪声,就能100%骗过AI
    “AI 的每一个聪明表现和每一个犯傻表现,来自完全相同的机制——统计模式匹配。”

第8章:回答你的三秒钟里发生了什么

完整流程拆解:

  1. Token化:“什么是量子力学?” → 拆成 5 个编号
  2. 词向量:每个编号 → 768 维数字
  3. 注意力机制:每个词同时看全文,算出该关注谁
  4. 96层神经网络:每层都是乘法加法,层层提取特征
  5. 预测下一个词:给 50000 个词算概率,选一个
  6. 重复:把生成的词加回去,从头再算一遍,生成下一个词

一句话总结整个系列:

AI 是一个超级模式匹配器。凡是能转化为模式识别的问题,AI 都可能做得比人好。
凡是需要真正"理解"的问题,AI 目前还做不到。
🎯 给你的实用判断框架
读完这8章,你可以回答所有AI相关的争论了:

问题答案
AI会取代我的工作吗?模式匹配的部分会被加速,需要理解的部分不会
AI写的东西能信吗?AI不在乎真假。关键信息永远自己验证
AI会有意识吗?1750亿个数字的乘法加法里,有意识吗?
AI会突然危险吗?更现实的风险是人类过度信任AI的输出

✨ 作者最后的洞察

了解AI的过程,其实是一个「祛魅」的过程。
每一次拆解,都是一层神秘感的消退。
但这不意味着AI不了不起——恰恰相反,用这么"简单"的原理做到这些事情,本身就是人类智慧的奇迹。
这个奇迹的名字不是"人工智能"——它的名字是统计学和工程学。
理解这一点,你就不会盲目崇拜AI,也不会盲目恐惧AI。
你会把它看成它本来的样子:
一个极其强大的工具,有着清晰的能力边界,等着被正确地使用。

更多原文地址

https://wmyskxz.cn/wiki/whats_ai/

原文链接: https://www.17you.com/ai/ai-basics-beginners-neural-networks/ 已复制!
一起薅AI羊毛

保持关注,记得把网址 (17you.com) 加收藏夹!有空经常来网站看看!我们每天都分享最新鲜、最实用的AI知识、最新动态、最新技术,以及最新的应用场景。

请点击联系我


相关内容