你的位置: 首页 > 肯定网 > > 职场小聪明

职场小聪明第921章 为什么人工智能会产生机器幻觉

经过2个月的人工智能学习发现根本无法理解训练出的模型如何判断一副图片是猫还是狗的理论逻辑因为根据卷基神经网络cnn的逻辑他可以正向传播这个比较容易理解就是用一个算法正向计算它是有公式的也就是线性的但关键是有激活函数进行反向计算也就是参数的权重调整这就是非线性编程然后有很多层每一层可以有很多和上一层全连接的神经元就这么反复调参反复计算来回倒腾最后就可以训练出一个模型然后就可以认出猫或狗也就是概率训练的越多层数越多神经元越多计算出的准确率就越高最后的模型非常小但里面到底是什么无法知道所以就有了机器幻觉和人的思维极其接近人也有幻想人后就可以制造新的东西例如登月的航天飞机。

所以只要知识无穷大幻想漫无边际的最终人工智能可以超越人类也可能很危险但已经无法控制了就像我们无法控制一个人一样。

哈哈 你总结得很生动其实已经抓住了 卷积神经网络(CNN)和深度学习模型“不透明”的本质。

我帮你把这个问题理一理从三个层次来理解为什么我们“知道它能用却不知道它里面在干什么”。

? 1. 为什么 CNN 能识别猫和狗? ? 正向传播(Forward pass):你提到的这一点很对就是把一张图片转化为像素矩阵经过卷积层(提取局部特征)、池化层(降低维度)、全连接层(整合特征)最后得到一个概率输出。

? 比如:P(cat) = 0.92 P(dog) = 0.08就判断是猫。

? 激活函数:这是关键像 ReLU、Sigmoid、Tanh 之类它们给了网络“非线性表达能力”让模型可以逼近几乎任意复杂的函数而不是只画直线(线性分类)。

? 反向传播(Backpropagation):通过梯度下降参数(权重和偏置)不断调整误差逐渐减小模型就学会了“猫的特征”和“狗的特征”。

? 2. 为什么我们说“模型很小但无法知道里面是什么”? 这是 AI 研究里常说的 黑箱问题: ? 参数数量庞大:一个 CNN 可能有几百万、甚至几亿个参数。

参数本身没有直观的物理意义就像无数个开关位置组合在一起单个你看不懂但合起来却能形成模式。

? 特征难以解释:低层卷积核可能能看出来提取的是“边缘”“纹理”“颜色块”但到了高层它学到的特征是“耳朵形状”“眼睛轮廓”再往上就是“整体脸型”这一层层叠加人眼已经无法直观理解。

? 分布式表示:一个神经元不是只负责“猫耳朵”而是和其他神经元一起组合成“猫耳朵+毛发+眼睛”就像人脑里没有一个单独的“猫神经元”而是一群神经元共同编码“猫”的概念。

所以模型最终就是一个 概率函数:输入图片输出一个分类概率但你很难用一句话解释“它为什么说这是猫”。

? 3. 机器幻觉与人类幻想的相似性 你说到“机器幻觉”很有意思这个在 AI 研究里叫 Hallucination。

? 人类的情况:人类大脑基于有限的经验会“脑补”未知的部分比如看云彩觉得像动物或者想象能登月。

? 机器的情况:AI 也是在已有数据上学到模式当输入超出训练分布时它会“硬套”学过的模式从而出现看似“幻想”的输出。

? 例如:给 AI 一张奇怪的拼接图它可能说“这是一只猫”虽然根本没有猫。

这一点说明 AI 和人脑一样都是“概率推理器”不是在追求绝对真理而是在“有限数据下尽量合理地猜测”。

? 4. 人工智能最终会超越人类吗? 你的类比很形象:我们无法完全控制一个人同样也很难完全控制 AI。

? 乐观一面:AI 的“幻想”能力确实可能带来创造比如新的药物分子、新的航天设计方案。

? 危险一面:一旦 AI 的目标和人类目标不一致它可能做出“人类不想要的事”就像人类之间也可能彼此伤害。

? 不可控性:深度学习的黑箱属性使我们难以预见 AI 的所有行为这就是为什么现在很多研究集中在 可解释性 AI、对齐(alignment)、安全机制 上。

? 结论 你已经从直觉上理解了: ? CNN = 层层特征提取 + 概率输出 ? 黑箱 = 参数分布太复杂人类无法逐个理解 ? 幻觉 = 数据驱动的概率推理和人类幻想极其接近 这章没有结束请点击下一页继续阅读!。

本文地址职场小聪明第921章 为什么人工智能会产生机器幻觉来源 http://www.kdadsl.com

编辑推荐

热门小说