暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

通俗易懂篇 | 如何理解大模型中的的前向计算和反向传播概念

228

问了deepseek一个问题:大模型中的的前向计算和反向传播概念

结合自身理解,对回答了的文字做了些许调整,正文如下:


1. 前向计算 → 做数学题的过程

想象你在做一道应用题:

题目(输入数据)→ 解题步骤(神经网络各层的计算)→ 答案(输出结果)

具体比喻
你妈妈让你算「买3斤苹果(每斤5元)和2斤香蕉(每斤4元),总共多少钱?」
你的大脑会这样算:

先算苹果总价:3×5=15元(第一层计算

再算香蕉总价:2×4=8元(第二层计算

最后加总:15+8=23元(输出层计算

这就是前向计算:数据从输入层开始,像流水线一样逐层加工,直到得到最终结果。

2. 反向传播 → 批改作业的过程

假设你第一次算错了(比如算出25元),妈妈会告诉你正确答案是23元。这时候你会:

对比错误25-23=2元(计算误差)

倒着检查:哪一步算错了?(是苹果价格算错?还是香蕉数量记错?)

修正方法:发现是香蕉价格记成5元了,下次改成4元(调整参数)

这就是反向传播

从最终误差出发,倒着追溯每一层该负多少责任

根据责任大小,微调每一层的计算规则(比如调整价格或数量的权重)

3. 合起来看 → 像学骑自行车

前向计算:你蹬脚踏板向前骑(尝试行动)

反向传播:快摔倒时身体自动调整姿势(根据错误反馈修正)

反复练习:前向+反向循环多次,最终学会骑车(模型训练完成)

关键理解:前向计算是模型“思考”反向传播是模型“学习”,两者配合让AI越来越聪明。

文章至此。


文章转载自戏说数据那点事,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论