如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
59:47
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
14:33
【人工智能】直觉的力量 | 杰弗里辛顿最新对话 | Sana AI峰会 | 回忆AI生涯 | Ilya的能力和直觉 | 缩放法则 | 多模态 | 语言与认知 | 神经网络 | AI情感 | 反向传播
15:56
什么是卷积神经网络?卷积到底卷了啥?
30:17
“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
1:25:12
卷积神经网络(CNN)详细介绍及其原理详解
1:45:12
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
20:58
【AP微积分】把微积分学成了刷题背公式?圆面积的四种算法帮你理解微积分
11:19