从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
25:50
“神经网络”是什么?如何直观理解它的能力极限?它是如何无限逼近真理的?
28:18
【機器學習2021】自注意力機制 (Self-attention) (上)
30:17
“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
1:39:21
专访许成钢:极权体制下的经济奇迹与困局|局面访谈20241221
27:14
Transformers (how LLMs work) explained visually | DL5
1:27:05
Transformer论文逐段精读
27:32
大模型解决不了英伟达的难题,AI新范式必将出现:专访安克创新CEO阳萌
24:07