Giới thiệu cơ chế Self-Attention, Kiến trúc Transformer và mô hình BERT

31:11
Giới thiệu Latex - Overleaf và notion.so

1:57:36
Workshop "Enhancing Document Retrieval: Fine-Tuning Text Embeddings for RAG" - Mì AI

58:04
Attention is all you need (Transformer) - Model explanation (including math), Inference and Training

1:12:09
Mì Transformer - tìm hiểu transformer theo cách dễ hiểu, dễ nhớ - Mì AI

1:30:37
Cơ bản khoa học phân tích dữ liệu EDA

44:40
Vì sao học Toán và Toán cho AI

31:54
ÔN TẬP KIẾN THỨC VỀ ATTENTION - NỀN TẢNG CỐT LÕI CÁC KIẾN TRÚC AI HIỆN NAY

54:52