Toán học Phía sau Machine Learning: Từ Lý thuyết đến Thực hành
Khám phá các công thức toán học quan trọng trong Machine Learning, từ Gradient Descent đến Neural Networks.
Đăng: 8 tháng 11, 2024
Machine LearningToán họcAI
Toán học trong Machine Learning
Hàm Mất mát (Loss Function)
Hàm mất mát là hàm lượng hóa sự khác biệt giữa dự đoán và giá trị thực tế.
Mean Squared Error (MSE)
$$MSE = \frac{1}{n}\sum_{i=1}^{n}(y_i - \hat{y}_i)^2$$
Gradient Descent
Một trong những thuật toán tối ưu hóa quan trọng nhất:
$$\theta_{new} = \theta_{old} - \alpha \nabla J(\theta)$$
Trong đó:
- α là learning rate
- ∇J(θ) là gradient của hàm mất mát
Softmax Function
Chuyển đổi logits thành xác suất:
$$\text{softmax}(z_i) = \frac{e^{z_i}}{\sum_{j=1}^{K} e^{z_j}}$$
Cross-Entropy Loss
$$L = -\sum_{i=1}^{n} y_i \log(\hat{y}_i)$$
được sử dụng cho các bài toán phân loại đa lớp.