Trong số các thuật toán ML, XGBoost rất được quan tâm gần đây vì những ưu điểm vượt trội của nó so với các thuật toán khác. Hầu hết những người chiến thắng trong các cuộc thi trên Kaggke đều sử dụng XGBoost trong các giải pháp của họ. Vì vậy, mình quyết định sẽ viết một chuỗi các bài về chủ để này để chia sẻ kiến thức cùng mọi người.
Nội dung các bài viết sẽ chủ yếu tập trung vào code thực hành, sẽ có (ít) lý thuyết toán để các bạn đỡ bị đau đầu
. 😀
Danh sách các bài viết:
- Bài 1: Toàn cảnh về Ensemble models - Phần 1
- Bài 2: Toàn cảnh về Ensemble models - Phần 2
- Bài 3: Xây dựng model XGBoost đầu tiên
- Bài 4: Chuẩn bị dữ liệu cho XGBoost model
- Bài 5: Các phương pháp đánh giá độ chính xác của XGBoost model)
- Bài 6: Trực quan hóa XGBoost model
- Bài 7: Lưu và sử dụng XGBoost model
- Bài 8: Lựa chọn Features cho XGBoost model
- Bài 9: Cấu hình Early_Stopping cho XGBoost model
- Bài 10: Cấu hình Multi-Threading cho XGBoost model
- Bài 11: Train XGBoost model trên AWS
- Bài 12: Tuning số lượng và kích thước của Decision Tree
- Bài 13: Tuning Learning_Rate và số lượng của Decision Tree
- Bài 14: Tuning Subsample
Mời các bạn đón đọc!
Leave a Reply