Trong học máy, "gradient boosting" là gì?
Trả lời:
Đáp án đúng: B
Gradient boosting là một phương pháp học có giám sát (supervised learning) thuộc nhóm các thuật toán boosting. Ý tưởng chính là kết hợp nhiều mô hình yếu (weak learners), thường là các cây quyết định đơn giản, để tạo thành một mô hình mạnh (strong learner). Các mô hình yếu được xây dựng tuần tự, mỗi mô hình cố gắng sửa chữa các lỗi mà mô hình trước đó mắc phải. Quá trình này tập trung vào việc tối ưu hóa hàm mất mát (loss function) bằng cách sử dụng gradient descent. Do đó, đáp án B là chính xác nhất vì nó mô tả đúng bản chất của gradient boosting là một phương pháp học có giám sát kết hợp nhiều mô hình yếu để tạo ra một mô hình mạnh.
Các đáp án khác không chính xác vì:
- A: Gradient descent là một phần của gradient boosting, nhưng không phải là định nghĩa đầy đủ của nó.
- C: Gradient boosting có sử dụng hàm mất mát để tối ưu, nhưng không phải là định nghĩa đầy đủ của nó.
- D: Gradient boosting không trực tiếp tạo ra các đặc trưng mới từ dữ liệu ban đầu.
50 câu hỏi 60 phút