Trong học máy, để tìm ra giải pháp tối ưu cho một bài toán cụ thể, chúng ta thường sử dụng thuật toán nào sau đây?
Đáp án đúng: B
Trong học máy, Gradient Descent (B. Gradient Descent) là một thuật toán tối ưu hóa được sử dụng rộng rãi để tìm giá trị nhỏ nhất của một hàm số. Nó đặc biệt hữu ích trong việc tìm ra các tham số tối ưu cho mô hình học máy bằng cách lặp đi lặp lại điều chỉnh các tham số theo hướng ngược lại của gradient (độ dốc) của hàm mất mát (loss function). Hàm mất mát đo lường sự khác biệt giữa dự đoán của mô hình và giá trị thực tế, và mục tiêu là giảm thiểu hàm mất mát này. Các thuật toán khác như Random Forest, K-means Clustering, và Naive Bayes là các thuật toán học máy khác nhau, nhưng không phải là các thuật toán *tối ưu hóa* được sử dụng để tìm ra giải pháp tối ưu cho một bài toán nói chung.