JavaScript is required

Thuật ngữ "gradient descent" làm gì trong học máy?

A.

Cải thiện độ chính xác của mô hình

B.

Tối ưu hóa các tham số của mô hình dựa trên đạo hàm của hàm mất mát

C.

Giảm thiểu overfitting trong mô hình

D.

Phân tích đặc trưng của dữ liệu

Trả lời:

Đáp án đúng: B


Gradient descent là một thuật toán tối ưu hóa được sử dụng rộng rãi trong học máy để tìm giá trị nhỏ nhất của một hàm số, thường là hàm mất mát (loss function). Hàm mất mát đo lường sự khác biệt giữa dự đoán của mô hình và giá trị thực tế. Gradient descent hoạt động bằng cách tính đạo hàm (gradient) của hàm mất mát theo các tham số của mô hình. Gradient chỉ ra hướng mà hàm mất mát tăng nhanh nhất. Do đó, bằng cách di chuyển các tham số theo hướng ngược lại với gradient (tức là hướng "xuống dốc" của hàm mất mát), thuật toán có thể tìm thấy các tham số làm giảm thiểu hàm mất mát, từ đó cải thiện hiệu suất của mô hình. Do đó, đáp án B là chính xác nhất.

Câu hỏi liên quan