Trong học máy, thuật ngữ "gradient descent" ám chỉ điều gì?
A.
Một thuật toán tối ưu hóa được sử dụng để cập nhật các tham số của mô hình để giảm thiểu hàm mất mát.
B.
Quá trình tăng độ phức tạp của mô hình để tăng hiệu suất.
C.
Quá trình chuyển đổi dữ liệu đầu vào thành dạng phù hợp cho mạng neural.
D.
Quá trình chia tách dữ liệu thành các phần nhỏ để đánh giá mô hình.
Trả lời:
Đáp án đúng: A
Gradient descent là một thuật toán tối ưu hóa được sử dụng rộng rãi trong học máy để tìm giá trị nhỏ nhất của một hàm số, thường là hàm mất mát (loss function). Hàm mất mát đo lường sự khác biệt giữa dự đoán của mô hình và giá trị thực tế. Gradient descent hoạt động bằng cách tính toán gradient (đạo hàm) của hàm mất mát theo các tham số của mô hình. Gradient chỉ ra hướng mà hàm mất mát tăng nhanh nhất. Thuật toán sau đó cập nhật các tham số theo hướng ngược lại với gradient (tức là hướng xuống dốc) để giảm thiểu hàm mất mát. Quá trình này lặp đi lặp lại cho đến khi hàm mất mát đạt đến một giá trị đủ nhỏ hoặc đạt đến một số lần lặp tối đa. Do đó, đáp án A là đáp án chính xác. Các đáp án còn lại mô tả các khái niệm khác không liên quan trực tiếp đến định nghĩa của gradient descent.
50 câu hỏi 60 phút