JavaScript is required

"Stochastic gradient descent" là gì trong học máy?

A.

Một phương pháp tối ưu hóa gradient descent

B.

Một phương pháp tối ưu hóa huấn luyện mô hình dựa trên mẫu ngẫu nhiên

C.

Một phương pháp tối ưu hóa dựa trên hàm mất mát

D.

Một phương pháp tối ưu hóa dựa trên quá trình lan truyền ngược

Trả lời:

Đáp án đúng: B


Stochastic Gradient Descent (SGD) là một phương pháp tối ưu hóa lặp đi lặp lại được sử dụng để tìm giá trị nhỏ nhất của một hàm. Trong học máy, nó thường được sử dụng để huấn luyện các mô hình, đặc biệt là các mô hình sử dụng gradient descent. Thay vì tính toán gradient trên toàn bộ tập dữ liệu (Batch Gradient Descent), SGD tính toán gradient trên một mẫu ngẫu nhiên duy nhất (hoặc một minibatch nhỏ) tại mỗi bước. Điều này làm cho quá trình huấn luyện nhanh hơn nhiều, đặc biệt là đối với các tập dữ liệu lớn, mặc dù có thể dao động nhiều hơn so với Batch Gradient Descent. Vì vậy, đáp án chính xác nhất là 'Một phương pháp tối ưu hóa huấn luyện mô hình dựa trên mẫu ngẫu nhiên'.

Câu hỏi liên quan