JavaScript is required

Trong học máy, "bias-variance tradeoff" ám chỉ điều gì?

A.

Sự đánh đổi giữa độ phức tạp của mô hình và khả năng tổng quát hóa

B.

Sự đánh đổi giữa độ chính xác và tốc độ của mô hình

C.

Sự đánh đổi giữa việc học từ dữ liệu được gán nhãn và không được gán nhãn

D.

Sự đánh đổi giữa việc sử dụng các thuật toán khác nhau

Trả lời:

Đáp án đúng: A


"Bias-variance tradeoff" trong học máy đề cập đến việc cân bằng giữa hai nguồn lỗi chính ảnh hưởng đến khả năng tổng quát hóa của một mô hình. Bias (độ chệch) thể hiện mức độ mà mô hình bỏ qua các mối quan hệ thực sự giữa các đặc trưng và biến mục tiêu (underfitting). Variance (phương sai) thể hiện mức độ nhạy cảm của mô hình đối với những thay đổi nhỏ trong tập dữ liệu huấn luyện (overfitting). * **Phương án A đúng:** Sự đánh đổi giữa độ phức tạp của mô hình và khả năng tổng quát hóa. Mô hình quá đơn giản (high bias) sẽ không nắm bắt được các mối quan hệ phức tạp trong dữ liệu, dẫn đến sai số lớn trên cả tập huấn luyện và tập kiểm tra. Mô hình quá phức tạp (high variance) sẽ khớp quá chặt với dữ liệu huấn luyện, bao gồm cả nhiễu, và hoạt động kém trên dữ liệu mới. Việc tìm ra sự cân bằng phù hợp giữa độ phức tạp và khả năng tổng quát hóa là mục tiêu của "bias-variance tradeoff". * **Phương án B sai:** Độ chính xác và tốc độ là các khía cạnh quan trọng của mô hình, nhưng không phải là trọng tâm chính của "bias-variance tradeoff". * **Phương án C sai:** Việc học từ dữ liệu được gán nhãn và không được gán nhãn liên quan đến học bán giám sát và học không giám sát, không trực tiếp liên quan đến "bias-variance tradeoff". * **Phương án D sai:** Việc sử dụng các thuật toán khác nhau có thể ảnh hưởng đến bias và variance, nhưng "bias-variance tradeoff" là một khái niệm chung áp dụng cho tất cả các mô hình học máy, không chỉ là sự lựa chọn thuật toán.

Câu hỏi liên quan