JavaScript is required

Trong học máy, "feature scaling" thường được sử dụng để làm gì?

A.

Tạo ra các đặc trưng mới từ dữ liệu ban đầu

B.

Chọn lọc các đặc trưng quan trọng từ dữ liệu ban đầu

C.

Chuẩn hóa dữ liệu đầu vào để đảm bảo mô hình hoạt động hiệu quả

D.

Đánh giá hiệu suất của mô hình trên tập dữ liệu kiểm tra

Trả lời:

Đáp án đúng: C


Feature scaling là quá trình chuẩn hóa hoặc co giãn các đặc trưng (features) của dữ liệu để chúng có cùng một khoảng giá trị. Điều này rất quan trọng vì nhiều thuật toán học máy nhạy cảm với khoảng giá trị của các đặc trưng. Nếu các đặc trưng có khoảng giá trị khác nhau đáng kể, các đặc trưng có giá trị lớn hơn có thể chi phối các đặc trưng có giá trị nhỏ hơn, dẫn đến mô hình kém hiệu quả. Do đó, feature scaling giúp đảm bảo rằng tất cả các đặc trưng đóng góp như nhau vào quá trình học của mô hình, từ đó cải thiện hiệu suất và độ ổn định của mô hình. Phương án A không đúng vì tạo đặc trưng mới là feature engineering, không phải feature scaling. Phương án B không đúng vì chọn lọc đặc trưng là feature selection, không phải feature scaling. Phương án D không đúng vì đánh giá hiệu suất mô hình là một bước khác trong quy trình học máy, không liên quan trực tiếp đến feature scaling.

Câu hỏi liên quan