JavaScript is required

Trong học máy, phương pháp nào được sử dụng để giảm số chiều của dữ liệu mà vẫn giữ được các đặc trưng quan trọng?

A.

Principal Component Analysis (PCA)

B.

Linear Discriminant Analysis (LDA)

C.

Support Vector Machine (SVM)

D.

Naive Bayes Classifier

Trả lời:

Đáp án đúng: A


Câu hỏi này liên quan đến các phương pháp giảm chiều dữ liệu trong học máy. Ta xét từng đáp án:

  • A. Principal Component Analysis (PCA): PCA là một kỹ thuật giảm chiều dữ liệu bằng cách tìm các thành phần chính (principal components) của dữ liệu. Các thành phần này là các hướng mà dữ liệu biến đổi nhiều nhất. PCA giữ lại một số lượng thành phần chính nhất định, do đó giảm số chiều của dữ liệu trong khi vẫn giữ lại phần lớn thông tin quan trọng. Đây là đáp án đúng.
  • B. Linear Discriminant Analysis (LDA): LDA cũng là một phương pháp giảm chiều dữ liệu, nhưng nó chủ yếu được sử dụng cho các bài toán phân loại. LDA tìm các hướng mà các lớp dữ liệu được phân tách tốt nhất. LDA có thể giảm chiều dữ liệu, nhưng mục tiêu chính của nó là tối ưu hóa khả năng phân loại chứ không phải là giữ lại các đặc trưng quan trọng một cách tổng quát như PCA.
  • C. Support Vector Machine (SVM): SVM là một thuật toán học có giám sát được sử dụng cho các bài toán phân loại và hồi quy. SVM không phải là một phương pháp giảm chiều dữ liệu.
  • D. Naive Bayes Classifier: Naive Bayes là một thuật toán phân loại dựa trên định lý Bayes với giả định về tính độc lập giữa các đặc trưng. Tương tự như SVM, Naive Bayes không phải là một phương pháp giảm chiều dữ liệu.

Vậy, đáp án đúng là PCA vì nó trực tiếp được sử dụng để giảm số chiều của dữ liệu trong khi vẫn giữ lại các đặc trưng quan trọng nhất.

Câu hỏi liên quan