Trong mạng nơ-ron, hàm softmax thường được sử dụng ở tầng nào?
Đáp án đúng: C
Câu hỏi liên quan
A. Tăng số lượng epoch: Việc huấn luyện mô hình lâu hơn (tăng số lượng epoch) có thể giúp mô hình học được các đặc trưng phức tạp hơn trong dữ liệu, từ đó giảm underfitting.
B. Sử dụng learning rate lớn: Learning rate lớn có thể khiến mô hình hội tụ nhanh hơn, nhưng cũng có thể khiến mô hình bỏ qua các cực tiểu tốt và dẫn đến kết quả không tối ưu, không trực tiếp giải quyết underfitting.
C. Thêm dữ liệu huấn luyện: Thêm dữ liệu huấn luyện giúp mô hình tiếp xúc với nhiều mẫu hơn, từ đó học được các mối quan hệ tổng quát hơn và giảm underfitting.
D. Giảm số lượng epoch: Giảm số lượng epoch sẽ làm cho mô hình học ít hơn và càng làm tăng thêm hiện tượng underfitting.
Câu hỏi này kiểm tra kiến thức về các phép đo hiệu suất trong học máy, đặc biệt là cho bài toán phân loại.
- Accuracy (Độ chính xác): Tỷ lệ giữa số lượng dự đoán đúng và tổng số lượng dự đoán.
- Precision (Độ chuẩn xác): Tỷ lệ giữa số lượng dự đoán đúng là positive và tổng số lượng dự đoán là positive.
- Recall (Độ phủ): Tỷ lệ giữa số lượng dự đoán đúng là positive và tổng số lượng thực tế là positive.
- F1-score: Trung bình điều hòa của Precision và Recall, thường được sử dụng khi cần cân bằng giữa Precision và Recall.
- ROC-AUC (Area Under the Receiver Operating Characteristic curve): Diện tích dưới đường cong ROC, đo khả năng phân biệt giữa các lớp của mô hình.
- Mean Squared Error (MSE) và Root Mean Squared Error (RMSE): Các phép đo lỗi thường được sử dụng trong các bài toán hồi quy, đo lường sự khác biệt giữa giá trị dự đoán và giá trị thực tế.
- Mean Absolute Error (MAE): Giá trị trung bình của sai số tuyệt đối giữa giá trị dự đoán và giá trị thực tế, thường dùng trong hồi quy.
- R-squared: Đo lường mức độ phù hợp của mô hình hồi quy với dữ liệu.
Do đó, các phép đo thường được sử dụng để đánh giá hiệu suất của mô hình phân loại là Accuracy, Precision, Recall, F1-score và ROC-AUC. Đáp án A và D bao gồm các phép đo phù hợp nhất.
Tuy nhiên, đáp án A (Accuracy, Precision, Recall) là đáp án phổ biến và cơ bản nhất khi nói về đánh giá mô hình phân loại. Trong khi đó, ROC-AUC và F1-score (đáp án D) thường được sử dụng trong các trường hợp cụ thể hơn, ví dụ như khi dữ liệu bị lệch (imbalanced dataset).
Vậy nên đáp án A là phù hợp nhất.
Câu hỏi này kiểm tra kiến thức về các thư viện Python phổ biến trong lĩnh vực khoa học dữ liệu và tính toán số. Trong đó:
TensorFlow: Là một thư viện mạnh mẽ chủ yếu được sử dụng cho các mô hình học sâu (Deep Learning) và mạng nơ-ron.
Scikit-learn: Cung cấp các công cụ và thuật toán cho khai phá dữ liệu, phân tích dữ liệu, học máy (Machine Learning), nhưng không phải là lựa chọn hàng đầu cho tính toán số cơ bản.
Pandas: Mặc dù rất hữu ích cho việc phân tích và thao tác dữ liệu, Pandas được xây dựng trên NumPy.
Matplotlib: Thư viện vẽ đồ thị.
NumPy (mặc dù không được liệt kê trực tiếp trong các lựa chọn) là một thư viện cơ bản cho các tính toán số trong Python. NumPy cung cấp các đối tượng mảng đa chiều hiệu quả và các công cụ để làm việc với các mảng này. NumPy thường là nền tảng cho các thư viện khoa học khác như Pandas. Vì numpy không có trong đáp án nên ta chọn đáp án gần nhất là pandas.
Do đó, đáp án phù hợp nhất trong các lựa chọn đã cho là C. Pandas
Trong học máy, Gradient Descent (B. Gradient Descent) là một thuật toán tối ưu hóa được sử dụng rộng rãi để tìm giá trị nhỏ nhất của một hàm số. Nó đặc biệt hữu ích trong việc tìm ra các tham số tối ưu cho mô hình học máy bằng cách lặp đi lặp lại điều chỉnh các tham số theo hướng ngược lại của gradient (độ dốc) của hàm mất mát (loss function). Hàm mất mát đo lường sự khác biệt giữa dự đoán của mô hình và giá trị thực tế, và mục tiêu là giảm thiểu hàm mất mát này. Các thuật toán khác như Random Forest, K-means Clustering, và Naive Bayes là các thuật toán học máy khác nhau, nhưng không phải là các thuật toán *tối ưu hóa* được sử dụng để tìm ra giải pháp tối ưu cho một bài toán nói chung.
Trong thuật toán K-means Clustering, một trong những tham số quan trọng nhất cần được xác định trước là số lượng cụm (K). Thuật toán sẽ cố gắng phân chia dữ liệu thành K cụm sao cho các điểm dữ liệu trong cùng một cụm có khoảng cách gần nhau nhất và khác biệt so với các điểm dữ liệu trong các cụm khác. Do đó, việc xác định trước số lượng cụm là một yêu cầu bắt buộc khi sử dụng K-means.

Bộ Đồ Án Tốt Nghiệp Ngành Trí Tuệ Nhân Tạo Và Học Máy

Bộ 120+ Đồ Án Tốt Nghiệp Ngành Hệ Thống Thông Tin

Bộ Đồ Án Tốt Nghiệp Ngành Mạng Máy Tính Và Truyền Thông

Bộ Luận Văn Tốt Nghiệp Ngành Kiểm Toán

Bộ 370+ Luận Văn Tốt Nghiệp Ngành Kế Toán Doanh Nghiệp

Bộ Luận Văn Tốt Nghiệp Ngành Quản Trị Thương Hiệu
ĐĂNG KÝ GÓI THI VIP
- Truy cập hơn 100K đề thi thử và chính thức các năm
- 2M câu hỏi theo các mức độ: Nhận biết – Thông hiểu – Vận dụng
- Học nhanh với 10K Flashcard Tiếng Anh theo bộ sách và chủ đề
- Đầy đủ: Mầm non – Phổ thông (K12) – Đại học – Người đi làm
- Tải toàn bộ tài liệu trên TaiLieu.VN
- Loại bỏ quảng cáo để tăng khả năng tập trung ôn luyện
- Tặng 15 ngày khi đăng ký gói 3 tháng, 30 ngày với gói 6 tháng và 60 ngày với gói 12 tháng.