Trong học máy, "batch normalization" là gì?
Trả lời:
Đáp án đúng: C
Batch normalization là một kỹ thuật được sử dụng để chuẩn hóa đầu ra của một lớp trước đó trong mạng neural network. Điều này giúp cải thiện tốc độ học và độ ổn định của mô hình. Các lựa chọn khác không mô tả đúng chức năng của batch normalization.
- A. Giảm kích thước dữ liệu không phải là mục tiêu của batch normalization.
- B. Tạo ra các mẫu dữ liệu mới không phải là chức năng của batch normalization.
- D. Chuyển đổi dữ liệu đầu vào thành dạng phù hợp cũng không phải là batch normalization.
50 câu hỏi 60 phút