JavaScript is required

Trong học máy, "batch normalization" là gì?

A.

Một kỹ thuật sử dụng để giảm kích thước của dữ liệu đầu vào.

B.

Một phương pháp tạo ra các mẫu dữ liệu mới từ dữ liệu ban đầu.

C.

Một kỹ thuật chuẩn hóa dữ liệu đầu ra từ các lớp trước trong mạng neural network.

D.

Một phương pháp để chuyển đổi dữ liệu đầu vào thành dạng phù hợp cho mạng neural.

Trả lời:

Đáp án đúng: C


Batch normalization là một kỹ thuật được sử dụng để chuẩn hóa đầu ra của một lớp trước đó trong mạng neural network. Điều này giúp cải thiện tốc độ học và độ ổn định của mô hình. Các lựa chọn khác không mô tả đúng chức năng của batch normalization. - A. Giảm kích thước dữ liệu không phải là mục tiêu của batch normalization. - B. Tạo ra các mẫu dữ liệu mới không phải là chức năng của batch normalization. - D. Chuyển đổi dữ liệu đầu vào thành dạng phù hợp cũng không phải là batch normalization.

Câu hỏi liên quan