Trong học sâu, "batch normalization" được sử dụng để giải quyết vấn đề gì?
Trả lời:
Đáp án đúng: C
Batch normalization là một kỹ thuật được sử dụng trong các mạng nơ-ron sâu để ổn định quá trình huấn luyện và cho phép sử dụng tốc độ học lớn hơn. Nó giải quyết vấn đề gradient vanishing/exploding bằng cách chuẩn hóa các activations của các lớp trong mạng, đảm bảo rằng các activations này có trung bình gần bằng 0 và phương sai gần bằng 1. Điều này giúp giảm sự phụ thuộc của mạng vào việc khởi tạo các tham số và cho phép các gradient truyền qua mạng một cách hiệu quả hơn. Do đó, đáp án đúng là C. Gradient vanishing/exploding.
50 câu hỏi 60 phút