Trong học máy, thuật ngữ "ReLU" là gì?
A.
Một thuật toán tối ưu hóa được sử dụng để cập nhật các tham số của mô hình để giảm thiểu hàm mất mát.
B.
Một phương pháp biểu diễn từng từ trong văn bản thành một vector số.
C.
Một hàm kích hoạt phổ biến trong mạng neural network, được định nghĩa bởi f(x) = max(0, x).
D.
Một phương pháp để chuyển đổi dữ liệu đầu vào thành dạng phù hợp cho mạng neural.
Trả lời:
Đáp án đúng: C
ReLU (Rectified Linear Unit) là một hàm kích hoạt rất phổ biến trong các mạng neural. Hàm này trả về 0 nếu đầu vào nhỏ hơn 0, và trả về chính giá trị đầu vào nếu nó lớn hơn hoặc bằng 0. Công thức toán học của ReLU là f(x) = max(0, x). Các lựa chọn khác không mô tả chính xác định nghĩa và vai trò của ReLU trong học máy.
50 câu hỏi 60 phút