JavaScript is required

Hàm kích hoạt nào được sử dụng cho lớp đầu ra của model?

A.

ReLU

B.

Sigmoid

C.

Tanh

D.

Không có trong các phương án trên

Trả lời:

Đáp án đúng: B


Hàm kích hoạt cho lớp đầu ra của model phụ thuộc vào bài toán cụ thể:

  • Sigmoid: Thường dùng cho bài toán phân loại nhị phân (binary classification), vì nó cho ra giá trị trong khoảng (0, 1), có thể hiểu là xác suất thuộc về một lớp nào đó.
  • Softmax: Dùng cho bài toán phân loại đa lớp (multi-class classification). Nó chuyển đổi một vector các số thực thành một phân phối xác suất, với tổng các xác suất bằng 1.
  • Linear/Identity: Dùng cho bài toán hồi quy (regression), khi cần giá trị đầu ra là một số thực bất kỳ.
  • ReLU, Tanh: Thường dùng cho các lớp ẩn (hidden layers) để giải quyết vấn đề vanishing gradient.

Do câu hỏi không chỉ rõ loại bài toán, nhưng phương án B (Sigmoid) là phù hợp nhất trong các lựa chọn được đưa ra, đặc biệt khi ta giả định đây là bài toán phân loại nhị phân.

Câu hỏi liên quan