Con quỷ (demon) nào chịu trách nhiệm sao chép dữ liệu trong Hadoop?
Trả lời:
Đáp án đúng: D
Trong Hadoop, DataNode chịu trách nhiệm lưu trữ các khối dữ liệu (data blocks) trên các nút (nodes) riêng lẻ trong cụm (cluster). Để đảm bảo tính sẵn sàng và chịu lỗi của dữ liệu, Hadoop sao chép mỗi khối dữ liệu thành nhiều bản sao (replicas) và lưu trữ chúng trên các DataNode khác nhau. Quá trình sao chép này do chính các DataNode thực hiện theo hướng dẫn từ NameNode.
Các lựa chọn khác không đúng vì:
- HDFS: Là hệ thống tệp phân tán, không phải là một daemon.
- Task Tracker: Theo dõi việc thực thi các tác vụ MapReduce trên các nút dữ liệu.
- Job Tracker: Điều phối các công việc MapReduce trên toàn bộ cụm.
- NameNode: Quản lý metadata của hệ thống tệp HDFS, không trực tiếp sao chép dữ liệu.