Hadoop xử lý khối lượng lớn dữ liệu như thế nào?
A.
Hadoop sử dụng song song rất nhiều máy. Điều này tối ưu hóa việc xử lý dữ liệu
B.
Hadoop được thiết kế đặc biệt để xử lý lượng lớn dữ liệu bằng cách tận dụng phần cứng MPP
C.
Hadoop gửi mã đến dữ liệu thay vì gửi dữ liệu đến mã
D.
Hadoop sử dụng các kỹ thuật bộ nhớ đệm phức tạp trên NameNode để tăng tốc độ xử lý dữ liệu
Trả lời:
Đáp án đúng: C
Hadoop xử lý khối lượng lớn dữ liệu bằng cách:
- Sử dụng song song nhiều máy: Hadoop phân phối dữ liệu và công việc xử lý trên một cụm các máy tính, cho phép xử lý song song và tăng tốc độ xử lý tổng thể.
- Thiết kế cho lượng lớn dữ liệu: Hadoop được thiết kế để xử lý dữ liệu lớn (Big Data) bằng cách sử dụng phần cứng thông thường (commodity hardware) và kiến trúc MPP (Massively Parallel Processing).
- Gửi mã đến dữ liệu: Hadoop di chuyển mã chương trình đến gần nơi lưu trữ dữ liệu thay vì di chuyển dữ liệu đến nơi có mã. Điều này giảm thiểu việc truyền dữ liệu qua mạng, giúp tăng hiệu quả xử lý.
Do đó, các phương án A, B và C đều đúng.
Phương án D sai vì bộ nhớ đệm phức tạp trên NameNode không phải là yếu tố chính giúp Hadoop xử lý dữ liệu lớn, mà là khả năng phân tán và xử lý song song dữ liệu trên nhiều node.