JavaScript is required

Khái niệm sử dụng nhiều máy để xử lý dữ liệu được lưu trữ trong hệ thống phân tán không phải là mới. Máy tính hiệu suất cao (HPC) sử dụng nhiều máy tính để xử lý khối lượng lớn dữ liệu được lưu trữ trong mạng vùng lưu trữ (SAN). So với HPC, Hadoop:

A.

A. Có thể xử lý khối lượng dữ liệu lớn hơn.

B.

B. Có thể chạy trên một số lượng máy lớn hơn HPC cluster.

C.

C. Có thể xử lý dữ liệu nhanh hơn với cùng băng thông mạng so với HPC.

D.

D. Không thể chạy các công việc tính toán chuyên sâu.

Trả lời:

Đáp án đúng: C


Hadoop, so với HPC, có khả năng xử lý khối lượng dữ liệu lớn hơn và có thể chạy trên số lượng máy lớn hơn nhiều. HPC thường tập trung vào việc xử lý nhanh các tác vụ tính toán chuyên sâu trên số lượng máy hạn chế, trong khi Hadoop được thiết kế để xử lý dữ liệu lớn một cách phân tán và chịu lỗi tốt trên các cụm máy tính lớn. Do đó, đáp án A và B đều đúng nhưng đáp án B bao hàm phạm vi rộng hơn về khả năng mở rộng của Hadoop so với HPC. * **A. Có thể xử lý khối lượng dữ liệu lớn hơn.** Đúng, Hadoop được thiết kế để xử lý petabyte dữ liệu trở lên, lớn hơn nhiều so với khả năng của nhiều hệ thống HPC truyền thống. * **B. Có thể chạy trên một số lượng máy lớn hơn HPC cluster.** Đúng, các cluster Hadoop có thể mở rộng đến hàng ngàn node, lớn hơn nhiều so với các cluster HPC thông thường. * **C. Có thể xử lý dữ liệu nhanh hơn với cùng băng thông mạng so với HPC.** Sai, HPC thường được tối ưu hóa cho tốc độ xử lý nhanh hơn trên mỗi node và băng thông mạng cao hơn. * **D. Không thể chạy các công việc tính toán chuyên sâu.** Sai, Hadoop có thể chạy các công việc tính toán chuyên sâu, mặc dù nó thường không hiệu quả bằng HPC cho các tác vụ đó do overhead của việc phân tán dữ liệu và xử lý.

Câu hỏi liên quan