Các mục tiêu chính của Apache Hadoop
Trả lời:
Đáp án đúng: D
Các mục tiêu chính của Apache Hadoop bao gồm:
- Lưu trữ dữ liệu khả mở (Scalable Data Storage): Hadoop được thiết kế để lưu trữ lượng lớn dữ liệu một cách hiệu quả trên một cụm các máy tính thông thường. Hệ thống tệp phân tán Hadoop (HDFS) cho phép lưu trữ dữ liệu trên nhiều nút, cung cấp khả năng mở rộng lưu trữ dễ dàng.
- Xử lý dữ liệu lớn mạnh mẽ (Powerful Big Data Processing): Hadoop sử dụng mô hình MapReduce để xử lý song song dữ liệu trên các nút trong cụm. Điều này cho phép xử lý các bộ dữ liệu lớn một cách nhanh chóng và hiệu quả.
Trực quan hóa dữ liệu (Data Visualization) không phải là mục tiêu cốt lõi của Hadoop. Hadoop tập trung vào lưu trữ và xử lý dữ liệu, trong khi các công cụ khác như Tableau hoặc các thư viện Python như Matplotlib thường được sử dụng để trực quan hóa dữ liệu đã được xử lý bởi Hadoop.
Do đó, đáp án đúng là D: lưu trữ dữ liệu khả mở và xử lý dữ liệu lớn mạnh mẽ.