JavaScript is required

Đâu là lệnh lưu trữ dữ liệu ra ngoài chương trình Spark:

A.

input.saveAsTextFile('file:///usr/momoinu/mon_loz/hihi.txt')

B.

input.saveAsTextFile('/usr/momoinu/mon_loz/hihi.txt')

C.

input.saveAs ('file:///usr/momoinu/mon_loz/hihi.txt')

D.

input.saveAsTextFile: 'file:///usr/momoinu/mon_loz/hihi.txt'

Trả lời:

Đáp án đúng: A


Lệnh chính xác để lưu trữ dữ liệu ra ngoài trong Spark là `saveAsTextFile()`. Phương thức này cho phép bạn lưu RDD (Resilient Distributed Dataset) thành một tập hợp các tệp văn bản trong một thư mục. Mỗi phần tử của RDD sẽ được ghi thành một dòng mới trong tệp. Trong các lựa chọn được cung cấp: * **A. input.saveAsTextFile('file:///usr/momoinu/mon_loz/hihi.txt')**: Đây là cú pháp đúng để lưu trữ RDD `input` vào đường dẫn `file:///usr/momoinu/mon_loz/hihi.txt`. Tiền tố `file:///` chỉ ra rằng bạn đang lưu trữ vào hệ thống tệp cục bộ. * **B. input.saveAsTextFile('/usr/momoinu/mon_loz/hihi.txt')**: Có thể đúng nếu cấu hình spark mặc định trỏ đến file system cục bộ, tuy nhiên thiếu tiền tố `file:///` sẽ kém tường minh và có thể gây lỗi nếu cấu hình khác. * **C. input.saveAs ('file:///usr/momoinu/mon_loz/hihi.txt')**: Sai. `saveAs` không phải là một phương thức chuẩn để lưu dữ liệu văn bản trong Spark. Cần sử dụng `saveAsTextFile`. * **D. input.saveAsTextFile: 'file:///usr/momoinu/mon_loz/hihi.txt'**: Sai cú pháp. Dấu hai chấm không được sử dụng để gọi một phương thức trong Spark (Scala hoặc Python). Do đó, đáp án A là chính xác nhất.

Câu hỏi liên quan