Đây là kiến thức tổng hợp từ các bài giảng môn học dữ liệu lớn của các trường đại học Đảm bảo đầy đủ kiến thức, chính xác, uy tín cho các bạn họ môn big data được dê đàng hơn
TRẮC NGHIỆM Câu 1: Trong NameNode, lượng nhớ cần thiết A B C D Tương tự node Phải có nửa node Phải gấp đơi node Chỉ phụ thuộc vào số lượng node liệu mà xử lý Câu 2: Khi node dự phòng sử dụng cụm khơng cần A B C D Node kiểm tra (Check point node) Node tên phụ (Secondary name node) DataNode phụ (Secondary data node) Nhận thức giá đỡ (Rack awareness) Câu 3: Nhận thức giá NameNode có nghĩa (Rack awareness in name node means) A B C D Nó biết có giá đỡ có sẵn cụm Nó nhận thức ánh xạ nút giá đỡ Nó nhận biết số lượng nút rack Nó biết DataNode khơng có sẵn cụm Câu 4: Khi máy khai báo datanode, dung lượng ổ đĩa (When a machine is declared as a datanode, the disk space in it) A B C D Chỉ sử dụng cho lưu trữ HDFS Có thể sử dụng cho lưu trữ HDFS HDFs Không thể truy cập lệnh hadoop lưu trữ tệp văn Câu 5: Mục đích nút checkpoint cụm Hadoop (The purpose of checkpoint node in a Hadoop cluster is to) A Kiểm tra xem NameNode có hoạt động khơng B Kiểm tra xem tệp hình ảnh có đồng NodeName NameNode phụ hay không C Hợp hình ảnh chỉnh sửa nhật ký tải trở lại NameNode hoạt động D Kiểm tra xem DataNode truy cập Câu 6: Khi tệp HDFS bị người dùng xóa (When a file in HDFS is deleted by a user) A vĩnh viễn B Nó vào thùng rác định cấu hình C Nó bị ẩn khỏi người dùng hệ thống tệp D File sin HDFS bị xóa Câu 7: Nguồn kiến trúc HDFS Hadoop có nguồn gốc (The source of HDFS architecture in Hadoop originated as) A B C D Hệ thống tệp phân phối Google Hệ thống tệp phân tán Yahoo Hệ thống tệp phân tán Facebook Hệ thống tệp phân tán Azure Câu 8: Giao tiếp trình nút khác Hadoop sử dụng (The inter process communication between different nodes in Hadoop uses) A B C D REST API RPC RMI IP Exchange Câu 9: Loại liệu mà Hadoop xử lý (The type of data Hadoop can deal with is) A B C D Structred (Có cấu trúc) Semi-structured (Bán cấu trúc) Unstructured (Khơng có cấu trúc) All of the above (Tất điều trên) Câu 10: YARN viết tắt A B C D Yahoo’s another resource name Yet another resource negotiator Yahoo’s archived Resource names Yet another resource need Câu 11: Chế độ cài đặt phân phối hồn tồn (khơng ảo hóa) cần tối thiểu (The fully distributed mode of installation(without virtualization) needs a minimum of) A Máy vật lý B Máy vật lý C Máy vật lý D Máy vật lý Câu 12: Chạy Start-dfs.sh kết A B C D Bắt đầu NameNode DataNode Chỉ NameNode bắt đầu Chỉ bắt đầu datanode Khởi động NameNode trình quản lý tài nguyên Câu 13: Điều sau mục tiêu HDFS? A B C D Phát lỗi khôi phục Xử lý tập liệu khổng lồ Ngăn chặn việc xóa liệu Cung cấp băng thông mạng cao để di chuyển liệu Câu 14: Lệnh "hadoop fs -test -z URI" cho kết A B C D đường dẫn thư mục đường dẫn tệp đường dẫn không trống tệp có độ dài Câu 15: Trong HDFS, tệp khơng thể A B C D Đọc Xóa Thực thi Lưu trữ (Archived) Câu 16: hadoop fs –expunge A B C D Cung cấp danh sách DataNode Được sử dụng để xóa tệp Được sử dụng để trao đổi tệp hai DataNode Dọn thùng rác Câu 17: Tất tệp thư mục HDFS hợp với cách sử dụng A B C D Getmerge putmerge remerge mergeall Câu 18: Hệ số chép tệp HDFS thay đổi cách sử dụng A B C D changerep rerep setrep xrep Câu 19: Dấu phẩy sử dụng để chép dạng thư mục từ node sang node khác HDFS A B C D rcp dcp drcp distcp Câu 20: Tệp lưu trữ tạo Hadoop ln có phần mở rộng A B C D hrc Har Hrh Hrar Câu 21: Để hủy lưu trữ tệp lưu trữ haddop, sử dụng lệnh A Unrar B Unhar C Cp D Cphar Câu 22: Dữ liệu từ cụm hadoop từ xa A B C D khơng đọc cụm hadoop khác đọc http đọc hhtp đọc suing hftp Câu 23: Mục đích việc khởi động NameNode chế độ khôi phục để A B C D Khôi phục NameNode không thành công Khôi phục DataNode bị lỗi Khôi phục liệu từ vị trí lưu trữ siêu liệu Khơi phục liệu có vị trí lưu trữ siêu liệu Câu 24: Khi bạn tăng số lượng tệp lưu trữ HDFS, Bộ nhớ yêu cầu NameNode A B C D Tăng Giảm Vẫn khơng thay đổi Có thể tăng giảm Câu 25: Nếu chúng tơi tăng kích thước tệp lưu trữ HDFS mà không tăng số tệp, nhớ yêu cầu NameNode A B C D Tăng Giảm Vẫn không thay đổi Có thể tăng giảm Câu 26: Yếu tố giới hạn kích thước cụm hadoop A Nhiệt lượng dư thừa tạo trung tâm liệu B Giới hạn băng thông mạng C Giới hạn RAM NameNode D 4000 datanode Câu 27: Tính decommission hadoop sử dụng cho A B C D Hủy cấp phép NameNode Hủy khai thác DataNode Hủy cấp phép NameNode phụ Giải nén toàn cụm Hadoop Câu 28: Bạn dự trữ lượng sử dụng đĩa DataNode cách định cấu hình dfs.datanode.du.reserved tệp sau A B C D Hdfs-site.xml Hdfs-defaukt.xml Core-site.xml Mapred-site.xml Câu 29: NameNode tệp fsimage Chúng tơi khơi phục điều từ A B C D Datanode Secondary namenode Checkpoint node Never Câu 30: Trong hệ thống HDFS với kích thước khối 64MB, lưu trữ tệp nhỏ 64MB Điều sau đúng? A B C D Tệp tiêu tốn 64MB Tệp tiêu tốn 64MB Tệp tiêu tốn 64MB Khơng thể đốn trước Câu 31: Một cơng việc chạy lon hadoop A Bị giết lệnh B Khơng bị giết lệnh C Chỉ bị giết cách tắt NameNode D Được tạm dừng chạy lại Câu 32: Số lượng nhiệm vụ mà trình theo dõi tác vụ chấp nhận phụ thuộc vào A B C D Bộ nhớ tối đa có sẵn nút Khơng giới hạn Số lượng khe cắm định cấu hình Theo định jobTracker 33 Khái niệm sử dụng nhiều máy để xử lý liệu lưu trữ hệ thống phân tán Máy tính hiệu suất cao (HPC) sử dụng nhiều máy tính để xử lý khối lượng lớn liệu lưu trữ mạng vùng lưu trữ (SAN) So với HPC, Hadoop A B C D Có thể xử lý khối lượng liệu lớn Có thể chạy số lượng máy lớn HPC cluster Có thể xử lý liệu nhanh với băng thông mạng so với HPC Không thể chạy công việc tính tốn chun sâu 34 Hadoop khác với máy tính tình nguyện chỗ A Tình nguyện viên đóng góp thời gian CPU băng thông mạng B Tình nguyện viên đóng góp băng thơng mạng khơng phải thời gian CPU C Hadoop khơng thể tìm kiếm số nguyên tố lớn D Chỉ Hadoop sử dụng mapreduce 35 So với RDBMS, Hadoop A B C D Có tính tồn vẹn liệu cao Có giao dịch ACID khơng IS thích hợp để đọc viết nhiều lần Hoạt động tốt liệu phi cấu trúc bán cấu trúc 36 Vấn đề gặp phải đọc ghi liệu song song từ nhiều đĩa gì? A - Xử lý khối lượng lớn liệu nhanh B - Kết hợp liệu từ nhiều đĩa C - Phần mềm cần thiết để thực nhiệm vụ tốn D - Phần cứng cần thiết để thực tác vụ tốn 37 Điều sau với ổ đĩa khoảng thời gian? A - Thời gian tìm kiếm liệu cải thiện nhanh tốc độ truyền liệu B - Thời gian tìm kiếm liệu cải thiện chậm tốc độ truyền liệu C - Thời gian tìm kiếm liệu tốc độ truyền liệu tăng tương ứng D - Chỉ tăng dung lượng lưu trữ mà khơng tăng tốc độ truyền liệu 38 Tính định vị liệu Hadoop có nghĩa A - lưu trữ liệu nhiều nút B - chuyển vị trí liệu từ nút sang nút khác C - đồng định vị liệu với nút tính tốn D - Phân phối liệu nhiều nút 39 Cái số cung cấp hệ thống xử lý Luồng sử dụng hệ sinh thái Hadoop? A - Solr B - Tez C - Tia lửa D - Hive 40 Các tệp HDFS thiết kế cho A - Nhiều người viết sửa đổi hiệu số tùy ý B - Chỉ nối vào cuối tệp C - Chỉ ghi thành tệp lần D - Truy cập liệu có độ trễ thấp 41 Tệp HDFS nhỏ kích thước khối A - Khơng thể lưu trữ HDFS B - Chiếm tồn kích thước khối C - Chỉ chiếm kích thước mà cần khơng phải tồn khối D - Có thể trải dài nhiều khối 42 Kích thước khối HDFS lớn so với kích thước khối đĩa để A - Chỉ tệp HDFS lưu trữ đĩa sử dụng B - Thời gian tìm kiếm tối đa C - Khơng thể chuyển tệp lớn tạo từ nhiều khối đĩa D - Một tệp lớn kích thước đĩa lưu trữ nhiều đĩa cụm 43 Trong cụm Hadoop, điều với khối HDFS khơng cịn khả dụng hỏng đĩa lỗi máy? A - Nó bị vĩnh viễn B - Nó chép vị trí thay cho máy sống khác C - NameNode cho phép yêu cầu khách hàng tiếp tục cố gắng đọc D - Tiến trình cơng việc Mapreduce chạy bỏ qua khối liệu lưu trữ 44 Tiện ích sử dụng để kiểm tra tình trạng hệ thống tệp HDFS? A - fchk B - fsck C - fsch D - fcks 45 Lệnh liệt kê khối tạo nên tệp hệ thống tệp A - hdfs fsck / -files -blocks B - hdfs fsck / -blocks -files C - hdfs fchk / -blocks -files D - hdfs fchk / -files -block 46 DataNode NameNode tương ứng A - Nút nút công nhân B - Nút công nhân nút C - Cả hai nút cơng nhân D - Khơng có 47 Trong đĩa cục NameNode, tệp lưu trữ liên tục là: A - hình ảnh vùng tên nhật ký chỉnh sửa B - vị trí khối hình ảnh vùng tên C - chỉnh sửa nhật ký chặn vị trí D - Hình ảnh khơng gian tên, chỉnh sửa vị trí nhật ký chặn 48 Khi khách hàng giao tiếp với hệ thống tệp HDFS, cần giao tiếp với A - NameNode B - DataNode C - NameNode DataNode D - Không có 49 Hadoop sử dụng chế để làm cho namenode có khả chống lại cố A - Sao lưu siêu liệu hệ thống tệp vào đĩa cục gắn kết NFS từ xa B - Lưu trữ siêu liệu hệ thống tệp đám mây C - Sử dụng máy có 12 CPU D - Sử dụng phần cứng đắt tiền đáng tin cậy 50 Vai trị NameNode phụ A - Sao chép siêu liệu hệ thống tệp từ NameNode 68 Kịch yêu cầu băng thông cao để truyền liệu nút Hadoop? A - Các nút khác giá đỡ B - Các nút giá đỡ khác trung tâm liệu C - Các mã trung tâm liệu khác D - Dữ liệu nút 69 Vị trí khối HDFS nơi liệu ghi vào, A - hiển thị cho khách hàng yêu cầu B - Vị trí khối khơng hiển thị yêu cầu khách hàng C - Người đọc nhìn thấy khơng D - hiển thị sau liệu lưu đệm cam kết 70 Tùy chọn số khơng phải tùy chọn lập lịch có sẵn với YARN? A - Bộ lập lịch tối ưu B - Bộ lập lịch FIFO C - Bộ lập lịch dung lượng D - Bộ lập lịch công 71 Chế độ sau chế độ hoạt động Hadoop? A - Chế độ phân phối giả B - Chế độ phân phối toàn cầu C - Chế độ độc lập D - Chế độ phân phối hoàn toàn 72 Sự khác biệt chế độ độc lập giả phân phối A - Đứng khơng thể sử dụng đồ giảm B - Đứng riêng có quy trình java chạy C - Chế độ phân tán giả không sử dụng HDFS D - Chế độ phân tán giả cần hai nhiều máy vật lý 73 Công việc khung hadoop viết A - C ++ B - Python C - Java D – Go 74 Lệnh hdfs để tạo tệp từ hệ thống cục A - CopyFromLocal B - copyfromlocal C - CopyLocal D - copyFromLocal 75 Lệnh hadfs sử dụng để A - Sao chép tệp từ hệ thống tệp cục sang HDFS B - Sao chép tệp thư mục từ hệ thống tệp cục sang HDFS C - Sao chép tệp từ HDFS sang hệ thống tệp cục D - Sao chép tệp thư mục từ HDFS sang hệ thống tệp cục 76 Sao chép thiếu HDFS có nghĩa làA - Khơng có chép diễn DataNode B - Quá trình chép chậm DataNode C - Tần suất chép DataNode thấp D - Số lượng tái tạo so với quy định hệ số chép 77 Khi NameNode nhận thấy số khối chép mức, A - Dừng cơng việc chép tồn hệ thống tệp hdfs B - Nó làm chậm q trình nhân cho khối C - Nó xóa khối thừa D - Nó để lại khối thừa vốn có 78 Thuộc tính định cấu hình core-site.xml? A - Yếu tố nhân rộng B - Tên thư mục để lưu trữ tệp hdfs C - Máy chủ cổng nơi tác vụ MapReduce chạy D - Các biến mơi trường Java 79 Thuộc tính định cấu hình hdfs-site.xml? A - Yếu tố nhân rộng B - Tên thư mục để lưu trữ tệp hdfs C - Máy chủ cổng nơi tác vụ MapReduce chạy D - Các biến môi trường Java 80 Thuộc tính định cấu hình mapred-site.xml? A - Yếu tố nhân rộng B - Tên thư mục để lưu trữ tệp hdfs C - Máy chủ cổng nơi tác vụ MapReduce chạy D - Các biến mơi trường Java 81 Thuộc tính định cấu hình hadoop-env.sh? A - Yếu tố nhân rộng B - Tên thư mục để lưu trữ tệp hdfs C - Máy chủ cổng nơi tác vụ MapReduce chạy D - Các biến môi trường Java 82 Lệnh để kiểm tra xem Hadoop có hoạt động hay không là: A - Jsp B - Jps C - Hadoop fs –test D - Khơng có 83 Các khối liệu ánh xạ thông tin với tệp tương ứng chúng lưu trữ A - DataNode B - Trình theo dõi cơng việc C - Trình theo dõi tác vụ D - NameNode 84 Tệp Namenode lưu trữ thông tin ánh xạ vị trí khối liệu với tên tệp A - dfsimage B - nameimage C - fsimage D - image 85 NameNode biết DataNode hoạt động cách sử dụng chế gọi A - heartbeats B - datapulse C - h-signal D - Active-pulse 86 Bản chất phần cứng cho NameNode phải A - Cao cấp loại hàng hóa B - Loại hàng hóa C - Khơng thành vấn đề D - Chỉ cần có nhiều Ram DataNode 87 Trong Hadoop, Snappy LZO ví dụ A - Cơ chế vận chuyển tệp DataNode B - Cơ chế nén liệu C - Cơ chế chép liệu D - Cơ chế đồng hóa liệu 88 Hệ thống apache giải việc nhập liệu phát trực tuyến vào hadoop A - Ozie B - Kafka C - Flume D - Hive 89 Sự phân chia đầu vào sử dụng MapReduce cho biết A - Kích thước trung bình khối liệu sử dụng làm đầu vào cho chương trình B - Chi tiết vị trí nơi bắt đầu tồn ghi khối toàn ghi cuối khối kết thúc C - Tách liệu đầu vào cho chương trình MapReduce thành kích thước định cấu hình mapred-site.xml D - Khơng có 90 Đầu nhiệm vụ ánh xạ A - Cặp khóa-giá trị tất ghi tập liệu B - Cặp khóa-giá trị tất ghi từ phần tách đầu vào trình ánh xạ xử lý C - Chỉ phím xếp từ phần tách đầu vào D - Số hàng xử lý tác vụ ánh xạ 91 Vai trò nút Nhật ký A - Báo cáo vị trí khối DataNode B - Báo cáo thông tin nhật ký chỉnh sửa khối DataNode C - Báo cáo lịch trình cơng việc chạy D - Báo cáo hoạt động thành phần khác người quản lý tài nguyên xử lý 92 Người giữ vườn thú (zookeeper) A - Phát lỗi NameNode chọn NameNode B - Phát lỗi DataNode chọn DataNode C - Ngăn phần cứng nóng cách tắt chúng D - Duy trì danh sách tất thành phần địa IP cụm Hadoop 93 Nếu địa IP tên máy chủ DataNode thay đổi A - NameNode cập nhật ánh xạ tên tệp tên khối B - NameNode không cần cập nhật ánh xạ tên tệp tên khối C - Dữ liệu DataNode bị vĩnh viễn D - Có NameNode phải khởi động lại 94 Khi ứng dụng khách liên hệ với NameNode để truy cập tệp, NameNode phản hồi với A - Kích thước tệp yêu cầu B - ID khối tệp yêu cầu C - ID khối tên máy chủ DataNode chứa khối D - Block ID tên máy chủ tất DataNode chứa khối 95 HDFS viết tắt A - Hệ thống tệp phân tán cao (Highly distributed file system.) B - Hệ thống tệp hướng dẫn Hadoop (Hadoop directed file system) C - Vỏ tệp phân tán cao (Highly distributed file shell) D - Hệ thống tệp phân tán Hadoop (Hadoop distributed file system.) 96 Công cụ Hadoop sử dụng để phân tán liệu cách đồng DataNode đặt tên là: A - Bộ lập lịch B - Cân C - Máy rải D - PV 97 Khi jobTracker lên lịch, công việc tìm kiếm A - Một nút có vị trí trống giá đỡ với DataNode B - Bất kỳ nút giá đỡ với DataNode C - Bất kỳ nút rack liền kề với rack datanode D - Chỉ nút cụm 98 Tín hiệu nhịp tim gửi từ A - JObtracker thành Tasktracker B - Tasktracker to Job tracker C - Trình theo dõi cơng việc đến NameNode D - Trình theo dõi tác vụ đến NameNode 99 Job tracker runs on A - Namenode B - Datanode C - Secondary namenode D - Secondary datanode 100 Tùy chọn sau tùy chọn lập lịch có sẵn YARN A - Bộ lập lịch cân B - Lập lịch trình công C - Bộ lập lịch dung lượng D - Máy quét FiFO 101 Định dạng đầu vào mặc định gì? A - Định dạng đầu vào mặc định xml Nhà phát triển định định dạng đầu vào khác thích hợp xml khơng phải đầu vào xác B - Khơng có định dạng nhập mặc định Định dạng đầu vào phải định C - Định dạng đầu vào mặc định định dạng tệp Dữ liệu cần xử lý trước trước sử dụng định dạng đầu vào mặc định D - Định dạng đầu vào mặc định TextInputFormat với phần bù byte làm khóa tồn dịng dạng giá trị 102 Cái tính liệu lớn? A - Vận tốc Velocity B - Tính xác thực Veracity C - âm lượng volume D - đa dạng variety 103 Công nghệ sử dụng để lưu trữ liệu Hadoop? A - HBase B - Avro C - Sqoop D - Zookeeper 104 Công nghệ sử dụng để hóa liệu Hadoop? A - HBase B - Avro C - Sqoop D - Zookeeper 105 Công nghệ sử dụng để nhập xuất liệu Hadoop? A - HBase B - Avro C - Sqoop D - Người giữ vườn thú 106 Công nghệ sau sở liệu lưu trữ tài liệu? A - HBase B - Hive C - Cassandra D - CouchDB 107 Điều sau không Hadoop? A - Đây khung phân tán B - Thuật tốn sử dụng Map Reduce C - Nó chạy với đồ cứng hàng hóa D - Tất 108 Cái sau lưu trữ liệu? A - Name node B - Data node C - Master node D - None of these 109 Nút sau quản lý nút khác? A - Name node B - Data node C - slave node D - None of these 110 AVRO gì? A - Avro thư viện hóa java B - Avro thư viện nén java C - Avro thư viện java tạo tệp bảng chia nhỏ D - Không câu trả lời 111 Bạn chạy Bản đồ - Giảm công việc trực tiếp liệu Avro không? A - Có, Avro thiết kế đặc biệt để xử lý liệu qua Map-Reduce B - Có, cần có mã hóa mở rộng bổ sung C - Không, Avro thiết kế đặc biệt để lưu trữ liệu D - Avro định siêu liệu cho phép truy cập liệu dễ dàng Dữ liệu sử dụng phần trình thực thi thu nhỏ đồ, thay đặc tả đầu vào 112 Bộ nhớ đệm phân tán gì? A - Bộ đệm phân tán thành phần đặc biệt NameNode lưu vào đệm liệu sử dụng thường xuyên để phản hồi máy khách nhanh Nó sử dụng bước giảm B - Bộ nhớ đệm phân tán thành phần đặc biệt DataNode lưu vào đệm liệu sử dụng thường xuyên để phản hồi máy khách nhanh Nó sử dụng bước đồ C - Bộ đệm phân tán thành phần lưu trữ đối tượng java D - Bộ nhớ đệm phân tán thành phần cho phép nhà phát triển triển khai chum để xử lý Map-Reduce 113 Có thể ghi gì? A - W ghi giao diện java cần triển khai để truyền liệu trực tuyến đến máy chủ từ xa B - W ghi giao diện java cần thực để ghi HDFS C - Writes giao diện java cần triển khai để xử lý MapReduce D - Không câu trả lời 114 HBASE gì? A - Hbase Java API riêng biệt cho cụm Hadoop B - Hbase phần dự án Apache Hadoop cung cấp giao diện để quét lượng lớn liệu sở hạ tầng Hadoop C - Hbase "cơ sở liệu" giống giao diện với liệu cụm Hadoop D - HBase phần dự án Apache Hadoop cung cấp giao diện giống SQL để xử lý liệu 115 Hadoop xử lý khối lượng lớn liệu nào? A - Hadoop sử dụng song song nhiều máy Điều tối ưu hóa việc xử lý liệu B - Hadoop thiết kế đặc biệt để xử lý lượng lớn liệu cách tận dụng phần cứng MPP C - Hadoop gửi mã đến liệu thay gửi liệu đến mã D - Hadoop sử dụng kỹ thuật nhớ đệm phức tạp NameNode để tăng tốc độ xử lý liệu 116 Khi sử dụng HDFS, điều xảy tệp bị xóa khỏi dịng lệnh? A - Nó bị xóa vĩnh viễn thùng rác bật B - Nó đặt vào thư mục thùng rác chung cho tất người dùng cho cụm C - Nó bị xóa vĩnh viễn thuộc tính tệp ghi lại tệp nhật ký D - Nó chuyển vào thư mục thùng rác người dùng xóa thùng rác bật 117 Khi lưu trữ tệp Hadoop, câu sau đúng? (Chọn hai câu trả lời) Các tệp lưu trữ hiển thị với phần mở rộng arc Nhiều tệp nhỏ trở thành tệp lớn MapReduce xử lý tên tệp gốc sau tệp lưu trữ Các tệp lưu trữ phải lưu trữ Liên hợp quốc cho HDFS MapReduce để truy cập tệp nhỏ, gốc Lưu trữ dành cho tệp cần lưu HDFS khơng cịn truy cập A-1&3 B-2&3 C-2&4 D-3&4 118 Khi ghi liệu vào HDFS điều hệ số chép ba? (Chọn câu trả lời) Dữ liệu ghi vào DataNodes ba giá đỡ riêng biệt (nếu Rack Aware) Dữ liệu lưu trữ Mã liệu tệp riêng biệt chứa giá trị tổng kiểm tra Dữ liệu ghi vào khối ba DataNodes khác Khách hàng trả lại thành công ghi thành công khối kiểm tra tổng kiểm tra A-1&3 B-2&3 C-3&4 D-1&4 119 Nhiệm vụ sau số nhiệm vụ DataNode HDFS? A - Duy trì hệ thống tệp siêu liệu cho tất tệp thư mục B - Khơng có phương án C - Kiểm soát việc thực tác vụ đồ riêng lẻ tác vụ thu gọn D - Lưu trữ truy xuất khối khách hàng NameNode yêu cầu E - Quản lý không gian tên hệ thống tệp 120 Thành phần sau truy xuất phân tách đầu vào trực tiếp từ HDFS để xác định số tác vụ đồ? A - Mã Tên B - TaskTrackers C - JobClient D - JobTracker E - Khơng có lựa chọn 121 Giao diện org.apache.hadoop.io.Worites khai báo hai phương thức nào? (Chọn câu trả lời.) public void readFields (DataInput) công khai khoảng trống đọc (DataInput) public void writeFields (DataOutput) ghi khoảng trống công khai (DataOutput) A-1&4 B-2&3 C-3&4 D-2&4 122 Câu sau cặp cơng việc MapReduce? A - Một lớp khóa phải triển khai Words B - Một lớp khóa phải triển khai WordsComp so sánh C - Một lớp giá trị phải triển khai WordsComp so sánh D - Một lớp giá trị phải mở rộng khả so sánh 123 Phát biểu sau sai Bộ nhớ đệm phân tán? A - Khung công tác Hadoop đảm bảo tệp Bộ đệm phân tán phân phối cho tất tác vụ đồ giảm bớt B - Các tệp đệm tệp văn chúng tệp lưu trữ tệp zip JAR C - Disk I / O bị tránh liệu đệm lưu nhớ D - Khung công tác Hadoop chép tệp Bộ đệm ẩn phân tán vào nút phụ trước nhiệm vụ cho cơng việc thực thi nút 124 Thành phần sau thành phần HBase? A - Máy chủ Vùng B - Nagios C - ZooKeeper D - Máy chủ 125 Điều sau sai RawComparator? A - So sánh khóa theo byte B - Hiệu suất cải thiện giai đoạn xếp đủ cách sử dụng RawComparator C - Các khóa trung gian giải mã hóa để thực so sánh 126 Con quỷ (demon) chịu trách nhiệm chép liệu Hadoop? A - HDFS B - Trình theo dõi tác vụ C - Trình theo dõi công việc D - NameNode E - DataNode 127 Các phím từ đầu xáo trộn xếp thực giao diện sau đây? A - Viết B - Có thể so sánh C - Có thể cấu hình D - Có thể so sánh E - Có thể so sánh 128 Để áp dụng kết hợp, thuộc tính phải thỏa mãn giá trị phát từ ánh xạ gì? A - Combiner ln áp dụng cho liệu B - Đầu ánh xạ đầu kết hợp phải cặp giá trị khóa chúng khơng đồng C - Đầu ánh xạ đầu kết hợp phải cặp giá trị khóa Chỉ giá trị thỏa mãn thuộc tính liên kết giao hốn thực ... (Archived) Câu 16: hadoop fs –expunge A B C D Cung cấp danh sách DataNode Được sử dụng để xóa tệp Được sử dụng để trao đổi tệp hai DataNode Dọn thùng rác Câu 17: Tất tệp thư mục HDFS hợp với cách... phương thức nào? (Chọn câu trả lời.) public void readFields (DataInput) công khai khoảng trống đọc (DataInput) public void writeFields (DataOutput) ghi khoảng trống công khai (DataOutput) A-1&4 B-2&3... NameNode D 4000 datanode Câu 27: Tính decommission hadoop sử dụng cho A B C D Hủy cấp phép NameNode Hủy khai thác DataNode Hủy cấp phép NameNode phụ Giải nén toàn cụm Hadoop Câu 28: Bạn dự trữ