Dữ liệu lớn

Một phần của tài liệu Bài giảng Phân tích Web (Trang 91)

PHÂN TÍCH WEB Mã môn h ọc: MAR

5.6 Dữ liệu lớn

Như đã đề cập trước đó trong chương này, dữ liệu lớn là một thuật ngữ chung cho bộ dữ liệu quá lớn hay phức tạp mà các ứng dụng xử lý dữ liệu truyền thống không đủ xử lý. do đó dữ liệu lớn địi hỏi phải có cơng nghệ tiên tiến để quản lý và phân tích dữ liệu như Hadoop được lấy cảm hứng bởi Google và được phát triển bởi một cựu Yahoo! Kỹ sư. Những công ty như là người đầu tiên phải đối phó với dữ liệu lớn. Dữ liệu từ khố đến từ khắp nơi trên thế giới là một ví dụ về dữ liệu lớn. Theo số liệu thống kê Sống Internet, Google đề với 40.000 từ khóa tìm kiếm trên giây. Hay nói cách khác 1,2 nghìn tỷ lượt tìm kiếm mỗi năm trên toàn thế giới (năm 2012). Để cung cấp cho một phản ứng cho người sử dụng trong mili giây khơng có vấn đề mà họ đang ở trên hành tinh này bạn cần một kiến trúc dữ liệu lớn.

Các cơng cụ phân tích web đằng sau là các cơng cụ dữ liệu lớn cũng như đang đối phó với các dữ liệu đến từ hàng tỷ trang web và phục vụ các kết quả phân tích trong thời gian thực. Cơng việc của bạn là một nhà phân tích khơng nhất thiết phải học làm thế nào để tạo ra những cơng cụ này, bạn có các nhà phát triển, lập trình viên và kỹ sư người sẽ làm điều đó cho bạn. Cơng việc của bạn là một nhà phân tích là để dịch các dữ liệu thành thơng tin có ý nghĩa mà các ổ đĩa động. Hoặc công việc của bạn như là một nhà marketing là sử dụng các công cụ của bên thứ ba dữ liệu lớn để làm cho cuộc sống của bạn dễ dàng hơn các công ty. Cách tốt nhất để làm phân tích đến từ việc sử dụng nguồn dữ liệu để tìm ra "cái gì" đang diễn ra, "tại sao" người đã làm những việc theo cách họ có và nơi bạn đứng trong tồn bộ hệ sinh thái, do đó bạn có thể lập kế hoạch cho tương lai.

Một phần của tài liệu Bài giảng Phân tích Web (Trang 91)

Tải bản đầy đủ (PDF)

(162 trang)