1. Trang chủ
  2. » Luận Văn - Báo Cáo

bài tập lớn môn năng lực số ứng dụng ứng dụng của big data tronglĩnh vực ngân hàng

32 1 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Ứng Dụng Của Big Data Trong Lĩnh Vực Ngân Hàng
Tác giả Nguyễn Thị Minh Hương, Lý Thị Thảo, Trịnh Huyền Thư, Trần Tuấn Huy
Người hướng dẫn Đinh Trọng Hiếu
Trường học Học Viện Ngân Hàng
Chuyên ngành Năng Lực Số Ứng Dụng
Thể loại Bài Tập Lớn
Năm xuất bản 2023
Thành phố Hà Nội
Định dạng
Số trang 32
Dung lượng 5,95 MB

Cấu trúc

  • CHƯƠNG 1: KHÁI NIỆM, ĐẶC TRƯNG CỦA DỮ LIỆU LỚN VÀ SỰ KHÁC BIỆT VỚI KHAI THÁC DỮ LIỆU (7)
    • 1.1. Khái niệm Big Data (7)
    • 1.2. Đặc trưng của Big data (7)
    • 1.3. Phân loại Big data (9)
    • 1.4. Tầm quan trọng của dữ liệu lớn tài chính trong Ngân hàng (11)
      • 1.4.1. Phát hiện và ngăn chặn gian lận (11)
      • 1.4.2. Đánh giá rủi ro chính xác (12)
      • 1.4.3. Phân loại hoặc giải thể khách hàng (12)
      • 1.4.4. Tăng hiệu quả của các quy trình thủ công (12)
    • 1.5. Cách thức hoạt động của Big data (12)
    • 1.6. So sánh Big Data và Data mining (Khai thác dữ liệu) (14)
    • 1.7. Bộ công cụ và bộ kĩ năng cho Big Data trong ngân hàng (15)
      • 1.7.1. Bộ công cụ cho Big Data trong ngân hàng (15)
      • 1.7.2. Bộ kỹ năng cho Big Data trong ngân hàng (19)
  • CHƯƠNG 2. ĐẶC ĐIỂM VÀ ỨNG DỤNG CỦA BIG DATA TRONG LĨNH VỰC NGÂN HÀNG (20)
    • 2.1. Phân tích thói quen hành vi chi tiêu của khách hàng (21)
    • 2.3. Marketing cá nhân hóa (22)
    • 2.4. Nâng cao chất lượng dịch vụ chăm sóc khách hàng (23)
    • 2.5. Thay đổi cách thức cung cấp dịch vụ đến khách hàng (23)
    • 2.6. Ngăn chặn các hành vi lừa đảo, vi phạm pháp luật (24)
    • 2.7. Kiểm soát rủi ro, tuân thủ luật pháp và minh bạch trong báo cáo tài chính (25)
    • 2.8. Bán chéo thêm các dịch vụ (25)
    • 2.9. Tham gia vào việc kiểm soát đánh giá và nâng cao hiệu quả làm việc của nhân viên (26)
    • 2.10. Dự đoán xu hướng tài chính (26)
    • 2.11. Tự động hóa các quy trình chính (27)
  • CHƯƠNG 3. THÁCH THỨC, HẠN CHẾ VÀ GIẢI PHÁP KHI ỨNG DỤNG BIG (27)
    • 3.1. Thách thức, hạn chế khi ứng dụng Big Data ở trong lĩnh vực ngân hàng (27)
      • 3.1.1. Khó tích hợp các hệ thống kế thừa (27)
      • 3.1.2. Big data 4.0 liên tục thay đổi (28)
      • 3.1.3. Dữ liệu lớn đang trở nên không thể quản lý (28)
      • 3.1.4. Đòi hỏi thay đổi văn hóa doanh nghiệp (28)
    • 3.2. Giải pháp khi ứng dụng Big Data trong lĩnh vực ngân hàng (29)
  • KẾT LUẬN (31)
  • TÀI LIỆU THAM KHẢO (32)

Nội dung

Ví dụ: Dữ liệu lớn cho ngân hàng có thể được xem xét từ góc độ mô hình chi tiêu, thông tin tín dụng, tình hình tài chính và giám sát phương tiện truyền thông xã hội để hiểu rõ hơn về hàn

KHÁI NIỆM, ĐẶC TRƯNG CỦA DỮ LIỆU LỚN VÀ SỰ KHÁC BIỆT VỚI KHAI THÁC DỮ LIỆU

Khái niệm Big Data

Big Data là các tập dữ liệu có khối lượng lớn và phức tạp Độ lớn đến mức các phần mềm xử lý dữ liệu truyền thống không có khả năng thu thập, quản lý và xử lý dữ liệu trong một khoảng thời gian hợp lý.

Những tập dữ liệu lớn này có thể bao gồm các dữ liệu có cấu trúc, không có cấu trúc và bán cấu trúc, mỗi tập có thể được khai thác để tìm hiểu insights.

Đặc trưng của Big data

Big Data (Dữ liệu lớn) là tập hợp các dữ liệu được tổng hợp từ nhiều nguồn và thường được miêu tả bằng 5 đặc điểm: Volume (Khối lượng), Variety (Tính đa dạng), Velocity (Tốc độ), Value (Tính giá trị), Veracity (Độ tin cậy).

*Volume (Khối lượng dữ liệu)

Là sự tăng trưởng về mặt khối lượng của tệp dữ liệu Dữ liệu trong các hệ thống thông tin luôn và liên tục tăng lên về mặt kích thước Thực vậy, trong khi những dữ liệu thông thường có thể đo lường bằng những đơn vị quen thuộc như là Megabyte (MB), Gigabyte (GB), Terabyte (TB), thì Big Data được lưu trữ bằng Petabyte (PB), Exabyte (EB), Zettabyte (ZB) Để mô tả rõ sự khác biệt về kích thước của hai loại dữ liệu, trường Đại Học Berkeley đã nghiên cứu và đưa ra kết luận rằng: 1GB có khối lượng dữ liệu tương đương với một video với chất lượng HD trong vòng 7 phút thì 1 ZB lại tương đương với 250 tỷ đĩa DVD.

Là sự gia tăng về tính đa dạng của dữ liệu Trong khi dữ liệu truyền thống chỉ có một loại dữ liệu được tổ chức và sắp xếp ở trong cơ sở dữ liệu lên quan thì Big Data còn có thêm loại dữ liệu phi cấu trúc và dữ liệu bán cấu trúc như là văn bản, âm thanh và video Điều đó có nghĩa là nó đòi hỏi phải có thêm một số phương pháp xử lý để tìm ra ý nghĩa của dữ liệu và cùng tổng hợp chúng thành thông tin có ý nghĩa.

Là tốc độ tăng trưởng của dữ liệu Khái niệm này chỉ khoảng thời gian cần thiết để tạo ra, phân tích, quản lý toàn bộ dữ liệu Mặc dù Big Data có khối lượng lớn dữ liệu khổng lồ nhưng nó cần phải được xử lý với tốc độ cực nhanh để sinh ra những thông tin cần thiết Ngày nay, khi thời đại tốc độ Internet phát triển mạnh mẽ, tốc độ của một dữ liệu được tạo ra, tìm kiếm và rồi dịch chuyển sang vị trí khác hiện tại đã đạt đến mức đáng kinh ngạc, chỉ vài micro giây, cho phép người dùng có thể phân tích trực tiếp các thông số của các dữ liệu được tạo ra trong thời gian thực.

Tính giá trị của dữ liệu thường được đánh giá bởi giá trị kinh tế hoặc xã hội tiềm năng mà dữ liệu có thể đưa cho doanh nghiệp Đây được coi là một trong những đặc điểm quan trọng nhất của công nghệ Big Data đối với doanh nghiệp, bởi không phải dữ liệu nào cũng có ý nghĩa Vậy nên, các doanh nghiệp cần phải hoạch định được những giá trị thông tin hữu ích của Big Data đối với các vấn đề hoặc mô hình hoạt động kinh doanh của họ.

*Veracity (Độ tin cậy) Độ tin cậy của dữ liệu được định nghĩa như là sự chính xác của dữ liệu Đặc biệt, trong thời kì các phương tiện truyền thông xã hội và mạng xã hội phát triển mạnh mẽ, mỗi ngày người dùng tạo ra vô vàn thông tin, kiến thức mới, khiến cho độ xác thực và tin cậy của dữ liệu càng ngày càng khó xác định hơn, tạo nên sự không đồng nhất của các tệp dữ liệu và gây cản trở cho các quy trình xử lý và quản lý nó Vậy nên, doanh nghiệp cần phải đảm bảo độ chính xác của dữ liệu để giảm bớt những sai lệch có thể xảy ra.

Phân loại Big data

Dữ liệu lớn bao gồm cả dữ liệu có cấu trúc, phi cấu trúc và bán cấu trúc Trong đó, dữ liệu phi cấu trúc chiếm tới 70-80% trong các tổ chức, bao gồm video, hình ảnh, trang web, Mỗi loại dữ liệu lớn này đều có công cụ lưu trữ và xử lý riêng biệt.

*Dữ liệu có cấu trúc:

Dữ liệu có cấu trúc thường được lưu trữ, sắp xếp một cách có tổ chức dưới dạng bảng và cột chứa thông tin để mô tả các thuộc tính và mối quan hệ với các dữ liệu khác Các dữ liệu loại này thường được quản lý thông qua cơ sở dữ liệu quan hệ Bên cạnh đó dữ liệu có cấu trúc thường được tìm kiếm, xử lí bằng cách sử dụng ngôn ngữ truy vấn có cấu trúc Structured Query Language (SQL).

*Dữ liệu phi cấu trúc:

Dữ liệu phi cấu trúc là loại dữ liệu thô không theo khuôn mẫu hoặc lược đồ cụ thể Nó không thể được lưu trữ trong cấu trúc hàng và cột giống như dữ liệu có cấu trúc Dữ liệu phi cấu trúc có nhiều dạng như văn bản, hình ảnh, video, âm thanh và dữ liệu mạng xã hội.

6 vậy, những dữ liệu này rất khó tìm kiếm, quản lý và phân tích nên các doanh nghiệp thường bỏ qua loại dữ liệu này cho đến khi sự ra đời của trí tuệ nhân tạo và các thuật toán máy tự học giúp quá trình này trở nên dễ dàng hơn Ngoài ra, dữ liệu phi cấu trúc thường được lưu trữ trong một cơ sở dữ liệu không quan hệ là No Structured Query Language (NoSQL).

*Dữ liệu bán cấu trúc:

Dữ liệu bán cấu trúc có một số tính chất đồng nhất có thể xác định được, nhưng lại không hình thành một cấu trúc rõ ràng để phù hợp với cơ sở dữ liệu quan hệ dưới dạng bảng và cột Một vài ví dụ cho dạng cấu trúc này là email thuộc dạng không có cấu trúc nhưng lại chứa những dữ liệu có cấu trúc như tên, địa chỉ người nhận, thời gian gửi thư, hay những bức ảnh chụp từ điện không có cấu trúc với những dữ liệu cơ sở liên quan nhưng lại được gắn những dữ liệu cấu trúc như thời gian chụp, nơi chụp, ID của thiết bị.

Tầm quan trọng của dữ liệu lớn tài chính trong Ngân hàng

Dữ liệu lớn trong tài chính hoặc ngân hàng Dữ liệu lớn đề cập đến hàng petabyte dữ liệu có tổ chức và phi cấu trúc có thể được các ngân hàng và tổ chức tài chính sử dụng để dự đoán hành vi của khách hàng và phát triển chiến lược Lĩnh vực tài chính tạo ra một lượng lớn dữ liệu Dữ liệu có cấu trúc là thông tin được xử lý trong một công ty để cung cấp những hiểu biết quan trọng về việc ra quyết định Dữ liệu phi cấu trúc đang được tích lũy từ nhiều nguồn khác nhau với số lượng ngày càng tăng, mang lại những cơ hội phân tích to lớn.

Mỗi ngày, hàng tỷ đô la đi qua thị trường toàn cầu và các nhà phân tích được giao nhiệm vụ theo dõi thông tin này với độ chính xác, bảo mật và tốc độ để đưa ra dự báo, tìm ra mô hình và phát triển các chiến thuật dự đoán Cách dữ liệu này được thu thập, xử lý, lưu trữ và phân tích sẽ xác định giá trị của nó Các nhà phân tích ngày càng lựa chọn các giải pháp dữ liệu đám mây vì các hệ thống cũ không thể chứa dữ liệu phi cấu trúc và tách biệt nếu không có sự tham gia rộng rãi và phức tạp của CNTT Các ngân hàng sử dụng Dữ liệu lớn có thể đưa ra những đánh giá sáng suốt về những thứ như cải thiện dịch vụ chăm sóc khách hàng, ngăn chặn gian lận, nhắm mục tiêu khách hàng tốt hơn, hiệu suất kênh hàng đầu và đánh giá mức độ rủi ro với khả năng đánh giá các loại dữ liệu khác nhau.

Các tổ chức tài chính không phải là những người bản địa về kỹ thuật số và đã phải trải qua một quá trình chuyển đổi kéo dài, đòi hỏi những thay đổi về hành vi và công nghệ Ngành ngân hàng

Dữ liệu lớn đã trải qua những tiến bộ công nghệ đáng kể trong những năm gần đây, mang đến các giải pháp thuận tiện, phù hợp và an toàn cho doanh nghiệp Do đó, phân tích Dữ liệu lớn của ngân hàng đã có thể cách mạng hóa không chỉ các hoạt động kinh doanh riêng lẻ mà còn cả toàn bộ ngành dịch vụ tài chính Chúng ta hãy xem xét một số cách cụ thể Dữ liệu lớn đã hiện đại hóa và cách mạng hóa tài chính.

1.4.1.Phát hiện và ngăn chặn gian lận

Việc phát hiện và ngăn chặn gian lận được hỗ trợ rất nhiều nhờ học máy, được hỗ trợ bởi dữ liệu lớn Các mối đe dọa về bảo mật thẻ tín dụng đã được giảm bớt nhờ các phân tích phân tích xu hướng mua hàng Khi thông tin thẻ tín dụng vừa an toàn vừa có giá trị bị đánh cắp, các ngân hàng giờ đây có thể đóng băng thẻ và giao dịch ngay lập tức, đồng thời cảnh báo người tiêu dùng về mối nguy hiểm về bảo mật.

1.4.2.Đánh giá rủi ro chính xác

Học máy ngày càng được sử dụng để đưa ra các lựa chọn tài chính quan trọng như đầu tư và cho vay Các quyết định dựa trên phân tích dự đoán xem xét mọi thứ từ nền kinh tế, phân khúc khách hàng đến vốn doanh nghiệp để xác định các mối nguy tiềm ẩn như khoản đầu tư hoặc thanh toán bị lỗi.

1.4.3.Phân loại hoặc giải thể khách hàng Đây là một tính năng rất hữu ích và hiệu quả được cung cấp bởi Big Data trong hoạt động kinh doanh ngân hàng Nó có khả năng phân loại khách hàng dựa trên các hoạt động tài chính của họ, chẳng hạn như thu nhập, chi tiêu, tiết kiệm và đầu tư Thông tin chức năng và quan trọng của khách hàng được ghi nhận và phân loại dựa trên yêu cầu tài chính của họ Điều này cho phép ban quản lý ngân hàng nắm bắt tốt hơn các giới hạn dịch vụ tài chính mà họ cần nâng cấp hoặc hạ cấp Tính năng này đã hỗ trợ và tiếp tục hỗ trợ quản lý ngân hàng trong việc hoạch định lãi suất và các dịch vụ tài chính khác.

1.4.4.Tăng hiệu quả của các quy trình thủ công

Khả năng mở rộng là một tính năng của các giải pháp tích hợp dữ liệu cho phép chúng phát triển khi nhu cầu kinh doanh thay đổi Các công ty thẻ tín dụng có thể tự động hóa các hoạt động thường ngày, giảm giờ làm của nhân viên CNTT và cung cấp thông tin chi tiết về hoạt động hàng ngày của khách hàng bằng cách truy cập vào bức tranh hoàn chỉnh về tất cả các giao dịch hàng ngày.

Cách thức hoạt động của Big data

Big Data cung cấp cho bạn thông tin chi tiết mới, mở ra cơ hội và mô hình kinh doanh mới Bắt đầu bao gồm ba hành động chính:

Big Data tập hợp dữ liệu từ nhiều nguồn và ứng dụng khác nhau Các cơ chế tích hợp dữ liệu truyền thống, chẳng hạn như trích xuất, chuyển đổi và tải (ETL) thường không phù hợp với nhiệm vụ Nó đòi hỏi các chiến lược và công nghệ mới để phân tích các tập Big Data ở quy mô terabyte, hoặc thậm chí là petabyte.

Trong quá trình tích hợp, bạn cần đưa dữ liệu vào, xử lý và đảm bảo dữ liệu được định dạng và có sẵn ở dạng mà các nhà phân tích kinh doanh của bạn có thể bắt đầu.

Big Data yêu cầu lưu trữ Giải pháp lưu trữ của bạn có thể trên đám mây, tại chỗ hoặc cả hai Bạn có thể lưu trữ dữ liệu của mình ở bất kỳ hình thức nào bạn muốn và đưa các yêu cầu xử lý mong muốn cũng như các công cụ xử lý cần thiết vào các tập dữ liệu đó theo yêu cầu Nhiều người chọn giải pháp lưu trữ của họ theo nơi dữ liệu của họ hiện đang cư trú Đám mây đang dần trở nên phổ biến vì nó hỗ trợ các yêu cầu tính toán hiện tại của bạn và cho phép bạn sử dụng tài nguyên khi cần thiết.

Khoản đầu tư của bạn vào Big Data sẽ được đền đáp khi bạn phân tích và hành động trên dữ liệu của mình Có được sự rõ ràng mới với phân tích trực quan về các tập dữ liệu đa dạng của bạn Khám phá thêm dữ liệu để tạo ra những khám phá mới Chia sẻ những phát hiện của bạn với những người khác Xây dựng mô hình dữ liệu bằng máy học và trí tuệ nhân tạo Đưa dữ liệu của bạn vào hoạt động.

So sánh Big Data và Data mining (Khai thác dữ liệu)

Big Data và Data Mining là hai khái niệm quan trọng trong lĩnh vực quản lý dữ liệu và phân tích dữ liệu Dưới đây là một so sánh giữa chúng:

Big Data: Big Data đề cập đến việc xử lý và phân tích dữ liệu lớn, có kích thước lớn và phức tạp Nó không chỉ giới hạn trong việc lưu trữ mà còn bao gồm cả khả năng xử lý và phân tích dữ liệu có kích thước lớn.

Data Mining: Data Mining là quá trình khám phá các mẫu tiềm ẩn, thông tin hữu ích hoặc tri thức từ dữ liệu có cấu trúc hoặc không cấu trúc.

Mục tiêu chính của Big Data là quản lý và xử lý dữ liệu lớn để giúp các tổ chức hiểu rõ hơn về môi trường kinh doanh của họ, đưa ra quyết định dựa trên thông tin và tối ưu hóa hiệu suất Big Data cho phép các tổ chức đưa ra quyết định sáng suốt hơn, dự đoán xu hướng và cải thiện các hoạt động kinh doanh của họ bằng cách khai thác dữ liệu lớn và rút trích thông tin có giá trị.

Data Mining: Mục tiêu chính của Data Mining là phát hiện mẫu tiềm ẩn, quy luật, và thông tin hữu ích từ dữ liệu để hỗ trợ quyết định và dự đoán.

Big Data: Xử lý dữ liệu ở quy mô lớn, thường là dữ liệu có kích thước từ terabytes đến petabytes.

Data Mining: Có thể áp dụng trên các bộ dữ liệu lớn, nhưng không nhất thiết phải là dữ liệu lớn Các kỹ thuật Data Mining có thể được sử dụng trên dữ liệu có kích thước nhỏ hơn.

Big Data: Sử dụng các công nghệ như Hadoop, Spark để lưu trữ và xử lý dữ liệu lớn, cũng như các công nghệ in-memory để tối ưu hóa hiệu suất.

Data Mining: Sử dụng các thuật toán máy học, thống kê, khai phá dữ liệu để khám phá thông tin từ dữ liệu.

Big Data: Thường được sử dụng để phân tích xu hướng thị trường, dự đoán nhu cầu của khách hàng, tối ưu hóa quy trình kinh doanh.

Data Mining: Có thể được áp dụng trong nhiều lĩnh vực như tiếp thị, y tế, tài chính để phân tích mô hình và dự đoán.

Big Data: Là nguồn cung cấp dữ liệu cho Data Mining Dữ liệu lớn cung cấp nguồn dữ liệu phong phú để áp dụng các kỹ thuật khai thác dữ liệu.

Data Mining: Cần có dữ liệu để phân tích, và dữ liệu lớn cung cấp một nguồn cung cấp dữ liệu lớn để áp dụng các kỹ thuật khai thác dữ liệu.

=>Tóm lại, Big Data tập trung vào quản lý và xử lý dữ liệu lớn, trong khi Data Mining

Bộ công cụ và bộ kĩ năng cho Big Data trong ngân hàng

1.7.1 Bộ công cụ cho Big Data trong ngân hàng

Hadoop được tạo ra như một giải pháp Dữ liệu lớn tiên phong giúp xử lý khối lượng khổng lồ dữ liệu có cấu trúc, phi cấu trúc và bán cấu trúc Nó là một khung phân tán để lưu trữ dữ liệu và chạy các ứng dụng trên các cụm phần cứng thông dụng Khi được giới thiệu lần đầu tiên vào năm 2006, nó gần như ngay lập tức gắn liền với Dữ liệu lớn Hadoop được tạo thành từ bốn phần chính:

Yet Another Resource Negotiator, hay YARN, là một chương trình lên lịch thực thi các công việc trên các nút cụm và gán tài nguyên hệ thống cho chúng.

Hadoop MapReduce, một công cụ xử lý hàng loạt tích hợp sẵn giúp phân chia các phép tính lớn và chạy chúng trên các nút khác nhau để cân bằng tốc độ và tải; và Hadoop MapReduce, một công cụ xử lý hàng loạt tích hợp sẵn giúp phân chia các phép tính lớn và chạy chúng trên các nút khác nhau để cân bằng tốc độ và tải; và Hadoop MapReduce.

HDFS (Hệ thống tệp phân tán Hadoop) chia dữ liệu thành các khối để lưu trữ trên các nút cụm, sử dụng cơ chế sao chép để ngăn ngừa mất dữ liệu và điều chỉnh việc truy cập dữ liệu.

Hadoop Common là tập hợp các tiện ích và thư viện mà mọi người đều có thể sử dụng.

Trường hợp điển hình: Công cụ dữ liệu lớn dựa trên Hadoop để phân tích thống kê sử dụng thiết bị

Airflow là phần mềm quản lý quy trình công việc cho các hệ thống dữ liệu lớn, cho phép lên lịch và chạy các đường ống dữ liệu phức tạp Với giao diện người dùng ứng dụng web, Airflow cung cấp khả năng trực quan hóa đường truyền dữ liệu, theo dõi trạng thái sản xuất và khắc phục sự cố Thiết kế mô-đun và có thể mở rộng của Airflow dựa trên khái niệm biểu đồ tuần hoàn có hướng (DAG), mô tả sự phụ thuộc giữa các nhiệm vụ trong quy trình công việc Ngoài ra, Airflow còn tích hợp sẵn các kết nối với các nền tảng đám mây chính và dịch vụ bên thứ ba.

Hive là phần mềm cơ sở hạ tầng kho dữ liệu sử dụng SQL để đọc, ghi và quản lý các tập dữ liệu khổng lồ trong các hệ thống lưu trữ phân tán Facebook đã phát minh ra nó, nhưng sau đó nó được mở nguồn cho Apache, công ty này vẫn tiếp tục phát triển và hỗ trợ nó.

Hive là một khung xử lý dữ liệu có cấu trúc hoạt động trên nền tảng Hadoop Nó được sử dụng để tóm tắt và phân tích dữ liệu cũng như truy vấn lượng dữ liệu khổng lồ Các nhà phát triển của Hive mô tả nó là có khả năng mở rộng, nhanh chóng và linh hoạt, mặc dù thực tế là nó không thể được sử dụng để xử lý giao dịch trực tuyến, cập nhật theo thời gian thực hoặc truy vấn hoặc quy trình cần truy xuất dữ liệu có độ trễ thấp Dưới đây là một số tính năng chính khác: một phương pháp tích hợp để hỗ trợ người dùng áp đặt cấu trúc trên các định dạng dữ liệu khác nhau; chức năng SQL thông thường để truy vấn và phân tích dữ liệu; và truy cập vào các tệp HDFS cũng như các tệp được lưu trữ trong các hệ thống khác, chẳng hạn như cơ sở dữ liệu Apache HBase.

Flink là một khung xử lý luồng dành cho các ứng dụng được nối mạng, hiệu suất cao và luôn khả dụng và đó là một dự án nguồn mở khác của Apache Nó có thể được sử dụng để xử lý hàng loạt, đồ thị và lặp lại, đồng thời cho phép tính toán trạng thái trên cả luồng dữ liệu hữu hạn và không giới hạn.

Flink là công cụ xử lý dữ liệu thời gian thực, có khả năng xử lý hàng triệu sự kiện với độ trễ thấp và thông lượng cao Nó cung cấp ba API cấp độ khác nhau để xây dựng các ứng dụng đa dạng, cùng với thư viện chuyên biệt cho việc xử lý sự kiện phức tạp, học máy và các ứng dụng dữ liệu lớn khác Đáng chú ý, Flink có bộ thư viện cho phép tính toán trong bộ nhớ, đồng thời truy cập lưu trữ đĩa khi cần thiết.

Iceberg là định dạng bảng mở để quản lý dữ liệu trong hồ dữ liệu, tách biệt tệp dữ liệu khỏi thư mục trong bảng Iceberg là dự án của Apache, được sử dụng rộng rãi để xử lý bảng dữ liệu khổng lồ lên đến hàng chục petabyte Định dạng bảng Iceberg tối ưu hóa cấu trúc phổ biến trong các công cụ dữ liệu như Hive, Presto, Spark và Trino Tính năng của Iceberg bao gồm: phân vùng dữ liệu ẩn, tiến hóa lược đồ và khả năng "du hành thời gian" để chạy truy vấn lặp lại bằng cách sử dụng cùng một ảnh chụp nhanh bảng.

Spark là một công cụ phân tích và xử lý dữ liệu trong bộ nhớ có thể chạy trên các cụm hoặc cụm độc lập do Hadoop YARN, Mesos và Kubernetes quản lý Nó có thể được sử dụng cho các ứng dụng hàng loạt và phát trực tuyến, cũng như xử lý đồ thị và học máy Tất cả đều có thể thực hiện được nhờ bộ sưu tập các mô-đun và thư viện được cài đặt sẵn sau đây:

Spark SQL, trình tối ưu hóa truy vấn SQL cho dữ liệu có cấu trúc;

Spark Streaming và Structured Streaming, hai mô-đun xử lý luồng;

MLlib, thư viện máy học với các kỹ thuật và công cụ; và GraphX, một API bổ sung hỗ trợ cho các ứng dụng đồ thị.

Kafka là một nền tảng phát trực tuyến sự kiện phân tán, chủ yếu được sử dụng cho các đường ống dữ liệu hiệu suất cao, phân tích phát trực tuyến, tích hợp dữ liệu và các ứng dụng quan trọng Về cơ bản, Kafka là một framework để lưu trữ, đọc và phân tích dữ liệu truyền phát ở dạng đơn giản nhất.Công nghệ tách các luồng dữ liệu khỏi hệ thống, cho phép các luồng dữ liệu được lưu trữ và tái sử dụng ở nơi khác Nó chạy trong môi trường phân tán và giao tiếp với các hệ thống và ứng dụng bằng giao thức mạng TCP hiệu suất cao Dưới đây là một số yếu tố quan trọng nhất của Kafka: một bộ năm API Java và Scala cơ bản;

14 khả năng chịu lỗi cho cả máy chủ và máy khách trong cụm Kafka; và khả năng mở rộng linh hoạt tới 1.000 "nhà môi giới" hoặc máy chủ lưu trữ trên mỗi cụm.

Storm là một hệ thống xử lý thời gian thực phân tán được thiết kế để xử lý các luồng dữ liệu không giới hạn một cách an toàn và nó cũng là một phần của công nghệ nguồn mở Apache Theo trang web của dự án, nó có thể được sử dụng để phân tích thời gian thực, học máy trực tuyến và tính toán liên tục, cũng như các hoạt động trích xuất, chuyển đổi và tải (ETL) Các yếu tố sau đây cũng có mặt trong một cơn bão:

Storm SQL, cho phép thực hiện các truy vấn SQL dựa trên các tập dữ liệu truyền trực tuyến;

API Trident và Streams, hai giao diện xử lý Storm cấp cao hơn; và phối hợp cụm bằng cách sử dụng Apache Zookeeper.

1.7.2 Bộ kỹ năng cho Big Data trong ngân hàng

Ngành phân tích kinh doanh và Dữ liệu lớn đang phát triển nhanh chóng, dự kiến đạt 274 tỷ đô la vào năm 2022 Điều này tạo ra nhu cầu cao về các nhà phân tích dữ liệu có chuyên môn kỹ thuật như tham gia đào tạo chuyên sâu Để thành công, họ cần sở hữu cả kỹ năng cứng và mềm, trong đó kỹ năng cứng thường thiên về kỹ thuật.

1 Trực quan hóa dữ liệu Khả năng sử dụng hình ảnh hoặc các bản vẽ khác để trình bày kết quả dữ liệu với mục tiêu là hiểu rõ hơn về những hiểu biết sâu sắc dựa trên dữ liệu

ĐẶC ĐIỂM VÀ ỨNG DỤNG CỦA BIG DATA TRONG LĨNH VỰC NGÂN HÀNG

Phân tích thói quen hành vi chi tiêu của khách hàng

Nhờ dữ liệu lớn, các ngân hàng có khả năng thu thập thông tin liên quan đến thói quen, hành vi chi tiêu và nguồn thu chủ yếu của khách hàng trong năm hoặc những dịch vụ mà khách hàng đang sử dụng diều này trở thành cơ sở giúp cho ngân hàng năm bắt được những thông tin quan trọng, có một góc nhìn sâu hơn về khác hàng, cho phép ngân hàng tạo ra các chiến lược khuyễn mãi cá nhân hóa hơn, dựa trên hành vi và nhu cầu của từng người sử dụng

Nền tảng dữ liệu này cũng là cơ sở để ngân hàng đánh giá rủi ro một cách chính xác, thẩm định khả năng vay vốn của khách hàng, và mở rộng danh mục dịch vụ theo hướng phù hợp. Bên cạnh đó, nhờ nắm được thông tin về nguồn tiền nhàn rỗi của khách hàng, ngân hàng có thể tận Áp dụng các chức năng sàng lọc thông tin, ví dụ như, khi lọc ra thời điểm dịp lễ hay mùa lễ và điều kiện vĩ mô (lạm phát, tỷ lệ thất nghiệp…) mà nhân viên ngân hàng có thể hiểu được nguyên nhân của biến động trong thu nhập hay chi tiêu của dụng thu hút tiền gửi để thực hiện các hoạt động đầu tư.

2.2.Xác định phân khúc khách hàng và đánh giá hồ sơ

Phân khúc khách hàng là một trong những hoạt động quan trọng nằm trong chiến lược marketing và thiết kế sản phẩm của ngân hàng

Những thông tin mà ngân hàng thu thập được về nhu cầu, thói quen hay xu hướng tiêu dùng với xác định các loại hình dịch vụ, kênh giao dịch được khách hàng ưu tiên (ví dụ khách hàng muốn gửi tiết kiệm hay muốn đầu tư các khoản vay) được hoàn tất thì các ngân hàng sẽ có được một cơ sở dữ liệu phục vụ cho quá trình phân khúc, phân loại khách hàng đưa ra những dịch vụ phù hợp với từng đối tượng.

Big Data sẽ cung cấp cho các ngân hàng những hiểu biết, kiến thức chuyên môn sâu về nhu cầu tiềm ẩn bên trong, thói quen và xu hướng chi tiêu của khách hàng, trợ giúp cho nhiệm vụ xác định nhu cầu và mong muốn của họ.

Bằng cách nắm các thông tin liên quan đến giao dịch, ngân hàng có thể xác định được khách hàng của mình thuộc các nhóm nào, ví dụ nhóm có chi tiêu dễ dàng, nhóm nhà đầu tư thận trọng, nhóm thanh toán nợ nhanh chóng, nhóm khách hàng trung thành… Bên cạnh đó, biết được hồ sơ cá nhân của tất cả các khách hàng giúp ngân hàng đánh giá chi tiêu và thu nhập dự kiến trong tháng tới và lập kế hoạch chi tiết để đảm bảo lợi nhuận cho chính tổ chức và lợi ích cho chính khách hàng.

Ví dụ: McKinsey nhận thấy rằng việc sử dụng dữ liệu để đưa ra quyết định tốt hơn có thể tiết kiệm tới 15-20% ngân sách tiếp thị của bạn Tính đến việc các ngân hàng chi trung bình 8% tổng ngân sách cho tiếp thị, việc khai thác dữ liệu lớn có vẻ là một cơ hội tuyệt vời để không chỉ tiết kiệm mà còn tạo thêm doanh thu thông qua các chiến lược tiếp thị có mục tiêu cao.

Sử dụng dữ liệu lớn cho phép bạn có cái nhìn sâu sắc về nhu cầu của khách hàng, xác định những sai sót trong mục tiêu sản phẩm và tìm ra cách tốt nhất để khắc phục những vấn đề đang nảy sinh.

Barclays đã sử dụng cái gọi là “lắng nghe xã hội”, tức là phân tích cảm tính, để tìm ra những hiểu biết sâu sắc có thể hành động từ hoạt động của người dùng trên mạng xã hội.

Khi công ty ra mắt ứng dụng di động, nhiều người không hài lòng với việc người dùng dưới

18 tuổi không thể chuyển hoặc nhận tiền Những khách hàng không hài lòng đã phản ứng bằng cách bày tỏ sự thất vọng của họ trên mạng xã hội.

Ngay sau khi lỗi này được Barclays xác định thông qua dữ liệu thu thập được, công ty đã khắc phục bằng cách cho phép người dùng từ 16 tuổi trở lên truy cập vào toàn bộ tính năng của ứng dụng.

Marketing cá nhân hóa

Marketing cá nhân hóa là bước tiến quan trọng sau khi xác định phân khúc khách hàng Ngân hàng sử dụng thông tin này để nhằm đến đối tượng mục tiêu dựa trên thói quen chi tiêu cá nhân của họ. ùng với đó các ngân hàng sẽ có cái nhìn bao quát hơn về các nhu cầu của người dùng, những mong muốn của họ thông qua việc kết hợp dữ liệu phi cấu trúc từ mạng xã hội và dữ liệu của giao dịch

Thông qua những thông tin này, ngân hàng thiết kế những chiến dịch marketing tối ưu, ví dụ (vay vốn với lãi xuất thấp, áp dụng các trương trình khuyến mãi dể nhận được phản hồi tích cực từ khác hàng), ngân hàng tạo ra những ưu đãi đáp ứng mong muốn của khách hàng.

Sử dụng tiếp thị qua email giúp doanh nghiệp tăng tỷ lệ phản hồi và xây dựng mối quan hệ bền chặt với khách hàng Ngân hàng là một ví dụ điển hình về việc sử dụng thành công công cụ này để tiếp cận khách hàng và cung cấp thông tin cập nhật về các sản phẩm, dịch vụ của họ.

18 nhất về những dịch vụ cho vay ngắn hạn với lãi suất vừa phải hay gửi tiết kiệm với lãi suất hấp dẫn, hoặc các chương trình ưu đãi khác,…

Nâng cao chất lượng dịch vụ chăm sóc khách hàng

Theo Oracle, 84% giám đốc điều hành khẳng định rằng khách hàng mong muốn trải nghiệm được cá nhân hóa Khảo sát cũng chỉ ra rằng việc cung cấp những gì khách hàng cần có thể gia tăng doanh thu hàng năm lên tới 18%.

Khách hàng góp phần quan trọng vào việc cải thiện dịch vụ ngân hàng bằng cách phản hồi thông tin qua nhiều kênh thông tin như Zalo, Facebook và biểu mẫu sau mỗi lần nhận tư vấn dịch vụ từ trung tâm chăm sóc khách hàng hay thực hiẹn giao dịch

Từ dữ liệu lớn, nhân viên tư vấn có thể nhanh chóng giải đáp thắc mắc của khách hàng thông qua việc thu thập, sàng lọc và phân tích phản hồi của khách hàng.

Ngân hàng cũng có thể ngăn chặn những tin đồn gây thiệt hại đến hoạt động kinh doanh nhanh chóng lập kế hoạch cải tiến xây dựng niềm tin từ khách hàng, tạo nên vị thế thương hiệu vững mạnh và thu hút sự quan tâm từ thị trường.

Thay đổi cách thức cung cấp dịch vụ đến khách hàng

Hệ thống Big Data là nền tảng liên kết nhiều chức năng, nhằm hỗ trợ các đơn vị vận hành đưa ra quyết định hợp lý Hệ thống này phân tích dữ liệu giao dịch của khách hàng, cung cấp thông tin quan trọng giúp người dùng đưa ra lựa chọn phù hợp.

Bất cứ khi nào tên một khách hàng hoặc số tài khoản được nhập vào hệ thống, hệ thống BigData sẽ hỗ trợ sàng lọc tất cả các dữ liệu và chỉ truyền đi hay cung cấp các dữ liệu được yêu cầu để phục vụ cho quá trình phân tích. Điều này cho phép các ngân hàng tối ưu hóa quy trình làm việc, rút ngắn được cả thời gian và tiết kiệm chi phí Big Data cũng cho phép các tổ chức xác định và khắc phục các vấn đề trước khi khách hàng bị ảnh hưởng.

Ngăn chặn các hành vi lừa đảo, vi phạm pháp luật

Một trong những vấn đề nan giải lớn nhất mà ngành ngân hàng phải đối mặt là gian lận, tội phạm trong tín dụng Big Data sẽ giúp cho ngân hàng đảm bảo rằng không có giao dịch trái phép nào được thực hiện, đảm bảo mức độ an toàn, tiêu chuẩn bảo mật của toàn bộ ngành nâng cao.

Nhờ vào dữ liệu về lịch sử giao dịch và hồ sơ tín dụng của khách hàng, ngân hàng sẽ có thể xác định và nhận được cảnh báo nếu có điều gì bất thường xảy ra trong quá trình hoạt động, cung cấp dịch vụ đến khách hàng.

Ví dụ: Một khách hàng nào đó thường thanh toán chi tiêu cho sinh hoạt hằng ngày hoặc gửi tiết kiệm trong tài khoản lấy lãi nhưng bất chợt lại rút toàn bộ số tiền mình có trong tài khoản qua ATM, điều này có nghĩa là thẻ có thể đã bị mất cắp và đang được sử dụng Nhân viên ngân hàng sẽ gọi điện đến chủ tài khoản hoặc thông báo đến khách hàng bằng bất kỳ hình thức nào để xác minh lại giao dịch đó một cách rõ hơn.Xem đây có đang là giao dịch hợp pháp hay không?

Vậy, việc phân tích dữ liệu giao dịch lịch sử và làm cơ sở để kiểm tra tính hợp pháp, an toàn bảo mật của các giao dịch hiện tại sẽ giảm thiểu được hành vi vi phạm pháp luật có thể xảy ra.

Các ngân hàng khai thác Big Data để phân biệt giữa các giao dịch hợp pháp hay không bằng cách áp dụng các thuật toán phân tích dữ liệu và “học máy” Các hệ thống phân tích sẽ tự động phát hiện, và đề xuất các hành động ngay lập tức, chẳng hạn như chặn các giao dịch bất

20 thường, hành vi lừa đảo trước khi nó xảy ra để đảm bảo lợi ích của khách hàng hay là lợi nhuận của chính ngân hàng.

Kiểm soát rủi ro, tuân thủ luật pháp và minh bạch trong báo cáo tài chính

Trong ngành tài chính Big Data, phân tích Big Data cũng cho phép bạn nhận thức được các mối đe dọa tiềm ẩn của công ty bạn Bạn cũng có thể tư vấn cho họ về tình trạng rủi ro của họ Các khoản đầu tư rủi ro có thể dễ dàng được xác định bằng cách sử dụng kỹ thuật học máy Đây là cơ hội quan trọng để tránh đưa ra những quyết định tài chính sai lầm và xem xét lại việc tham gia vào một thảm họa tài chính.

Ngoài phát hiện các hành vi phạm tội, bảo vệ lợi ích của người tiêu dùng, các ngân hàng ứng dụng Big Data để đo lường, kiểm soát rủi ro trong thực hiện các giao dịch bằng cổ phiếu với những nhà đầu tư và kiểm tra hồ sơ vay của khách hàng.Dĩ nhiên tất cả phải dựa trên sự phân tích có kết quả từ mọi dữ liệu lịch sử liên quan.

Ngoài ra các thuật toán Big Data còn giúp giải quyết các vấn đề về tuân thủ quy định pháp luật về kế, kiểm và báo cáo tài chính minh bạch nhằm hợp lý hoá các hoạt động của tổ chức từ đó giảm được chi phí quản lý.

Hệ thống Big Data thu thập và lưu trữ các dữ liệu lớn giúp cho ngân hàng tiến hành phân tích một cách nhanh chóng khi có các dấu hiệu rủi ro xảy ra, rồi đưa ra các biện pháp xử lý Big Data có một vai trò tất yếu trong việc phối hợp giữa các bộ phận, phòng, ban và yêu cầu xử lý dữ liệu của ngân hàng vào một hệ thống trung tâm; qua đó, hỗ trợ kiểm soát, ngăn chặn vấn đề mất dữ liệu, giảm rủi ro và gian lận.

Bán chéo thêm các dịch vụ

Dựa vào cơ sở dữ liệu ngân hàng có được, ngân hàng có thể giữ chân hoặc thu hút thêm khách hàng bằng cách giới thiệu thêm các dịch vụ khác

Ví dụ, ngân hàng có thể đề xuất các khoản vay ngắn hạn cho các khách hàng bình thường cho việc chi tiêu hàng ngày của họ hoặc các khoản vay đáp ứng nhu cầu thanh toán ngắn hạn đối với doanh nghiệp

Phân tích hồ sơ khách hàng chi tiết, ngân hàng có thể bán chéo các sản phẩm, dịch vụ khác đi kèm với những ưu đãi phù hợp với nhu cầu của họ.

Tham gia vào việc kiểm soát đánh giá và nâng cao hiệu quả làm việc của nhân viên

Hệ thống Big Data hỗ trợ tổng hợp phân tích, đánh giá và truyền tải những dữ liệu về hiệu suất làm việc của nhân viên

Trước đây, để thu thập các thông tin này phải cần rất nhiều công đoạn mang tính thủ công, thì nay với sự phát triển của công nghệ, Big Data sẽ xử lý được các công việc này một cách nhanh chóng hiệu quả Kết quả phân tích sẽ giúp các lãnh đạo có cái nhìn về tình trạng chung về các nhân viên khi làm việc, đặc biệt là xem xét mức độ hài lòng của ngân viên đối với môi trường làm việc cũng như là những phúc lợi mà ngân hàng dành cho họ

Các công cụ của Big Data khai thác tất cả dữ liệu đều ở thời gian thực, do đó khi giải pháp được đưa ra sẽ mang tính phù hợp và tạo nên những sự thay đổi

Các giải pháp Big Data trong ngân hàng cho phép các công ty thu thập, hiểu và chia sẻ các số liệu hiệu suất của chi nhánh (cũng như từng nhân viên) giữa các phòng ban trong thời gian thực Điều này có nghĩa là tầm nhìn tốt hơn về các hoạt động hàng ngày và khả năng nâng cao để chủ động giải quyết mọi vấn đề.

Ngoài ra đo lường hiệu suất làm việc của cá nhân của các ngân hàng, mà còn tinh thần đồng đội, sự tương tác giữa các ban và văn hóa tổng thể của công ty Nhân viên sẽ giảm được thời gian dành cho các công việc gồm nhiều quy trình phức tạp mang tính thủ công bằng cách dựa vào hệ thống Big Data gồm các phần mềm đã được lập trình sẵn để giải quyết các công việc ấy một cách nhanh chóng và chính xác Từ đó nhân viên có thời gian dành nhiều cho các công việc, nhiệm vụ khó hơn, cấp bách từ cấp trên giao xuống.

Dự đoán xu hướng tài chính

Một trong những lợi thế chính của Dữ liệu lớn đối với ngân hàng là khả năng dự đoán các xu hướng trong tương lai trước khi chúng xảy ra Bạn có thể nhìn thấy những xu hướng tiêu cực và chọn không đi theo chúng Bạn cũng có thể tận dụng xu hướng tích cực và đi trước đối thủ cạnh tranh Hơn nữa, việc có trong tay dữ liệu tài chính cụ thể cho phép bạn đưa ra các quyết định

22 đầu tư, dịch vụ và sản phẩm trong tương lai Trên thực tế, phân tích dữ liệu tài chính cho phép bạn hỗ trợ khách hàng của mình trong các quy trình của công ty họ.

Tự động hóa các quy trình chính

Bạn có thể quản lý mọi quy trình tài chính với tốc độ, hiệu suất và giá trị cao hơn với sự trợ giúp của tự động hóa Các nhà phân tích, người giám sát và đồng nghiệp có thể hoàn thành bất kỳ hoạt động đơn giản nào nhanh hơn, tốt hơn và hiệu quả hơn đáng kể so với các nhân viên khác

Nhờ tự động hóa tiên tiến, các ngân hàng có thể tiết kiệm đáng kể chi phí và giảm nguy cơ thất bại bằng cách loại bỏ yếu tố con người khỏi một số quy trình quan trọng.

Ví dụ: JP Morgan Chase & Co là một trong những công ty tiên phong về tự động hóa trong ngành dịch vụ ngân hàng Công ty hiện đang sử dụng một số chương trình trí tuệ nhân tạo và máy học để tối ưu hóa một số quy trình của họ, bao gồm giao dịch thuật toán và giải thích các thỏa thuận cho vay thương mại.

Một trong những chương trình của nó, được gọi là LOXM, dựa trên dữ liệu lịch sử được rút ra từ hàng tỷ giao dịch cho phép họ giao dịch cổ phiếu “ở tốc độ tối đa và ở mức giá tối ưu”, Business Insider đưa tin Quá trình này đã được chứng minh là hiệu quả hơn nhiều so với cả giao dịch thủ công và tự động được sử dụng trước đó và mang lại khoản tiết kiệm đáng kể cho công ty.

Một sáng kiến tự động hóa dựa trên dữ liệu khác của JP Morgan Chase được gọi là COIN Thuật toán học máy, được hỗ trợ bởi mạng đám mây riêng của công ty, được sử dụng để giảm thời gian cần thiết để xem xét tài liệu: nhiệm vụ này trước đây cần khoảng 360.000 giờ làm việc, giờ chỉ mất vài giây để hoàn thành.

THÁCH THỨC, HẠN CHẾ VÀ GIẢI PHÁP KHI ỨNG DỤNG BIG

Thách thức, hạn chế khi ứng dụng Big Data ở trong lĩnh vực ngân hàng

3.1.1.Khó tích hợp các hệ thống kế thừa

Trước khi vận hành Big Data, doanh nghiệp cần tiến hành tích hợp tất cả các nguồn dữ liệu khác nhau lên hệ thống Thế nhưng, đại đa số doanh nghiệp có thể đã lưu trữ dữ liệu trên nhiều ứng dụng hoặc phần mềm khác nhau qua nhiều năm Tuy nhiên, khi nói đến dữ liệu lớn, mọi thứ thậm chí còn tồi tệ hơn: hầu hết các hệ thống cũ không có khả năng xử lý khối lượng công việc ngày càng tăng Việc cố gắng thu thập, lưu trữ và phân tích lượng dữ liệu cần thiết bằng cơ sở hạ tầng lỗi thời có thể gây nguy hiểm cho sự ổn định của toàn bộ hệ thống Do đó, các tổ chức phải tăng khả năng xử lý hoặc xây dựng lại hoàn toàn hệ thống của mình để đáp ứng thách thức

3.1.2.Big data 4.0 liên tục thay đổi

Big Data 4.0 là xu hướng đang tác động mạnh mẽ đến kinh doanh, song việc sử dụng Big Data cũng gặp khó khăn trong việc dữ liệu luôn thay đổi liên tục Khó khăn này gây trở ngại cho doanh nghiệp khi cần dùng dữ liệu mới nhất để đưa ra quyết định hoặc cải thiện hoạt động Do đó, doanh nghiệp cần liên tục cập nhật các xu hướng mới của Big Data để khai thác triệt để lợi ích của công nghệ này.

3.1.3.Dữ liệu lớn đang trở nên không thể quản lý

Với rất nhiều loại dữ liệu khác nhau và khối lượng tổng hợp của chúng không có gì ngạc nhiên khi các doanh nghiệp phải vật lộn để theo kịp Điều này càng trở nên rõ ràng hơn khi cố gắng tách dữ liệu hữu ích khỏi dữ liệu vô ích.

Mặc dù tỷ lệ dữ liệu có khả năng hữu ích đang tăng lên, nhưng vẫn còn rất nhiều dữ liệu không liên quan cần sắp xếp Điều này có nghĩa là các doanh nghiệp phải chuẩn bị và củng cố các phương pháp của họ để phân tích nhiều dữ liệu hơn nữa và nếu có thể, hãy tìm một ứng dụng mới cho dữ liệu trước đây được cho là không liên quan.

3.1.4.Đòi hỏi thay đổi văn hóa doanh nghiệp Đòi hỏi thay đổi văn hóa doanh nghiệp là một trong những vấn đề khác khi sử dụng Big Data. Để sử dụng Big Data, doanh nghiệp cần phải tạo ra một văn hóa mới về cách quản lý dữ liệu và cách sử dụng dữ liệu để đạt được mục tiêu của họ Điều này có thể gây ra sự khó chịu cho những người chưa quen với công nghệ mới này Khó khăn này dễ thấy trong thực tiễn, khi nhân viên đã quen với lối làm việc truyền thống, việc thích ứng cần cả quá trình dài Ví dụ: Trong cuộc khảo sát thực tế của New Vantage đã chỉ ra rằng, chỉ có 32,4% doanh nghiệp thành công trong việc thay đổi văn hóa doanh nghiệp theo hướng hiện đại mới.

3.1.5.Rủi ro an ninh mạng

Một trong những khó khăn chính khi sử dụng Big Data là bảo mật và rủi ro an ninh mạng Khi lưu trữ và xử lý lượng lớn dữ liệu, cần phải đảm bảo rằng dữ liệu được bảo vệ chặt chẽ khỏi truy cập trái phép hoặc tấn công mạng Nếu không, dữ liệu có thể bị rò rỉ hoặc sử dụng cho mục đích xấu.

Để bảo vệ dữ liệu lớn một cách hiệu quả, các biện pháp bảo mật toàn diện là điều cần thiết Mã hóa dữ liệu, sử dụng tường lửa và bảo vệ mạng, xác thực người dùng và giám sát hệ thống đảm bảo tính bảo mật và toàn vẹn của dữ liệu Những biện pháp này giúp ngăn chặn truy cập trái phép, phát hiện kịp thời vi phạm và đảm bảo tính liên tục của doanh nghiệp.

3.1.6.Thiếu chuyên gia công nghệ gây cản trở trong việc ứng dụng Big Data Industry 4.0.

Công nghệ 4.0 phát triển, sự can thiệp của máy móc, các thiết bị tự động hóa càng nhiều Thế nhưng, nếu không có con người vận hành và quản lý, tất cả vật dụng hiện đại đến đâu cũng khó có thể hoạt động và đem lại hiệu quả tốt nhất Đối với Big Data cũng vậy.

Việc thuê chuyên gia công nghệ để vận hành Big Data mất nhiều thời gian và chi phí đầu tự cao Xử lý toàn bộ Big Data trước đó của doanh nghiệp là vấn đề không hề dễ đối với bất kỳ chuyên gia nào Đặc biệt, chính sự thiếu hụt nhân lực chuyên môn đã tạo ra thách thức trong việc ứng dụng Big Data.

Giải pháp khi ứng dụng Big Data trong lĩnh vực ngân hàng

Theo nghiên cứu, 71% tổ chức tài chính ngân hàng sử dụng phân tích thông tin và dữ liệu tài chính có lợi thế cạnh tranh so với đối thủ Các ngân hàng ngày càng nhận thức được tầm quan trọng của việc hợp tác với những người chơi có uy tín trên thị trường để nhúng Big Data cho các công cụ ngân hàng vào các lĩnh vực kinh doanh của họ, nơi tác động sẽ được cảm nhận rõ rệt nhất, vì thị trường toàn cầu về phân tích Big Data trong ngân hàng dự kiến sẽ tăng trưởng với tốc độ tỷ lệ trên 22% mỗi năm cho đến năm 2026

Trở thành định hướng dữ liệu là một sự thay đổi mang tính đột phá và hiếm khi các tổ chức tiếp cận nó với sự chuẩn bị đầy đủ Theo quy định, phải mất rất nhiều công việc sơ bộ để phát triển một chiến lược triển khai dữ liệu lớn rõ ràng Dưới đây là danh sách những cân nhắc quan trọng để giúp bạn triển khai sáng kiến dữ liệu lớn tiếp theo của mình.

1 Bạn sẽ sử dụng loại dữ liệu nào để thúc đẩy tổ chức của mình hướng tới những thay đổi mong muốn?

2 Dữ liệu nào không liên quan đến mục tiêu của bạn và có thể bị loại bỏ?

3 Dữ liệu không hoạt động hoặc di chuyển qua mạng và được sử dụng liên tục?

4 Chính xác thì dữ liệu này sẽ giúp bạn đạt được mục tiêu như thế nào?

Xác định khoảng trống dữ liệu

Khi bạn bắt đầu với dự án ban đầu của mình, hãy xác định dữ liệu chính bạn cần để bắt đầu và chạy dự án Những số liệu nào bạn sẽ cần để có được một bức tranh rõ ràng? Bạn sẽ thu thập chúng như thế nào? Biết dữ liệu nào bạn sẽ thu thập sẽ giúp bạn thực hiện các điều chỉnh quan trọng cho quy trình của mình.

Tinh chỉnh dữ liệu hiện có của bạn

Chất lượng dữ liệu luôn là rào cản thường gặp trong quá trình triển khai các giải pháp phân tích dữ liệu lớn Dữ liệu kế thừa thường xuyên nằm rải rác ở nhiều cơ sở dữ liệu khác nhau hoặc ở các định dạng không tương thích với phần mềm dữ liệu hiện đại Việc tổng hợp dữ liệu thành một nhóm dữ liệu duy nhất là dự án mất nhiều thời gian, đôi khi có thể kéo dài đến hàng tháng Tuy nhiên, đây là điều cần thiết nếu bạn muốn hưởng lợi từ trải nghiệm độc đáo của tổ chức mình.

Chọn phần mềm phân tích dữ liệu

Sau khi bạn đã quyết định nhu cầu dữ liệu của mình, bây giờ bạn có thể bắt đầu chọn phần mềm phân tích dữ liệu của mình Một trong những điều quan trọng cần tìm trong giải pháp bạn lựa chọn là khảnăng mở rộng – nó sẽ mở rộng đến mức nào nếu bạn chọn mở rộng các dự án dữ liệu của mình sang các khía cạnh khác trong tổ chức của mình? Một điều khác cần tính đến là khả năng trực quan hóa dữ liệu: phần mềm được đề cập có cung cấp thông tin chi tiết ở định dạng rõ ràng và dễ hiểu không?

Trong nhiều trường hợp, doanh nghiệp của bạn có thể yêu cầu một giải pháp phân tích dữ liệu được thiết kế riêng, phù hợp hoàn toàn với hệ sinh thái của mình Do đó, bạn cần tìm một nhà cung cấp đáng tin cậy để xây dựng một nền tảng phân tích dữ liệu tùy chỉnh, đáp ứng nhu cầu cụ thể của tổ chức bạn.

Kiểm tra để cải thiện Sau khi bạn đã triển khai giai đoạn đầu của dự án phân tích dữ liệu, hãy đánh giá các thay đổi và kết quả Bạn có hài lòng với kết quả dự án của mình không? Hãy suy nghĩ về những gì cần được cải thiện để tối đa hóa hiệu quả của các quy trình dựa trên dữ liệu

26 của bạn Lý tưởng nhất là nhà cung cấp phân tích dữ liệu của bạn nên cung cấp hỗ trợ kỹ thuật và trợ giúp trong việc điều chỉnh nền tảng dữ liệu theo nhu cầu thay đổi của bạn.

Ngày đăng: 19/06/2024, 18:04

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w