2.2. Khảo sát về deepfake video trên các trang mạng xã hội
2.2.4 Một số đánh giá
Qua việc khảo sát các deepfake video đăng tải về nội dung và hình thức trên hai trang mạng xã hội Facebook và Youtube trong thời gian 12/2017 đến 12/2019, tác giả rút ra một số đánh giá chung như sau:
Có nhiều điểm sáng về chất lượng hình ảnh, âm thanh
Cùng với sự phát triển không ngừng của khoa học kỹ thuật, trí tuệ nhân tạo đang biến những điều khơng tưởng thành hiện thực. Nó phát triển đáng kinh ngạc, dần thay thế luôn cả con người. Công nghệ deepfake là một trong những thành quả lớn của trí tuệ nhân tạo. Qua khảo sát cho thấy, có nhiều deepfake video có chất lượng hình ảnh đẹp, độ phân giải cao. Chất lượng hình ảnh của các deepfake video không ngừng được tăng cường theo hướng chuyên sâu, chuyên nghiệp, khó có thể phát hiện bằng mắt thường,...
Những điểm sáng về mặt cơng nghệ xây dựng hình ảnh khn mặt của nhân vật liên tục có những bước tiến đáng kể. Các deepfake video thu hút người xem bằng những hình ảnh giả mạo chuyên nghiệp, bài bản. Những bước tiến về mặt công nghệ trong các deepfake video có thể nhìn thấy ngay được qua ánh mắt, chuyển động khuôn miệng trên khuôn mặt của nhân vật được làm giả. Chất lượng hình ảnh, góc quay đa dạng, đẹp mắt, kỹ xảo tiến bộ… là những tiến bộ về mặt công nghệ cần được ghi nhận của các deepfake video.
Âm thanh trong các deepfake video có độ chân thật cao, người bình thường nghe khó có thể phát hiện là âm thanh giả. Âm sắc của các đoạn âm thanh giả mà công nghệ deepfake tạo ra rất giống với chất giọng của nhân vật giả mạo trong video. Mật độ và tần suất âm thanh giả tạo ra gần như hồn hảo, khơng có nhiều lỗi kỹ thuật. Đặc biệt, những âm thanh giả mạo này ghép rất trùng khớp với khẩu hình miệng trên khuôn mặt của nhân vật làm giả trong video. Sự giả mạo gần như tuyệt đối về phần hình và phần tiếng khiến cho các deepfake video có độ chân thực rất cao. Mặc dù hiện nay, các ứng dụng để tạo
sớm thay đổi. Siwei Lyu, giám đốc phịng thí nghiệm máy học của Đại học Suny Albany ở New York, Hoa Kỳ cho rằng “Trong một vài năm nữa, trí tuệ nhân tạo có thể bắt chước giọng nói của bất kỳ ai và nói ra những điều mà người đó chưa từng nói, đây là điều thực tế”[32].
Mang lại một số lợi ích trong một số lĩnh vực
Khi nhắc đến deepfake, chúng ta thường nghĩ ngay đến mối nguy hại của nó trong việc phát tán tin giả, làm xói mịn sự thật. Tuy nhiên, cơng nghệ này cũng có nhứng ứng dụng tích cực trong nhiều lĩnh vực như: làm phim, giáo dục, truyền thơng kỹ thuật số, giải trí, chăm sóc sức khỏe, các lĩnh vực kinh doanh khác nhau như thời trang, thương mại điện tử,...
Ngành công nghiệp điện ảnh có thể ứng dụng công nghệ này bằng nhiều cách như có thể tạo ra hình ảnh, tiếng nói kỹ thuật số cho các diễn viên khơng may qua đời trong q trình ghi hình. Các nhà làm phim có thể sử dụng cơng nghệ deepfake để tái tạo lại các cảnh kinh điển trong phim, tạo ra các bộ phim mới với sự tham gia của các diễn viên đã mất. Công nghệ deepfake cũng có thể lồng tiếng cho các bộ phim bằng bất kỳ ngôn ngữ nào. Trong chiến dịch nâng cao nhận thức về sốt rét toàn cầu năm 2019 với sự tham gia của diễn viên David Beckham đã phá vỡ các rào cản về ngôn ngữ thông qua một quảng cáo giáo dục sử dụng công nghệ deepfake để thay đổi hình ảnh và giọng nói để khiến David Beckham có thể nói đa dạng ngơn ngữ[33]. Tương tự, cơng nghệ deepfake có thể phá vỡ rào cản ngôn ngữ trong các cuộc họp, hội nghị trực tuyến bằng cách dịch lời nói và đồng thời thay đổi chuyển động của khuôn mặt và miệng để khiến mọi người như đang nói cùng một ngôn ngữ.
Công nghệ deepfake cho phép phát triển thế giới trò chuyện ảo, điều này sẽ giúp phát triển mối quan hệ và tương tác trực tuyến tốt hơn giữa con người và con người. Ngồi ra cơng nghệ này cịn có những ứng dụng tích cực trong các lĩnh vực xã hội và y tế. Deepfake có thể giúp mọi người vơi đi sự
mất mát khi những người thân yêu không may qua đời bằng cách tái tạo lại hình ảnh và giọng nói và đưa họ trở lại với cuộc sống thực tại. Hơn nữa, công nghệ này cịn có khả năng tái tạo lại chân tay của những người bị khuyết tật hoặc cho phép người chuyển giới nhìn rõ hơn về giới tính của họ. Đặc biệt hơn, deepfake cịn có thể giúp những người bị mắc bệnh Alzheimer nhớ lại những ký ức đã quên bằng cách xem lại những video tái tạo hình ảnh của chính họ trong quá khứ.
Các doanh nghiệp cũng có thể sử dụng cơng nghệ deepfake để quảng cáo thương hiệu và sản phẩm. Ví dụ: các thương hiệu thời trang có thể thể hiện những mẫu áo quần trên nhiều hình thể với màu da, chiều cao, trọng lượng khác nhau. Khách hàng có thể tải hình ảnh khn mặt của chính họ để ghép vào những hình thể mẫu để nhìn ngắm trước khi mua. Hiện nay đã có một số thương hiệu thời trang lớn đã áp dụng công nghệ deepfake quảng cáo sản phẩm và thương hiệu như: Givenchy fendi, Versace, Gucci, Burberry,… và đã có nhiều thành cơng lớn. Với khả năng trực quan hóa cao, cơng nghệ deepfake sẽ là một bước tiến lớn để các doanh nghiệp gia tăng lượng khách hàng và lợi nhuận.
Tác động đến tâm lý và hành động của cộng đồng mạng
Internet nói chung và mạng xã hội nói riêng đều là những phát minh tiềm năng lớn lao để phát triển vơ tận, ẩn giấu nhiều chương sách mới cịn chưa được khai thác nhằm mục đích chia sẻ, kết nối con người lẫn nhau trên toàn cầu. Đi kèm với những lợi ích mà Internet mang lại là những tác động tiêu cực, trong đó có vấn nạn tin tức giả mạo. Tuy nhiên, trong khi chưa kịp tìm ra phương pháp ngăn chặn những loại hình sơ khai nhất của tin tức giả mạo, mới đây cộng đồng mạng tiếp tục run sợ trước một cơn ác mộng trên Internet mang tên deepfake.
Internet. Mặc dù, những video này đã bị cộng đồng mạng phát hiện là giả mạo và diễn đàn Reddit đã đóng tính năng chia sẻ những video nói trên, song deepfake vẫn để lại sự lo lắng và hoang mang cho nhiều người dùng Internet. Nếu như deepfake ghép mặt nạn nhân vào các đoạn phim khiêu dâm, nhằm gây tai tiếng hoặc tăng lượt yêu thích trên các trang mạng xã hội, thì trong thời gian gần đây, các deepfake video trong nhiều lĩnh vực khác nhau đã xuất hiện ngày càng nhiều trên Internet. Điều đáng lo ngại nhất là đa số các deepfake video lan truyền trên Internet hiện nay đều chứa nội dung độc hại nhằm dụ dỗ, lôi kéo người tham gia như: khiêu dâm, xuyên tạc sự thật về chính trị để kích động bạo lực, khiêu khích chiến tranh, chia rẽ đồn kết dân tộc, tôn giáo,... Với đặc tính hấp dẫn, giật gân, lơi cuốn của các video này rất dễ làm cho người dùng Internet bị sa đà vào biển thơng tin giả hỗn loạn đó lúc nào mà không hay biết, làm cho họ giảm năng suất làm việc, tinh thần uể oải, sa sút. Đây chính là tác nhân làm ảnh hưởng nghiêm trọng đến sức khỏe, tâm sinh lý và việc hình thành, phát triển nhân cách, lối sống tốt đẹp của con người.
Tháng 12/2018, một video giả mạo được tung lên trang mạng xã hội Facebook, tuyên truyền về sức khỏe không tốt của Tổng thống Gabon Ali Bongo. Sau khi đoạn video này lan truyền trên mạng, người dân ở Gabon tỏ ra rất nghi ngờ về tình hình sức khỏe của Tổng thống, cộng thêm, việc chính phủ khơng đưa ra câu trả lời đã làm tăng thêm sự nghi ngờ, một số người thậm chí cịn nhận định rằng ông Gabon Ali Bongo đã chết. Hậu quả, một tuần sau khi video giả mạo này phát tán trên mạng, quân đội của Gabon đã thực hiện một cuộc đảo chính quân sự nhưng bất thành tại quốc gia châu Phi này. Vụ việc này đã cho thấy, một khi tâm lý của cộng đồng mạng bị tác động bởi những thơng tin xun tạc sự thật thì hậu quả sẽ khơng thể lường hết được.
Nghiêm trọng hơn, một khi các deepfake video hướng đến mục đích trả thù cá nhân, nhắm đến những đối tượng cá nhân cụ thể thì hậu quả càng trở
nên nghiêm trọng hơn. Vào tháng 4/2018, Rana Ayyub, một nhà báo điều tra tại Ấn Độ, được báo tin về video khiêu dâm ghép mặt của cô vào cơ thể một phụ nữ khác[34]. Khi cô biết được điều này, video đã được chia sẻ hàng ngàn lần trên Facebook, Twitter, WhatsApp, Ayyub. Cô từng đã đối mặt với rất nhiều lời dọa nạt, tấn công trên mạng, nhưng lần này thì khác. Ngay khi nhìn thấy video, Ayyub đã cảm thấy buồn nơn. Cơ khóc nhiều ngày, và phải nhập viện vì hoảng loạn. Khi tới đồn cảnh sát, cơ cảm thấy bị cười nhạo khi những người cảnh sát xem lại đoạn video. Cô chia sẻ: “Đoạn phim đã thực sự đánh gục tôi. Điều duy nhất tôi cảm thấy là phải chăng đây là hình ảnh mà mọi người nghĩ về tơi. Nó cịn đáng sợ hơn nhiều so với một lời đe dọa đánh đập. Nó khiến cho tơi vẫn cịn bị ảnh hưởng mãi về sau. Chẳng có gì có thể ngăn cản chúng xảy ra thêm một lần nữa”[34].
Trong bài viết “Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target” (Tạm dịch: Các video khiêu dâm giả mạo đang được vũ khí hóa để quấy rối và làm nhục phụ nữ: Mọi người đều là mục tiêu tiềm năng), đăng ngày 30/12/2018 trên tờ báo Washington Post, một người phụ nữ giấu tên cho biết cô đã từng là một nạn nhân của deepfake[20]. Khuôn mặt của cô bị khép vào cơ thể của một diễn viên khiêu dâm và cô chưa từng biết đến sự tồn tại của những khung hình này cho tới khi nó bị phát hiện trên mạng. Ngay khi bắt gặp video này, cô cảm thấy hoảng loạn và chóng mặt. Cơ khơng biết sẽ phải đối mặt với người thân, bạn bè, đồng nghiệp như thế nào nếu họ thấy chúng, liệu họ có tin đây chỉ là một video giả mạo. Cô chia sẻ: “Đấy là một cảm giác rất lạ. Bạn cảm thấy như bạn muốn xé bỏ tất cả mọi thứ khỏi Internet, nhưng bạn biết rõ điều đó là khơng thể”[35].
Hai nạn nhân bị ghép mặt vào video khiêu dâm nói trên đều là những minh chứng rõ ràng nhất cho thấy cơng nghệ deepfake có thể tác động và gây
thành viên cao cấp tại Học viện Brookings cho rằng: “Bởi vì chúng rất giống thực, deepfake có thể làm xáo trộn sự hiểu biết của chúng ta về sự thật theo nhiều cách”[36]. Các video được chỉnh sửa, sử dụng cơng nghệ có sẵn để mơ tả một cách rất giống thực một cái gì đó khác sự thật. Đó là một kỹ thuật được sử dụng để đưa những người nổi tiếng vào các video khiêu dâm mà họ khơng hề tham gia. Đối với các chính trị gia, điều đó có nghĩa là khiến họ nói những điều họ chưa bao giờ thực sự nói. Bằng cách khai thác thiên hướng tin tưởng vào độ tin cậy của bằng chứng mà người xem video có thể nhìn thấy tận mắt, người tạo ra các deepfake video có thể biến hư cấu thành sự thật rõ ràng. Và một khi người xem trở nên quen thuộc hơn với sự tồn tại của tin giả ẩn sâu, sẽ có một hiệu ứng tất yếu sau đó: sự suy yếu niềm tin vào tất cả các video, kể cả những video thật.
Thách thức báo chí thời cơng nghệ cao về vấn nạn tin giả
Bất cứ công nghệ nào phát triển quá nhanh đều gây ra những hậu quả không thể lường trước được. Với cách thức tinh vi và tốc độ nhanh chóng, deepfake có thể tận dụng để tạo nên những thơng tin giả có mức độ phủ sóng rất cao. Đây hoàn toàn là một thách thức ở tầm khác hẳn những vấn đề mà giới công nghệ từng gặp phải. Đồng thời, điều này cũng là một thách thức lớn đối với nền báo chí chính thống, rất có khả năng báo chí sẽ dần mất đi niềm tin của độc giả do tác động sâu sắc của deepfake video. So với những tin tức giả mạo truyền thống, deepfake đặt ra mối đe dọa lớn hơn vì nó khó phát hiện và xu hướng của cơng chúng hiện này là thường tin vào những gì mắt thấy tai nghe, những deepfake video hoàn toàn đáp ứng được những điều này.
Không chỉ chịu những tác động xấu của deepfake, báo chí đơi khi có thể trở thành nạn nhân của deepfake khi trở thành nguồn phát tán những video giả mạo này. Những áp lực thu hút bạn đọc mà các nhà báo hay các tịa soạn phải gồng mình chạy đua với tốc độ mạng xã hội đôi khi khiến họ bỏ qua khâu kiểm chứng thơng tin. Do đó, báo chí rất dễ sử dụng những thơng tin giả
mạo trong các deepfake video, dẫn đến cung cấp thông tin sai lệch, gây hoang mang trong dư luận xã hội, để lại hậu quả đối với xã hội và cơng chúng của mình.
Ngày 22/5/2019, một video bị chỉnh sủa ghi lại hình ảnh Chủ tịch Hạ viện Mỹ Nancy Pelosi đang phát biểu với dáng vẻ chậm chạp như đang say rượu được một trang chính trị có tên là WatchDog đăng tải trên trang mạng xã hội Facebook. Ngay lập tức, đoạn video này đã lan truyền với tốc độ chóng mặt, nhận về 2,4 triệu lượt xem, gần 47.000 lượt chia sẻ chỉ trong vòng 1 tuần đăng tải và trở nên phổ biến trên các trang mạng xã hội khác như Youtube, Twitter và Alphabet Inc[37]. Các nhà bình luận, bao gồm cả luật sư cá nhân của Tổng thống Donald Trump, Rudy Giulianni đã sử dụng đoạn video này để đặt câu hỏi về năng lực và trạng thái tinh thần của bà Pelosi. Trong một bài đăng đã bị xóa trên Twitter, luật sư Rudy Giuliani đã chia sẻ video giả mạo này và viết: “Điều gì khơng ổn với Nancy Pelosi? Bài phát biểu của bà ấy rất kỳ qi”. Sau đó, ơng Giuliani đã phải xin lỗi trên Twitter vì đã chia sẻ video giả mạo này[38].
Nghiêm trọng hơn, một số cơ quan báo chí cũng đã dính bẫy video giả mạo này. Fox Business – một kênh tin tức kinh doanh truyền hình trả tiền của Mỹ, thuộc sở hữu của bộ phận Fox News Media của Fox Corporation đã đăng tải lại video bài phát biểu của bà Nancy Pelosi bị chỉnh sửa với tiêu đề “Pelosi calls for intervention with Trump for the good of the country” (Tạm dịch: Pelosi kêu gọi can thiệp với Trump vì lợi ích của đất nước) trong một chương trình thời sự phát sóng ngày 23/5/2019[39]. Sau khi đoạn video bài phát biểu của bà Nancy Pelosi phát sóng, Tổng thống Mỹ Donald Trump đã chia sẻ đoạn video này về trang cá nhân của mình trên Twitter.
Với sự lan truyền nhanh của đoạn video giả mạo bài phát biểu của bà Nancy Pelosi, tờ báo Washington Post đã điều tra và chứng minh đoạn video
spread across social media” (Tạm dich: Video làm giả bài phát biểu của Pelosi bị làm chậm, khiến bà ấy có vẻ say xỉn, lan truyền trên mạng xã hội) đăng ngày 24/5/2019[40]. Các phân tích của các nhà báo Wasshington Post và các nhà nghiên cứu bên ngoài đã cho thấy rằng đoạn video đã bị chậm lại khoảng 75% tốc độ ban đầu. Chính điều này đã làm thay đổi tốc độ nói và giọng diệu của bà Nancy Pelosi, khiến bà ấy như đang gặp vẫn đề về sức khỏe.
Mặc dù đoạn video bài phát biểu của bà Nancy Peliso khơng hồn tồn bị sửa đổi những đã được chỉnh sửa một cách chọn lọc đã cho thấy bà lúng túng trong cuộc họp báo. Ví dụ trên đây đã cho thấy, trước những video giả