Một số dự đoán

Một phần của tài liệu Deepfake video (video giả mạo) trên các trang mạng xã hội hiện nay (khảo sát các trường hợp trên mạng xã hội từ 122017 đến 122019) (Trang 97 - 107)

3.1.1 Deepfake video sẽ trở nên hồn hảo như thật, khó phân biệt bằng mắt thường

Hiện nay, deepfake video đang trong giai đoạn sơ khởi nên vẫn cịn một số hạn chế nhất định. Các thuật tốn chỉ hoạt động trên các video dạng quay chính mặt người nói và cần lượng dữ liệu đầu vào khoảng 40 phút. Bài phát biểu được chỉnh sửa cũng không thể khác quá nhiều so với video gốc vì chất lượng âm thanh dù đã có cải thiện vẫn khá thấp so với chất lượng nguyên bản. Tuy nhiên trong tương lai, deepfake video sẽ trở nên hồn hảo và khó có thể phân biệt bằng mắt thường. Trong một cuộc phỏng vấn với CNBC, phó giáo sư Hao Li tại đại học Nam California cho biết, chỉ còn vài năm nữa, video được deepfake tạo ra, chèn mặt người khác vào nhân vật trong clip sẽ trở nên hồn hảo, cơng nghệ này sẽ trở nên đáng sợ tới mức cả hình lẫn tiếng đều khơng có chút gợn, khơng khiến người xem nghi ngờ[41].

Dự đốn về mức độ hồn hảo của cơng nghệ deepfake trong tương lai, nhà báo Lê Quốc Minh, Phó Tổng giám đốc TTXVN cũng cho rằng: “Hiện tại công nghệ deepfake chưa hồn hảo nên trừ những hình ảnh và video được làm rất cơng phu, đa số sản phẩm khác vẫn cịn nhiều thiếu sót và có thể phát hiện được nếu “soi” thật kỹ. Chẳng hạn có một số trang web sử dụng trí tuệ nhân tạo để tạo ra ảnh của các nhân vật đủ mọi màu da, lứa tuổi, giới tính mà những người này hồn tồn khơng có thật. Các chuyên gia đã chỉ ra những điểm bất hợp lý trên khn mặt, hình dáng… để nói rằng đây là những hình ảnh tạo ra bằng máy. Nhưng đó là khi chuyên gia chủ định nghiên cứu

ảnh như vậy. Các công nghệ AI trong tương lai gần sẽ cho phép tạo ra những hình ảnh, âm thanh như ý muốn, thật hơn và không thể phân biệt nổi. Những gì chúng ta chứng kiến trong các bộ phim khoa học viễn tưởng sẽ dần trở thành hiện thực. Tôi thực sự nghĩ rằng chỉ một thời gian nữa thì chúng ta khơng thể biết được một video là thật hay giả.”

Hiện rất dễ để nhận ra video giả mạo, bạn có thể nhận thấy bằng mắt thường các video dựng từ deepfake. Song cũng có nhiều ví dụ thực sự rất thuyết phục. Ví dụ như các video giả mạo bài phát biểu của tổng thống Mỹ Donald Trump, người sáng lập Facebook Mark Zuckerberg, thậm chí cả cựu đệ nhất phu nhân Michelle Obama, Chủ tịch quốc hội Nancy Pelosi

Sự phát triển không ngừng của AI hiện nay là cơ sở cho dự đoán về sự phát triển của deepfake video trong tương lai. Deepfake được tạo ra nhờ cơng nghệ trí tuệ nhân tạo cho nên nó sẽ trở nên tốt hơn khi trí tuệ nhân tạo trở nên tốt hơn. Vào tháng 4 năm 2018, BuzzFeed đã giới thiệu công nghệ video sâu đến mức nào bằng cách kết hợp giọng nói của Jordan Peele với video của Barack Obama[14]. Video giả được tạo nên từ một bức ảnh của Obama và chuyển động miệng, tiếng nói của chính Jordan Peele. Đoạn video giả này được dựng lên video gây tranh cãi với mục đích cho người xem thấy được mối huy hiểm của deepfake - từ chỉ những video được chỉnh sửa để khiến người xem tưởng ai đó đang nói hoặc làm gì đó, dù điều đó khơng hề xảy ra.

Bên cạnh đó, sự phát triển của đồ họa máy tính cũng là một nền tảng để deepfake video trở nên hoàn hảo hơn trong tương lai. Đồ họa máy tính là phương pháp và cơng nghệ dùng trong việc chuyển đổi qua lại giữa dữ liệu và hình ảnh trên màn hình bằng máy tính. Đồ họa máy tính cịn được hiểu dưới dạng phương pháp và kĩ thuật tạo hình ảnh từ các mơ hình tốn học mơ tả các đối tượng hay dữ liệu lấy được từ các đối tượng trong thực tế. Trong deepfake video, đồ họa máy tính là một nhân tố quan trọng trong việc tạo ra hình ảnh giả mạo. Một chiếc máy tính có cấu hình đồ họa mạnh sẽ tạo ra được những

video giả mạo có độ chân thật cao hơn so với những máy tính có cấu hình đồ họa thấp.

Những bước tiến trong lĩnh vực trí tuệ nhân tạo và đồ họa máy tính sẽ cho phép các deepfake video trở nên ngày một đáng tin hơn, và cũng ngày một khó khăn hơn trong việc giải mã ra những video thực từ những video đã qua chỉnh sửa. Điều đó đã làm gióng lên những hồi chng báo động loại cơng nghệ này sẽ trở thành thứ vũ khí nguy hiểm bậc nhất sinh ra trong thời đại số.

3.1.2 Khơng dừng lại ở hình thức video

Deepfake cũng giống như Photoshop đối với video: trong đó mọi người đang thực hiện những hành động họ chưa từng làm, cũng như nói những điều họ chưa từng nói. Cơng nghệ deepfake hiện tại đã hiểu được những điểm di chuyển của gương mặt qua ảnh, khiến việc giả mạo hành động hay cử chi một người trở nên cực kỳ dễ dàng. Trong tương lai, trí tuệ nhận tạo có thể thúc đẩy deepfake phát triển với nhiều dạng thức khác nhau.

Hiện nay, deepfake tồn tại chủ yếu dưới hình thức là các video giả mạo. Trong đó, phổ biến nhất vẫn là video hoán đổi gương mặt. Một số deepfake hoán đổi gương mặt chỉ tạo ra tiếng cười nhằm mục đích giải trí: Nicholas Cage được ghép mặt vào những bộ phim mà diễn viên này chưa từng đóng như Indiana Jones hay series dài tập nổi tiếng Friends, và vài bài đăng thay mặt Jennifer Lawrence thành Steve Buscemi. Nhưng song song với đó là những deepfake nguy hiểm, với gương mặt của các diễn viên nữ như Scarlett Johansson và Gal Gadot được ghép vào phim khiêu dâm. Thậm chí, hình thức này cịn bị sử dụng với những đối tượng không nổi tiếng.

Chưa dừng lại ở đó, deepfake cịn có khả năng tạo ra những đoạn âm thanh giả mạo giọng nói bất kỳ ai. Mới hồi tháng 3 năm nay, một băng tội phạm đã dùng một chương trình tạo giọng nói bằng ứng dụng trí tuệ nhân tạo

điện thoại cho giám đốc một công ty năng lượng trực thuộc ở Anh. Nghe giọng nói quen thuộc, mang đặc trưng tiếng Đức của cấp trên, người giám đốc bên Anh đã làm theo yêu cầu chuyển khoản mà không chút nghi ngờ.

Với các thuật tốn thơng minh của deepfake, việc tạo ra những đoạn âm thanh giả mạo còn dễ dàng hơn so với việc tạo ra các video giả mạo. Trả lời phỏng vấn của báo The Wall Street Journal, ngày 30-8-2019, chuyên gia Jake Moore của Công ty bảo mật ESET (Slovakia) nói: “Chúng ta đã thấy công nghệ DeepFake bắt chước những người nổi tiếng ở định dạng video, nhưng phải mất khoảng 17 giờ để tạo ra được một sản phẩm video đủ thuyết phục. Trong khi đó, sử dụng trí tuệ nhân tạo để giả giọng nói thì chỉ cần ít bản ghi hơn để sản xuất. Khi sức mạnh điện toán tăng lên, chúng ta sẽ bắt đầu thấy những thứ này càng trở nên dễ làm hơn”[42].

Nhưng vẫn còn một loại deepfake còn tinh vi hơn, được gọi là deepfake video chân dung. Loại deepfake này được phát triển bởi một nhóm nghiên cứu xuyên quốc gia, nó có thể chuyển hóa những hành động 3 chiều như cử chỉ đầu, hướng xoay, ánh mắt, nháy mắt từ một đối tượng sang một đối tượng khác, chứ không hề bị giới hạn trong biểu cảm gương mặt như những deepfake khác. Công nghệ này sẽ cho kết quả là một đoạn phim ghi mơ hình chuyển động, mặc dù chưa hề trải qua q trình ghi chuyển động.

Có thể thấy, deepfake đang ngày càng được cải tiến và hoàn thiện vượt qua trí tưởng tượng của người thường. Ban đầu, deepfake chỉ đơn giản là trò đùa vui nhộn trên mạng Internet với hàng loạt ảnh chế, ghép gương mặt người dùng vào các nhân vật trong các bộ phim nổi tiếng. Nhưng hiện nay và trong tương lai, với những hình thức biến hóa đa dạng hơn, nó sẽ trở thành một hiểm họa lớn giúp cho những đối tượng thực hiện các ý đồ xấu xa của mình.

3.1.3 Trở nên cá nhân hóa

Với sự phát triển của trí tuệ nhân tạo, deepfake hứa hẹn sẽ tạo ra những video có nội dung thực tế đến mức không thể nhận biết được bằng mắt thường.

Tuy nhiên một khi các kỹ thuật được hoàn thiện, deepfake ideo trở nên cá nhân hóa, nhắm vào đối tượng cụ thể nào đó. Mặc dù phần lớn các cuộc thảo luận xung quanh tác hại của deepfake video chủ yếu tập trung vào vấn đề phát tán và lan truyền tin giả, gây bất ổn chính trị nhưng việc trở thành công cụ để tấn công cá nhân là một tác hại tiềm tàng của deepfake video trong tương lai. Hiện nay đã có một số deepfake video đã hướng đến việc trả thù, gây hại cho các cá nhân. Nhà báo Lê Quốc Minh, Phó Tổng giám đốc TTXVN cho rằng:

“Deepfake có thể chỉ là những thứ đùa vui vơ hại, nhưng đã có nhiều vụ việc cho thấy nó được sử dụng vào những mục đích đen tối nhằm gây phương hại cho các cá nhân. Đơn cử như có những người – cả nổi tiếng và không nổi tiếng – đột nhiên bị tung những bức ảnh trần truồng hoặc thậm chí trở thành nhân vật chính của đoạn video khiêu dâm khơng có thật. Chúng ta từng xem video cựu tổng thống Barack Obama phát biểu hồi tháng 4/2018 mà thực chất là deepfake do Buzzfeed tạo ra, chúng ta cũng từng biết đến những deepfake video với phát biểu của ông Trump hay tổng thống Nga Vladimir Putin. Xét ở góc độ cơng nghệ, đây là minh chứng về việc cơng nghệ trí tuệ nhân tạo đã có những bước tiến vượt bậc ra sao và nó có thể được áp dụng vào rất nhiều lĩnh vực, ví dụ như phim ảnh. Nhưng nếu được sử dụng với những mục đích sai trái thì nó sẽ là thảm họa bởi rất khó phân biệt thật-giả. Giả sử xuất hiện một deepfake video của một nguyên thủ quốc gia với những lời nói gây chiến với một quốc gia khác hay những phát ngôn phân biệt chủng tộc hoặc kỳ thị giới tính thì hậu quả sẽ thế nào? Một người mẹ nhìn thấy video khiêu dâm của con mình liệu có nghĩ đó là giả mạo khơng? Cũng đã có những ví dụ về việc deepfake được dùng để lừa đảo, thao túng thị trường.”

Theo thống kê của Theo thống kê của Deeptrace, cơng ty có trụ sở tại Amsterdam chuyên nghiên cứu về những nội dung được tạo ra bởi AI, hiện nay có 96% deepfake video là video nội dung khiêu dâm[3]. Tỷ lệ này là biểu

tương lai. Hiện nay, nạn nhân của deepfake thường là những ngơi sao giải trí hoặc người nổi tiếng trong xã hội. Tuy nhiên, càng ngày, ứng dụng này lại càng được chỉnh sửa với nhiều biến thể khác nhau và nạn nhân của nó cũng sẽ đa dạng hơn rất nhiều.

Scarlett Johansson - một nữ diễn viên, người mẫu nổi tiếng ở Mỹ trong một cuộc phỏng vấn với tờ báo The Washington Post đã cho biết cô quá chán ngán khi cơ thường xun trở thành những nhân vật chính trong những đoạn video khiêu dâm gỉa mạo trên mạng. Cô cho rằng Internet là hồn tồn khơng có luật lệ và việc cố xóa sạch video người lớn giả mạo là điều không thể[43].

Deepfake khơng chỉ có thể làm giả hình ảnh của Scarlett Johansson mà còn gây nên những sự phiền toái với một loạt các sao nữ khác như Emma Watson, Katy Perry, Tayor Swift…Với sự phát triển của mình, deepfake cịn đang hướng tới cả những người bình thường.

Nguy cơ deepfake video sẽ trở thành vũ khí tấn cơng cá nhân khi việc tạo ra những video giả mạo này ngày càng dễ dàng. Giờ đây, chỉ cần một máy tính đủ mạnh và phần mềm tạo deepfake video, bất kỳ ai cũng có thể bị giả mạo. Hoặc dưới sự phổ biến của các ứng dụng, phần mềm tạo ra deepfake như hiện nay, bất cứ ai cũng có thể tải xuống phần mềm và ứng dụng deepfake và tạo video giả hết sức thuyết phục.

Một báo cáo gần đây từ HuffPost - một trang tin tức trực tuyến về chính trị của Mỹ đã nhấn mạnh đến việc các deepfake video có nội dung khiêu dâm có thể tác động sâu sắc đến cuộc sống của ai đó. Nạn nhân của những deepfake video sẽ hoang mang cực độ, suy sụp tinh thần và bất lực trong việc tìm ra thủ phạm[44]. Khi deepfake được cá nhân hóa cao sẽ trở nên khó khăn hơn rất nhiều để theo dõi và ngăn chặn. Đây là lúc nó trở nên đặc biệt đáng sợ. Lúc đó, khả năng tư duy phản biện của cá nhân sẽ là vấn đề lớn trong thời kỳ deepfake phát triển.

3.1.4 Làm vấn nạn tin giả trở nên trầm trọng hơn

Trong thời đại hiện nay, cuộc sống của con người ngày càng bị ảnh hưởng nặng nề bởi những sự kiện xảy ra xung quanh mà họ biết được qua các kênh tin tức, báo chí hoặc phương tiện truyền thông xã hội. Tuy nhiên, bên cạnh những thơng tin chính xác, thiết thực với cuộc sống, hiện nay đã xuất hiện nhiều thông tin giả với những mục đích khác nhau. Sự xuất hiện của các loại tin giả này đã bóp méo những câu chuyện thật và tác động rất lớn đến cuộc sống của con người. Hệ lụy của việc lan truyền “tin giả” không chỉ dừng lại ở những cá nhân đơn lẻ, mà cịn có tác động rộng lớn hơn, đe dọa trực tiếp tới an ninh quốc gia.

Trong môi trường truyền thông đa dạng và phức tạp hiện nay, tin giả đang lan truyền với tốc độ chóng mặt trên mạng xã hội, khiến nhiều người không thể phân biệt được thật giả. Trong khi tỷ lệ tin tức giả đang tăng lên từng ngày thì cơng nghệ deepfake xuất hiện như chắp thêm một “đôi cánh” để vấn nạn này phát triển mạnh hơn. Trả lời phỏng vấn về tác động của deepfake đến nền báo chí chính thống, nhà báo Lê Quốc Minh, Phó Tổng giám đốc TTXVN cho rằng: “Vài năm trở lại đây, đặc biệt là trong thời gian xảy ra đại dịch Covid-

19, tin giả ở Việt Nam và nhắm đến người dùng mạng xã hội Việt Nam đã tăng lên với cấp số nhân, khiến cho nhiều người hoang mang, góp phần làm rối loạn xã hội. Rất nhiều trong số các tin giả này được tạo ra một cách khá thơ sơ, đơn giản, thậm chí rất dễ phát hiện là nội dung sai trái hoặc khơng có thực, nhưng vẫn được đọc và chia sẻ rất nhiều. Với những tin giả đơn giản như vậy mà người dùng cịn bị sập bẫy thì e rằng họ sẽ khơng thể chống đỡ được với các deepfake video trông như thật.”

Deepfake video đóng một vai trị quan trọng trong việc tạo ra tin tức giả mạo. Trước đây, tin giả chỉ phát tán dưới hình thức dịng tin tức hay những

giả mạo bất kỳ ai, deepfake sẽ giúp tin giả có độ tin cậy cao hơn, sẽ khơng thể xác định được là tin giả hay tin thật. Hiện nay, deepfake có thể tạo ra bức ảnh chân dung của một nghi can khủng bố và lan truyền thông tin về vụ khủng bố lên mạng xã hội, dù thực tế tên khủng bố đó hồn tồn khơng tồn tại. Hay thậm chí, deepfake cịn có thể giả mạo bài phát biểu của các chính trị gia để lên truyền những thông tin sai lệch, gây bất ổn định trong xã hội.

Deepfake video cịn là cơng cụ để giúp tin giả lan truyền nhanh hơn. Giáo sư Maggie Farley, trợ giảng tại Trường Truyền thông của Đại học Hoa Kỳ chia sẻ, trong q trình tiếp nhận thơng tin, người dùng có xu hướng thích xem và tin những đoạn clip, video hơn tin tức và hình ảnh. Tuy nhiên hiện nay, người dùng đang gặp khó khăn trong việc phân biệt đâu là video giả (video fake), đâu là video thật, trong khi những đoạn video giả ngày càng xuất hiện nhiều trên mạng xã hội. Với khả năng tạo ra những video giả mạo với những hình ảnh, âm thanh rất chân thật, deepfake sẽ đánh trúng tâm lý cảm xúc của nhiều người và khiến họ trở thành những công cụ để phát tán tin

Một phần của tài liệu Deepfake video (video giả mạo) trên các trang mạng xã hội hiện nay (khảo sát các trường hợp trên mạng xã hội từ 122017 đến 122019) (Trang 97 - 107)

Tải bản đầy đủ (PDF)

(143 trang)