Những giải pháp ứng phó

Một phần của tài liệu Deepfake video (video giả mạo) trên các trang mạng xã hội hiện nay (khảo sát các trường hợp trên mạng xã hội từ 122017 đến 122019) (Trang 107 - 143)

Deepfake có khả năng nhái giọng bất kỳ ai hay tạo video giả với lời nói của nhân vật bị chỉnh sửa gần đây buộc con người phải chấp nhận sự thật rằng thời đại “Photoshop của mọi thứ” sớm muộn gì cũng đến. Viễn cảnh mà deepfake video tạo ra trong tương lai rất đáng sợ. Nhưng ít nhất nó khơng đến bất ngờ và chúng ta vẫn có thời gian chuẩn bị, dù hiện tại đã phải vất vả trong thời tin tức giả. Chúng ta đang bước vào cuộc dua mới, tìm ra các giải pháp ngăn ngừa hay phát hiện âm thanh hay video giả mạo trước khi chúng sinh sôi nảy nở và thao túng thông tin.

3.2.1 Dùng công nghệ cao để ngăn chặn deepfake video

Deepfake ra đời đã cho thấy mọi thứ đều có thể làm giả trong thời đại công nghệ như hiện nay. Tuy nhiên, nếu cơng nghê có thể làm gia mọi thứ thì nó cũng có thể tìm ra cách để phân biệt giả - thật. Người thật có những đặc trưng, deepfake có thể học. Ngược lại, chúng ta cũng có thể dùng chính deepfake để học đặc trưng của video giả. Bằng mắt thường, chúng ta có thể khơng nhận ra, nhưng bằng deepfake, "deepfake có thể nhận diện deepfake".

Chính nhóm nghiên cứu thuộc Đại học Washington, người tạo ra thuật toán tạo video giả mạo Tổng thống Barack Obama bằng trí tuệ nhân tạo cũng khẳng định cơng nghệ của họ có thể dùng theo mục đích ngược lại, tức hoạt động như một công cụ xác minh một video có là giả mạo hay khơng[48].

Đồng quan điểm “phần mềm tạo ra đồ giả được thì cũng đồng thời tạo ra cách để phát hiện” - Jeff Clune, giáo sư khoa học máy tính thuộc Đại học

deepfake video phổ biến nhất là sử dụng mạng GAN (generative adversarial network - mạng sáng tạo dựa vào cạnh tranh). Giải thích kỹ hơn về phương pháp này, trong một cuộc trao đổi với tạp chí Slate, giáo sư Jeff Clune cho biết phương pháp này giống như để hai hệ thống AI chơi trò “cảnh sát tội phạm” để tự cạnh tranh với nhau. Hệ thống đóng vai “tội phạm” sẽ được lập trình để tạo ra hình ảnh giả càng giống thật càng tốt, còn hệ thống “cảnh sát” sẽ kiểm tra và đánh giá mức độ chính xác của hình ảnh đó[49].

Nếu “tội phạm” qua mặt được “cảnh sát”, hệ thống AI này sẽ càng tiếp tục hoàn thiện. Ngược lại, nếu cảnh sát phát hiện ra hình ảnh là giả, nó sẽ chỉ ra chỗ cần hoàn thiện cho hệ thống “tội phạm” để có thể khắc phục và tối ưu. Kết quả, hệ thống làm giả ngày càng tối ưu, và ngược lại, thuật toán phát hiện cũng ngày một hồn thiện, có thể nhận biết nhanh và chính xác hơn.

Mặc dù để áp dụng giải pháp dùng công nghệ cao để chống lại deepfake còn rất nhiều vấn đề liên quan đến kỹ thuật cần giải quyết, nhưng nếu vượt qua những rào cản đó, cơng nghệ sẽ phát hiện được hình ảnh giả và cả video hay âm thanh giả. Những kẻ tạo ra deepfake video cũng sẽ tương tự như hacker. Đó là 'cuộc chiến' liên tục giữa người với người trên không gian mạng. Nhưng trong tương lai, đó sẽ là 'cuộc chiến' giữa máy với máy.

Bên cạnh giải pháp sử dụng trí tuệ nhân tạo phát hiện ra deepfake video, cịn có giải pháp thêm một số yếu tố cơng nghệ để xác minh tính chân thật của hình ảnh và video. Một trong những cách thức của giải pháp này là thêm một số thông tin và dữ liệu ngồi nội dung vào video hay hình ảnh, giống như một kiểu “đánh dấu” ngầm để có thể nhận dạng và xác minh tài liệu đó là có thật hay không. Giải pháp này tương tư cách làm phổ biến trong bảo mật máy tính. Các phần mềm hay máy tính có thể được cài mã bí mật đã được mã hóa, nếu cơng cụ bảo mật kiểm tra thấy phần mã này bị thay đổi thì có thể kết luận chúng bị dính mã độc hay vi rút.

Tờ Slate đưa ra gợi ý cho hãng Apple có thể cài đặt thêm một con chip để mỗi tấm hình do iPhone chụp sẽ mang một kiểu “chữ ký” ảo riêng, không bao giờ trùng nhau và khơng ai ngồi Apple biết mã bí mật này[49]. Bằng cách làm này, các cơ quan báo chí hay chính phủ muốn xác minh hình ảnh chụp bằng iphone, có thể liên hệ với Apple, nhờ kiểm tra mã bí mật xem hình ảnh là thật hay giả. Giải pháp này tương tự cách làm phổ biến trong bảo mật máy tính. Các phần mềm hay máy tính có thẻ được cài mã bí mật đã được mã hóa, nếu cơng cụ bảo mật kiểm tra thấy phần mã này bị thay đổi thì có thể kết luận chúng đã bị dính mã độc hay vi rút.

3.2.2 Tìm ra những đặc điểm nhận dạng deepfake video bằng mắt thường

Mặc dù deepfake đang ngày càng trở nên tinh vi những bản thân công nghệ này vẫn cịn có nhiều lỗ hỏng và vẫn có thể bị phát hiện nếu chúng ta ta lưu ý vào một số điểm sau:

Thứ nhất là chớp mắt không nhất quán. Deepfake sử dụng các mạng nơ-ron để thay thế gương mặt của người trong video gốc thành gương mặt của đối tượng muốn giả mạo. Và tuy rằng mạng nơ-ron thực hiện tác vụ này rất hiệu q, nhưng nó lại khơng thể hiểu được các đặc điểm vật lý và tự nhiên của một gương mặt người. Chính vì vậy, deepfake có thể bị phát hiện thông qua một số hành vi không tự nhiên – mà trong đó đáng lưu ý nhất là việc không chớp mắt. Sở dĩ điều này xảy ra là do trước khi có thể tạo ra deepfake, mạng nơ-ron cần phải được huấn luyện sử dụng các hình ảnh của đối tượng muốn giả mạo. Tuy nhiên, trong đa số các hình ảnh này, đối tượng đều đang mở mắt, và mạng nơ-ron qua đó sẽ tạo ra những gương mặt khơng chớp mắt, hoặc chớp mắt rất thiếu tự nhiên.

Vào năm 2018, các nhà nghiên cứu tại Đại học Albany đã cho xuất bản một nghiên cứu về cách thức phát hiện các hành vi chớp mắt thiếu nhất quán này. Và điểm thú vị của phương thức nêu trên nằm ở chỗ nó sử dụng đúng

khoa học phát hiện rằng, các mạng nơ-ron được huấn luyện qua những video chớp mắt sẽ có thể phân khúc những deepfake video, từ đó chỉ ra thời điểm hành động chớp mắt trở nên thiếu tự nhiên[50].

Thứ hai là theo dõi chuyển động của đầu của nhân vật. Các nhà nghiên cứu tại UC Berkley gần đây đã phát triển ra một thuật tốn AI có khả năng phát hiện video giả mạo dựa trên các chuyển động đầu và biểu cảm gương mặt. Cụ thể, mỗi người lại có những chuyển động đầu và biểu cảm gương mặt chuyên biệt với nhau, trong khi deepfake lại sử dụng những đặc điểm này từ người trong video gốc, chứ không phải đối tượng giả mạo[51].

Với một mạng nơ-ron được huấn luyện sử dụng các chuyển động đầu và biểu cảm gương mặt, các video giả mạo sẽ được phát hiện dễ dàng hơn. Trong thử nghiệm với mơ hình này, các nhà nghiên cứu đã sử dụng video của những nhà lãnh đạo khác nhau trên toàn cầu, cho kết quả phát hiện deepfake đạt độ chính xác tới 92%.

Đây là một phương thức nhận diện deepfake chắc chắn và bảo đảm hơn. Tuy nhiên, trái với mơ hình phân tích sử dụng chớp mắt, những mơ hình này lại cần được huấn luyện riêng trên từng cá nhân khác nhau, và vì vậy chỉ có thể được sử dụng với người nổi tiếng hay chính trị gia, chứ khơng thể được sử dụng để phân biệt deepfake trên người bình thường.

Thứ ba là quan sát kỹ hình ảnh, âm thanh trong deepfake video. Những kẻ làm ra deepfake sẽ luôn muốn các video này càng giống thật càng tốt. Nhưng một video giả mạo, cho dù tinh vi tới đâu vẫn có những hạn chế nhất định. Nếu quan sát kỹ, chúng ta có thể nhận biết được bằng mắt thường các nội dung gải mạo, dù chúng nhìn và nghe như thật.

Trong bài viết “The future of fake news: don't believe everything you read, see or hear” (Tạm dịch: Tương lai của tin giả: Đừng tin mọi thứ bạn đọc, xem hay nghe) đăng ngày 26/7/2017, báo Anh Guardian gợi ý dựa vào các “tiểu tiết” của đoạn video hay audio để kiểm tra tính xác thực của nó. “Các

“dấu hiệu tố cáo” có thể là video và tập tin âm thanh đó được quay/ghi âm ở đâu, có ai có mặt ở đó ngồi nhân vật chính nữa khơng, hoặc thời tiết thể hiện trong đó có khớp với đời thực hay khơng” - tác giả Olivia Solon viết[52].

The Guardian cũng dẫn lời Mandy Jenkins, chuyên gia xác minh tin tức mạng xã hội thuộc Công ty Storyful, khuyến cáo người xem nên “để ý đến ánh sáng và bóng đổ trong video, xem các đối tượng trong video có thể hiện cùng kích thước, tỉ lệ khơng và xem phần âm thanh có đồng bộ, khớp khẩu hình khơng”[52].

Trang Gizmodo cũng chỉ ra nhiều yếu tố có thể giúp phân biệt giọng nói là ghi âm thật hay do máy tính tạo ra ví dụ như tiếng thở, tiếng lấy hơi, âm thanh do miệng hay môi cử động phát ra khi nói chuyện. Các thuật tốn giả giọng nói hiện vẫn chưa bắt chước được hết tất cả các yếu tố này, mà dẫu có thể nhái được, thì “chúng có thể đánh lừa tai người chứ khi đưa vào máy tính, phân tích ở dạng sóng âm sẽ bị phát hiện ngay”[53]. Ngồi ra, cịn có nhiều yếu tố khác giúp phát hiện một file ghi âm có vấn đề như nhiều tiếng động nền, độ âm vang và độ sâu của âm thanh. Đây có thể xem là gợi mở để phát triển các phần mềm chun phân tích và xác minh giọng nói.

Nói về cách nhận biết deepfake video bằng mắt thường, nhà nghiên cứu lập trình trí tuệ nhân tạo Kiều My cho biết: “Cho đến hiện nay, đa số

deepfake video chưa đạt đến mức hoàn hảo nên vẫn có thể nhận diện được những video này bằng mắt thường. Trong một số deepfake video kém chất lượng, khẩu hình miệng khơng đồng bộ với lời nói, màu da khn mặt khác với màu da của các bộ phận khác trên cơ thể. Khn mặt của nhân vật bị làm giả có thể bị mờ và nhấp nháy xung quanh. Nếu để ý đến những chi tiết nhỏ như tóc, răng,… chúng ta sẽ nhìn thấy những sự kỳ lạ bởi vì deepfake thường tập trung vào sự tổng quát và thường bỏ qua những chi tiết nhỏ đến như vậy. Ngoài ra, chúng ta có thể nhận ra deepfake video bằng cách quan sát ánh

chẳng hạn như chiếu sáng không nhất quán, ánh sáng chiếu thẳng lên khuôn mặt của nhân vật,...Nhưng một trong những bước tiến quan trọng là sử dụng các phần mềm để nhận dạng, hiện nay cũng đã có một số phần mềm để nhận dạng đã phát triển bởi các cơng ty. Tốt nhất là sử dụng chính chương trình đã tạo ra deepfake đó để nhận dạng vì khi xây dựng được các deepfake video thì cũng có thể sử dụng bộ giải mã để phân biệt.”

Có thể thấy, chừng nào AI vẫn cịn chưa đủ thơng minh để bắt chước giọng nói và hình ảnh của con người, thì lúc đó con người vẫn cịn hi vọng phát hiện được các video, âm thanh giả mạo được tạo ra từ công nghệ này. Những nghiên cứu về đặc điểm nhận diện deepfake đang ra đời liên tục. Nhưng đến một lúc nào đó, những đặc điểm nhận diện hiện tại và trong tương lai có thể sẽ khơng thể xác minh được thật giả của những video tràn làn trên khắp các trang mạng xã hội.

3.2.3 Tạo bộ dữ liệu lưu trữ các video gốc để xác minh deepfake video

Hiện nay, đa số những cố gắng phát hiện deepfake đều đang tập trung vào việc tìm ra các bằng chứng giả mạo, mà lại bỏ qua một phương thức vô cùng hiệu quả khác: chứng minh cái gì là sự thật. Đây cũng là phương thức được sử dụng trong dự án Archangel, được thực hiện bởi các nhà nghiên cứu tại Đại học Surrey, UK, và hiện đang được thử nghiệm trên nhiều kho lưu trữ của nhiều quốc gia.

Dự án Archangel sử dụng phối hợp các mạng nơ-ron và blockchain, nhằm tạo ra một ổ lưu trữ video thơng minh để sử dụng trong q trình chứng thực sau này. Sau khi một video được thêm vào lưu trữ, Archangel sẽ huấn luyện mạng nơ-ron sử dụng nhiều định dạng khác nhau của video này. Từ đó, mạng nơ-ron sẽ có thể phát hiện xem video mới có tương thích mới video gốc đã được lưu trữ hay không, hay đã trải qua chỉnh sửa[54].

Trong những kỹ thuật so sánh truyền thống, các tệp tin sẽ được chứng thực trên từng dữ liệu – một phương thức không phù hợp với video do đặc

điểm cấu trúc thay đổi qua định dạng. Tuy nhiên, mạng nơ-ron của dự án Archangel lại so sánh qua điểm ảnh, tức sử dụng giải mã dữ liệu lập trình (codec-agnostic)[54].

Để đảm bảo rằng các nơ-ron không bị thao túng, dự án Archangel chứa chúng trên một blockchain (một sổ cái kỹ thuật số được phân chia hay dễ hiểu hơn là cơ sở dữ liệu trong một mạng) duy trì bởi các hệ lưu trữ của chính phủ tham gia vào thử nghiệm dự án này. Như vậy, việc thêm dữ liệu vào lưu trữ sẽ cần được sự đồng ý của các bên liên quan. Do đó, khơng có một tổ chức nào có thể tự quyết định video nào là thật, video nào là giả mạo. Dự kiến, sau khi Archangel được công khai, mọi người đều sẽ có thể thử chứng thực các video của họ trên chương trình này.

3.2.4 Nâng cao ý thức cảnh giác của người dùng Internet về các deepfake video

Ngay cả khi đã có sẵn các phần mềm hay cơng cụ giúp phát hiện video hay giọng nói giả, vai trò của người dùng Internet trong việc chống lại deepfake cũng rất quan trọng. Một trong những nguyên nhân chính khiến tin tức giả lan truyền nhanh và mạnh trong thời Facebook là vì nhiều người chia sẻ thông tin sốc mà khơng cần suy nghĩ hay kiểm chứng. Với thói quen đọc lướt trên mạng Internet, nhiều người thậm chí cịn khơng đọc gì khác ngồi tựa bài báo. Việc bỏ thời gian tìm hiểu một mẩu tin là thật hay giả là một điều ít người dùng Internet có thể làm được.

Nếu như tin giả khiến việc kiểm chứng thông tin trên mạng Internet khó khăn thì khi deepfake xuất hiện, vấn đề kiểm chứng thơng tin trở nên khó khăn gấp nhiều lần. Trong tương lai, khi có sẵn cơng cụ để kiểm tra video có thật hay khơng, cần phải thừa nhận sẽ vẫn có những người thấy video có nội dung sốc và nhạy cảm là chia sẻ ngay mà không muốn bỏ chút thời gian gửi video đó vào phần mềm kiểm tra.

Trên trang Scientific American, Timo Baumann, nhà nghiên cứu chuyên phân tích giọng nói thuộc Viện cơng nghệ ngôn ngữ (Language Technologies Institute) (Đại học Carnegie Mellon University, Mỹ), cũng cho rằng với thói quen lười kiểm chứng những gì đọc được trên mạng hiện nay của “một bộ phận không nhỏ” người dùng Internet, video và giọng nói giả chỉ làm mọi thứ trầm trọng thêm. Ông Timo Baumann chia sẻ: “Sẽ vẫn có cách nhận ra một giọng nói có bị chỉnh sửa gì khơng, nhưng tơi khơng chắc là ai cũng sẽ làm động thái kiểm tra đó”[55].

Như vậy, chưa cần đến thời video hay âm thanh giả trở nên phổ biến, cảnh giác trước mọi thông tin trên mạng là lời khuyến cáo đúng đắn nhất, vì sẽ sớm đến ngày ta phải luôn tự hỏi video này là thật hay tin giả, như cách ta buộc phải cảnh giác trước mọi video, tấm hình gây sốc trên mạng như hiện nay, không chia sẻ những thông tin chưa được kiểm chứng. Một số chuyên gia khuyến cáo, người dùng Internet nên hạn chế chia sẻ các hình ảnh lên mạng xã hội, những nơi bất kỳ ai cũng có thể dễ dàng tìm thấy nguồn dữ liệu cho deepfake. Và điều quan trọng hơn là nếu số lượng người muốn xem các deepfake video tăng, kẻ xấu sẽ càng có thêm động lực để phát triển deepfake

Một phần của tài liệu Deepfake video (video giả mạo) trên các trang mạng xã hội hiện nay (khảo sát các trường hợp trên mạng xã hội từ 122017 đến 122019) (Trang 107 - 143)

Tải bản đầy đủ (PDF)

(143 trang)