Kính Chào Qúy Vị Đến Diễn Đàn Hội Thánh Phục Quyền.

Thông báo
Làm sạch tất cả

DEEPFAKE, TRÒ ĐÙA CỰC KỲ NGUY HIỂM

Trung Chanh
(@trung-chanh)
Thành Viên

 
Vào tuần thứ ba cuộc xâm lược của Nga ở Ukraine, Tổng thống Ukraine Volodymyr Zelensky bất ngờ xuất hiện trong một video, mặc áo sơ mi màu xanh lá cây sẫm quen thuộc, nói chậm rãi, khi ông đứng sau bục tổng thống màu trắng có quốc huy. Ngoại trừ đầu, cơ thể Zelensky hầu như không cử động khi nói. Giọng thì méo mó và gần như khô khốc khi ông khuyên người dân Ukraine hãy đầu hàng Nga. “Tôi yêu cầu các bạn hạ vũ khí và trở về với gia đình. Cuộc chiến này không đáng để hy sinh. Tôi đề nghị các bạn hãy tiếp tục sống, và tôi cũng sẽ làm như thế” – Zelensky nói tiếng Ukraine. Nhưng ngay lúc đó, người nghe nhanh chóng xác định đây là một màn đánh lừa, mạo danh tổng thống. Và màn tuyên truyền bị lột mặt nạ ngay lập tức.
 
Cách đây năm năm, hầu như không có ai nghe nói đến deepfake, một từ mới dùng để chỉ những tệp video và tệp âm thanh trông rất thuyết phục nhưng… “xạo láo” và được tạo ra có mục đích, với sự trợ giúp của trí khôn nhân tạo (AI). Bây giờ, chúng được sử dụng để tác động lên một cuộc chiến chưa biết bao giờ mới kết thúc. Ngoài video Zelensky giả mạo, được lan truyền vào tuần trước, còn có một video deepfake khác cũng được phát tán rộng rãi, trong đó Tổng thống Nga Vladimir Putin tuyên bố “hòa bình”, kết thúc cuộc chiến Ukraine!
 
Trong nhiều năm qua các chuyên gia về thông tin sai lệch và tính xác thực của các nội dung được lan truyền trên mạng đã lo lắng về khả năng phổ biến những điều dối trá và gây hoang mang bằng kỹ thuật “phù phép” tinh vi. Nhờ sự phát triển vũ bão của AI nên những video lừa đảo ngày càng giống thực hơn. Nhìn chung, deepfake đã được cải thiện rất nhiều trong một khoảng thời gian tương đối ngắn. Chẳng hạn, video cảnh nam diễn viên Tom Cruise tung đồng xu và video cover các bài hát của Ban nhạc Dave Matthews vào năm ngoái, cho thấy deepfake đã “giống thực một cách thuyết phục” như thế nào.
 
Cả video của Zelensky hay Putin đều không đạt được hiệu quả cao như video Tom Cruise trên TikTok (chúng có độ phân giải thấp, một chiến thuật phổ biến để che giấu những lỗi). Nhưng các chuyên gia không hề đánh giá thấp sự nguy hiểm của chúng. Đó là bởi tốc độ phát tán quá nhanh của các thông tin sai lệch sử dụng công nghệ cao ở qui mô toàn cầu khi nhiều người không có khả năng hoặc không kịp nhận biết đâu là thật đâu là giả. Deepfake ngày càng được sử dụng nhiều trên mạng cũng có nghĩa là việc phát hiện ra chúng sẽ khó khăn hơn nhiều.
 
Cuộc chiến Ukraine khi được chuyển tải lên mạng có đầy rẫy thông tin sai lệch. “Chỉ cần một “mảnh bùn” tin giả cũng có thể làm vấn đục cả vùng nước thông tin tình hình chiến sự – Wael Abd-Almageed, phó giáo sư nghiên cứu tại Đại học Nam California kiêm Giám đốc sáng lập Phòng thí nghiệm Phân tích đa phương tiện và Trí tuệ thị giác của trường nhận định – Một khi ranh giới thực-giả bị xói mòn, ngay cả sự thật cũng sẽ bị nghi ngờ, thậm chí… không tồn tại. Bị lừa vài lần, bất cứ những gì bạn nhìn thấy cũng bị nghi là giả và bạn không thể tin vào chúng nữa. Mọi thứ xuất hiện trên mạng đều trở thành giả dối. Nhiều người đã mất niềm tin.
 
Quay trở lại năm 2019, thời điểm bắt đầu xuất hiện mối lo ngại về những lệch lạc có thể ảnh hưởng nghiêm trọng đến kết quả cuộc bầu cử tổng thống Mỹ năm 2020. Dan Coats, Giám đốc Tình báo Quốc gia Mỹ lúc đó cảnh báo về khả năng này. Dù điều đó không xảy ra nhưng số người tin vào các thuyết âm mưu không hề nhỏ. Siwei Lyu, Giám đốc Phòng thí nghiệm Computer vision and Machine learning tại Đại học Albany, cho biết, lúc đó, deepfake chưa đạt đến trình độ cao. Không dễ dàng tạo ra một deepfake tốt, một video giả mạo ‘bậc thầy’ đánh lừa được số đông với giọng nói giống thực, ngôn ngữ cơ thể như thực (video Zelensky bị phát hiện vì cơ thể cứng đơ không chuyển động).
 
Giờ đây, việc tạo ra các bản deepfake tốt đã dễ dàng hơn nhiều và cũng nguy hiểm hơn khi chúng được sử dụng trong một cuộc chiến tranh để kích động những cái đầu nóng và gây hiểu lầm. Cách deepfake đang dùng để tác động đến người xem trong chiến tranh là đặc biệt nguy hiểm, vì nó dẫn đến phản ứng tiếp theo dựa vào những thông tin giả, dù là tiếng hay hình. Người xem nhầm lẫn sẽ dẫn đến hậu quả khó lường. Trong những video giả như Tom Cruise, deepfake không có nhiều tác động ngoài việc thu hút sự quan tâm và chú ý. Nhưng trong những tình huống nguy cấp, chiến tranh hay thảm họa, khi mọi người không có thời gian để suy nghĩ thấu đáo và phải phản ứng trong một khoảng thời gian rất ngắn, thông tin giả thực sự trở thành vấn đề lớn.
 
Thực tế cho thấy, việc đưa ra những thông tin sai lệch đã làm phức tạp thêm cuộc chiến Ukraine. Cuộc xâm lược của Nga lôi kéo theo một lượng cực lớn thông tin theo thời gian thực trên cả truyền thông chính thống lẫn các nền tảng xã hội như Twitter, Facebook, Instagram và TikTok. Phần lớn là tin thật, nhưng một số là giả hoặc đưa theo cách để gây hiểu lầm. Bản chất trực quan của những thông tin được chia sẻ cùng với mật độ, tần xuất và cách chúng tấn công mạnh vào cảm xúc sẽ khiến chúng ta dễ mất cảnh giác. Đây chính là lúc tin giả hoàn thành sứ mệnh của nó và trở thành… tin thật nhờ có quá nhiều người tin. Nina Schick, tác giả của cuốn Deepfakes: The Coming Infocalypse xem hai video Zelensky và Putin là dấu hiệu cho thấy vấn nạn tin giả trên mạng lớn hơn nhiều so với mường tượng của chúng ta.
 
Khi deepfake trở nên tinh vi và hoàn hảo hơn, các nhà nghiên cứu và các công ty cố gắng nâng cấp các công cụ phát hiện để sớm loại bỏ chúng. Abd-Almageed và Lyu sử dụng thuật toán để phát hiện deepfake. Giải pháp của Lyu, được đặt tên là DeepFake-o-meter, cho phép bất kỳ ai cũng có thể tải video nghi ngờ lên để kiểm tra tính xác thực, dù có thể mất vài giờ mới có kết quả (vài giờ là quá đủ để gây hậu quả nghiêm trọng cho một sự kiện đang nóng).
 
Một số công ty, chẳng hạn như nhà cung cấp phần mềm an ninh mạng Zemana, đang nghiên cứu phát triển phần mềm phát hiện deepfake. Dĩ nhiên, tính năng phát hiện tự động phải cập nhật thường xuyên cho theo kịp với trình độ giả mạo và đánh lừa thị giác, thính giác của các “bậc thầy” deepfake. Ví dụ, năm 2018, Lyu đã tìm ra cách phát hiện video deepfake nhờ quan sát bất thường cử động mắt của nhân vật trong video. Nhưng chưa đầy một tháng sau, kẻ lừa đảo nào đó đã làm được video chớp mắt giống như thật! Tại Mỹ, đã có một số luật để giải quyết vấn nạn deepfake, chẳng hạn luật của tiểu bang California được thông qua vào năm 2019 cấm phân phối video và âm thanh giả mạo của các ứng viên chính trị trong vòng 60 ngày trước ngày bầu cử.
 
Lương Thái Sỹ
 
***
 

Deepfake - mối nguy hại mới trong thế giới Internet 

 
Công cụ nhận diện video sử dụng Deepfake của DARPA, Mỹ. 
 
Nguy hiểm và tinh vi hơn cả fake news (tin tức giả), công nghệ Deepfake với khả năng cắt ghép khuôn mặt và hủy hoại danh tiếng của một cá nhân, tập thể chỉ với vài nút bấm, được dự báo có thể tạo nên những cơn ác mộng cho Internet trong tương lai. Thực tế cho thấy, bất cứ ai cũng có thể trở thành nạn nhân của vấn nạn Deepfake, đặc biệt là phụ nữ, người nổi tiếng và chính trị gia - nhóm đối tượng dễ bị lợi dụng nhất.
 
Deepfake là gì?
 
Khoảng hơn 2 năm trở lại đây, người sử dụng mạng xã hội đã biết tới các video sử dụng Deepfake để làm giả khuôn mặt của người nổi tiếng thông qua các thuật toán "học sâu" (deep learning) có khả năng thay thế những đặc điểm nhận dạng của một cá nhân bằng người khác. Deepfake làm xuất sắc tới mức mọi thứ trông giống hệt như thật mà không mấy ai nghi ngờ. Vậy Deepfake là gì?
 
Deepfake là thuật ngữ được tạo nên với sự kết hợp giữa "Deep Learning" và "Fake" (giả mạo), là một kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo (AI). Về bản chất, công nghệ Deepfake được xây dựng trên nền tảng công nghệ học máy (Machine Learning) mã nguồn mở của hãng công nghệ Google. Sau khi quét các video và ảnh chân dung của một người cụ thể, Deepfake sẽ hợp nhất hình ảnh với video riêng biệt nhờ công nghệ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật. Càng có nhiều video và hình ảnh gốc, thì AI càng hoạt động chính xác và video giả mạo có độ chân thực cao.
 
Sự kết hợp giữa video hiện có và video nguồn để tạo ra một video giả mạo hiển thị một người hoặc nhiều người đang thực hiện một hành động tại một sự kiện chưa bao giờ thực sự xảy ra.
 
Deepfake được biết đến rộng rãi vào tháng 12/2017, sau khi một người dùng có tên "DeepFakes" đã đăng các video khiêu dâm về những người nổi tiếng trên diễn đàn thảo luận nổi tiếng Reddit. Anh ta tạo ra những video giả này bằng cách ghép khuôn mặt của những người nổi tiếng lên cơ thể của các diễn viên phim người lớn.
 
Mối nguy hiểm của Deepfake
 
Với công nghệ ngày càng tinh vi, Deepfake ngày càng khó phát hiện và có thể được sử dụng cho nhiều loại tội phạm, khiến chúng trở nên nguy hiểm hơn.
 
Nếu bạn hay truy cập Facebook hoặc Instagram gần đây, chắc chắn bạn sẽ thấy một số đoạn clip ngắn về video ca nhạc Diamond của Rihanna hoặc bất kỳ video nào khác tương tự, nhưng thay vì khuôn mặt của người nổi tiếng trong các clip, giờ đây đó có thể là khuôn mặt của một trong những người bạn của bạn.
 
Hoán đổi khuôn mặt đã được sử dụng trong các bộ phim từ nhiều năm nay, nhưng để làm được điều đó, các nhà biên tập video lành nghề và các chuyên gia hình ảnh do máy tính tạo ra (CGI) cần phải mất vài giờ để đạt được kết quả tốt.
 
Ngày nay, với những đột phá mới trong công nghệ cho phép bất kỳ ai có kỹ thuật học sâu và bộ xử lý đồ họa mạnh mẽ (GPU) đều có thể tạo được những video giả vượt trội hơn nhiều so với kỹ thuật hoán đổi khuôn mặt thường thấy trong các bộ phim cũ. Không cần kỹ năng chỉnh sửa video vì toàn bộ quy trình được xử lý tự động bởi một thuật toán.
 
Mặc dù việc làm giả hình ảnh và video đã được thực hiện ngay cả trước khi có sự xuất hiện của phần mềm chỉnh sửa video và các chương trình chỉnh sửa hình ảnh, nhưng với trường hợp của Deepfake lại khác - chủ nghĩa hiện thực mới và thật sự nguy hiểm.
 
Khi kết quả các sản phẩm làm giả ngày càng trở nên "thật" hơn, sẽ tới lúc một người dùng phần mềm nghiệp dư cũng có thể khiến bạn bè, bạn học, đồng nghiệp và người quen của mình xuất hiện trong phim khiêu dâm, đổi vai với các ngôi sao Hollywood. Việc dễ dàng tạo ra được những video Deepfake này sẽ dẫn tới những hệ lụy khó lường đặc biệt là việc tạo ra những video khiêu dâm có chủ đích.
 
Hiện tại, việc sử dụng deepfake chủ yếu là cho nội dung khiêu dâm. Vào tháng 6/2020, một nghiên cứu đã chỉ ra rằng 96% tổng số deepfake trực tuyến là dành cho bối cảnh khiêu dâm và gần 100% trong số đó là của phụ nữ.
 
Deepfake có thể được sử dụng cho nhiều loại tội phạm khác nhau, chẳng hạn như làm mất uy tín của một cá nhân nào đó. Sẽ ra sao khi các phần mềm Deepfake lan tràn trên mạng, một ai đó có thể tạo video khiêu dâm về bạn rồi đăng lên Facebook? Dù chỉ là một hành động trêu đùa với mục đích trêu chọc, tuy nhiên, khi đã xuất hiện trên mạng, không có cách gì để kiểm soát sự phát tán đoạn video này và những hệ lụy sau đó.
 
Trong nhiều trường hợp, mục đích sử dụng Deepfake không còn là trò đùa nữa, mà nhằm làm mất uy tín, sỉ nhục, quấy rối hoặc chơi xấu và dùng vào mục đích tống tiền người khác.
 
Nội dung khiêu dâm chỉ là một trong số rất nhiều vấn đề mà Deepfake đặt ra. Ban đầu xuất hiện chủ yếu trong những video khiêu dâm, Deepfake bắt đầu lan sang lĩnh vực chính trị với nguy cơ tạo ra tác động lớn ngoài đời thực.
 
Deepfake bắt đầu lan sang lĩnh vực chính trị với nguy cơ tạo ra tác động lớn ngoài đời thực. 
 
Ngày 17/4/2018, trên mạng xuất hiện đoạn video cho thấy một người giống với cựu Tổng thống Mỹ Barack Obama sử dụng những lời lẽ không hay để chỉ trích đương kim Tổng thống Donald Trump. Mặc dù công chúng sau đó phát hiện video này không phải sự thật, nhưng đoạn phim trên đã được lan truyền rất nhanh chóng và gây ra những hậu quả đáng tiếc.
 
Năm 2018, một video giả mạo khác được tung lên mạng, tuyên truyền về sức khỏe không tốt của Tổng thống Gabon Ali Bongo. Vụ việc được cho là đã châm ngòi nổ cho cuộc đảo chính quân sự bất thành tại quốc gia châu Phi này.
 
Rõ ràng, Deepfake đã trở thành vấn nạn trên thế giới, khiến nhiều người bị lâm vào tình cảnh khó khăn sau khi bị phát tán những những đoạn video giả mạo trên mạng. Tuy nhiên, tại Việt Nam, không ít người vẫn vô tư chia sẻ những bức ảnh cá nhân, với khuôn mặt rõ nét lên mạng xã hội ở chế độ công khai. Bởi lối suy nghĩ chủ quan cho rằng, Deepfake là chuyện xa vời, xảy ra ở đâu đó chứ không ảnh hưởng tới mình, vì họ không phải người nổi tiếng hay là chính trị gia.
 
Tuy nhiên, Deepfake lại chẳng loại trừ ai khi những video giả mạo vẫn được phát tán trên nhiều ngõ ngách của mạng Internet. Những hiệu ứng hoán đổi khuôn mặt trước đây chỉ nằm trong tay các chuyên gia phim ảnh thì nay lại thực hiện được ngay trên máy tính cá nhân. Bất kỳ ai cũng có thể biến bức ảnh, bản ghi âm, video thành những đoạn phim giả mạo như công cụ để truyền bá những thông tin sai lệch.
 
Trong khi Deepfake vẫn đang làm giới chức thế giới loay hoay tìm cách ứng phó, nhiều nhà khoa học đã khuyến cáo mỗi cá nhân cần phải tự bảo vệ mình, tránh trở thành nạn nhân của công nghệ trên. Các nhà khoa học cho rằng, càng nhiều hình ảnh, video cá nhân được đăng lên Internet thì khả năng bị làm giả danh tính bằng Deepfake càng cao. Để hạn chế đến mức thấp nhất khả năng bị làm giả danh tính, trước mắt, mỗi cá nhân hãy tự khống chế số lượng người có thể xem video và hình ảnh của chính mình.
 
Reface được cho là một trong những ứng dụng hoán đổi khuôn mặt tiên tiến, vui nhộn và được đánh giá cao nhất ở thời điểm hiện tại. Kết hợp với vô số video nguồn, gif, hình ảnh - bạn có thể tạo ra những video và gif hoán đổi khuôn mặt thực tế chỉ với một bức ảnh tự chụp duy nhất.
 
Giống như thời nổi lên của FaceApp, những video ghép mặt của Reface ngay lập tức tràn ngập trên các trang mạng xã hội toàn cầu. Trong vài tháng qua, ứng dụng ghép mặt vào video Reface đã thu hút được nhiều sự chú ý trên mạng, với số lượng tải xuống hàng đầu trên ứng dụng iOS App Store và Google Play ở 100 quốc gia.
 
(Theo: The Asean Post)
Trích dẫn
Người bắt đầu chủ đề Đã đăng : 30/03/2022 10:49 chiều
Chia sẻ: