Sử dụng ứng dụng ghép mặt có nguy cơ bị tung lên web khiêu dâm

0
417

96% video Deepfake là những nội dung liên quan đến tình dục

Việc người dùng chạy theo trào lưu video ghép mặt trên ứng dụng ghép mặt Face Play sẽ kèm theo đó nguy cơ bị lộ lọt dữ liệu hình ảnh cá nhân. Đáng lo hơn khi 96% video Deepfake là những nội dung liên quan đến tình dục.

Để có được những đoạn video ghép mặt, người dùng sẽ buộc phải tải về một ứng dụng Face Play. Ngay khi tải ứng dụng, Face Play sẽ yêu cầu người dùng cấp quyền truy cập vào camera để cung cấp dữ liệu khuôn mặt.

Từ dữ liệu người dùng đã cung cấp, ứng dụng sẽ đưa ra các bộ lọc video để người dùng có thể lựa chọn. Face Play sau đó sẽ tiến hành ghép khuôn mặt người dùng vào những nhân vật trong các đoạn video có sẵn.

Face Play: Ứng dụng hot nhưng tiềm ẩn rất nhiều rủi ro. Ảnh: sohuutritue.net.vn/
Face Play: Ứng dụng hot nhưng tiềm ẩn rất nhiều rủi ro. Ảnh: sohuutritue.net.vn/

Bằng cách này, người dùng có thể dễ dàng hóa thân vào nhiều bối cảnh khác nhau như thiếu nữ Trung Hoa, hiệp khách giang hồ, cô gái bốc lửa bên siêu xe hay nữ yêu quái trong bộ phim Tây Du Ký.

Tuy nhiên đó chỉ là phần nổi của tảng băng chìm!

Những hậu quả khôn lường của các app hay ứng dụng ghép mặt 

Thực tế cho thấy, theo Deeptrace – một công ty chuyên nghiên cứu về AI, đơn vị này đã tìm thấy 15.000 video có sử dụng kỹ thuật Deepfake vào cuối năm 2019. Đáng chú ý khi có tới 96% trong số đó là các nội dung khiêu dâm. Phần lớn những nội dung khiêu dâm này sử dụng Deepfake để thay thế mặt nhân vật trong video bằng các diễn viên nổi tiếng.

Sẽ rất nguy hiểm nếu một người sử dụng Deepfake để ghép mặt người khác vào các nội dung khiêu dâm với mục đích trả thù. Điều này còn nguy hiểm hơn nếu những dữ liệu liên quan đến hình ảnh cá nhân của một người bị rơi vào tay giới tội phạm mạng.

Scarlett Johansson – nữ diễn viên nổi tiếng của các bộ phim như Iron Man 2, The Avengers, Captain America 2, Lucy… chính là nạn nhân đầu tiên của Deepfake. Vào năm 2017, một thành viên Reddit đã ghép mặt của Scarlett Johansson vào một bộ phim khiêu dâm rồi phát tán trên diễn đàn này.

Công nghệ Deepfake có thể tạo ra những bức ảnh, video với khuôn mặt được thay thế như thật.
Công nghệ Deepfake có thể tạo ra những bức ảnh, video với khuôn mặt được thay thế như thật.

Không chỉ vậy, vào cuối năm 2020, khi cuộc bầu cử tổng thống Mỹ đang bước vào giai đoạn căng thẳng, cựu tổng thống Donald Trump còn trở thành nạn nhân của Deepfake khi một video với khuôn mặt ông được tung ra cùng những phát ngôn không chuẩn mực. Đến lúc đó, nhiều người mới thực sự nhận ra mức độ nguy hiểm nếu lạm dụng công nghệ này.

Think tank đã công bố các báo cáo về những tác động có thể gây tổn hại của AI như vậy, cho thấy cách nó có thể được sử dụng để bóp méo sự thật và diễn ngôn dân chủ, làm suy yếu báo chí, thông tin sai lệch, gây thiệt hại vĩnh viễn cho những cá nhân “nổi bật”, gây thiệt hại cho doanh nghiệp thông qua tội phạm mạng cổ cồn trắng và thổi phồng những căng thẳng và chia rẽ xã hội.

Tuy nhiên, deepfake là mối đe dọa thực sự đối với gần 4 tỷ người trên thế giới này: phụ nữ.

Phụ nữ, người nổi tiếng là nạn nhân phổ biến của Deepfake. Trong ảnh là nghệ sĩ Gal Gadot bị ghép mặt vào một bộ phim khiêu dâm. Ảnh: VnExpress
Phụ nữ, người nổi tiếng là nạn nhân phổ biến của Deepfake. Trong ảnh là nghệ sĩ Gal Gadot bị ghép mặt vào một bộ phim khiêu dâm. Ảnh: VnExpress

Nếu bức ảnh gốc được công khai, nó sẽ trở thành một hình ảnh riêng tư khi nó đã được chỉnh sửa theo cách này … Hơn nữa, tác hại của nó không kém gì các trường hợp lạm dụng tình dục dựa trên hình ảnh khác.” Theo Clare McGlynn, Erika Rackley và Ruth Houghton trong “Beyond ‘Revenge Porn'”

Deepfake là gì?!

Đây là một từ ghép của “deep learning” (học sâu) và “fake” (giả mạo) trong tiếng Anh. Chính tên gọi này cũng đã phản ánh phần nào khả năng của Deepfake. Đó là kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo.

Deepfakes đề cập đến các video bị thao túng hoặc các bản trình bày kỹ thuật số khác được tạo ra bởi trí thông minh nhân tạo tinh vi, mang lại hình ảnh và âm thanh giả giống như thật, được thực hiện bằng phương pháp học sâu.

Từ hình ảnh ban đầu của một khuôn mặt (a), DeepFace tạo ra mô hình 3-D (d), sau đó nó có thể xoay để tạo ra hình ảnh của cùng một khuôn mặt ở các góc khác nhau (g, h), sau đó nó có thể khớp với các ảnh của cùng một người. Ảnh: Facebook
Từ hình ảnh ban đầu của một khuôn mặt (a), DeepFace tạo ra mô hình 3-D (d), sau đó nó có thể xoay để tạo ra hình ảnh của cùng một khuôn mặt ở các góc khác nhau (g, h), sau đó nó có thể khớp với các ảnh của cùng một người. Ảnh: Facebook

Khả năng của Deepfake là tái tạo khuôn mặt người nhờ những hình ảnh đã được pixel hóa. Nhờ vậy, dữ liệu khuôn mặt của một người có thể được ghép sang hình ảnh và video của một người khác.

Hồi năm 2013, khi diễn viên Paul Walker qua đời đột ngột, chính phiên bản sơ khai của công nghệ Deepfake đã được các nhà làm phim sử dụng để thực hiện nốt bộ phim Fast & Furious 7 đang dang dở. Đó là một trong những lần đầu tiên thế giới được chứng kiến sự kỳ diệu của công nghệ này.

Tuy vậy, ở một mặt khác, Deepfake là công nghệ nguy hiểm bởi nó có thể tạo ra những đoạn video giả mạo một cách dễ dàng, thậm chí mắt người khó lòng phân biệt được.

Những năm gần đây, giới tội phạm đã có những tiến bộ vượt bậc trong ứng dụng công nghệ AI vào việc giả mạo, đặc biệt là thông qua các thuật toán học sâu. Đây là điều rất nguy hiểm bởi lượng dữ liệu và khả năng tính toán mà con người ngày nay có được đang ngày một lớn.

Làm thế nào để phát hiện video bị sửa bởi công nghệ deepfake?

Trong khi AI có thể được sử dụng để tạo ra những bức ảnh đặc biệt, nó cũng có thể được sử dụng để phát hiện chúng, Brookings ’Villasenor đã viết. Với việc công nghệ này có thể tiếp cận được với bất kỳ người dùng máy tính nào, ngày càng có nhiều nhà nghiên cứu tập trung vào việc phát hiện deepfake và tìm cách điều chỉnh nó.

Các tập đoàn lớn như FacebookMicrosoft đã thực hiện các sáng kiến ​​để phát hiện và loại bỏ các video deepfake. Đầu năm nay, hai công ty đã thông báo rằng họ sẽ hợp tác với các trường đại học hàng đầu trên khắp nước Mỹ để tạo ra một cơ sở dữ liệu lớn về các video giả mạo phục vụ nghiên cứu, theo Reuters.

“Hiện tại, có một số khía cạnh thị giác bị lỗi nếu bạn nhìn gần hơn, bất cứ điều gì từ tai hoặc mắt không khớp với đường viền mờ của khuôn mặt hoặc làn da quá mịn với ánh sáng và khoảng tối,” 1 Ca sĩ đến từ New America cho biết.

Nhưng anh ấy nói rằng việc phát hiện “lời nói” ngày càng khó hơn khi công nghệ deepfake trở nên tiên tiến hơn và video trông chân thực hơn.

Ngay cả khi công nghệ tiếp tục phát triển, Villasenor cảnh báo rằng các kỹ thuật phát hiện “thường tụt hậu so với các phương pháp tạo tiên tiến nhất”. Vì vậy, câu hỏi hay hơn là: “Mọi người sẽ có nhiều khả năng tin vào một thuật toán phát hiện hay một thuật toán phát hiện gắn cờ video là giả mạo?”

XEM THÊM >> 10 tấm ảnh chụp như được ghép bằng Photoshop

Nguồn:
_https://vietnamnet.vn/vn/cong-nghe/bao-mat/nghien-video-ghep-mat-coi-chung-co-ngay-xuat-hien-tren-web-khieu-dam-765596.html
_https://www.cnbc.com/2019/10/14/what-is-deepfake-and-how-it-might-be-dangerous.html
_https://www.trtworld.com/magazine/deepfakes-and-cheap-fakes-the-biggest-threat-is-not-what-you-think-43046

Bình luận bằng Facebook

comments