Theo Yahoo News, ngày 21/4, Owen, sống tại Singapore, bị đánh thức bởi một cuộc điện thoại lạ với đầu số nước ngoài. Anh bắt máy vì nghĩ đó là người quản lý của mình. Tuy nhiên, đầu dây bên kia không lên tiếng.
Sau khi cúp máy, anh thu được tin nhắn trên ứng dụng Line từ một người tên Lori, trong đấy có ảnh chụp màn hình danh sách liên lạc của anh. Người này cho biết đã hack được vào danh bạ và dọa gửi video khiêu dâm của anh đến bạn bè nếu không chuyển cho hắn 8.000 SGD (132 triệu đồng).
Kẻ tống tiền cũng khuyên Owen không nên báo công an vì “hành động đó chỉ khiến chúng tôi tức giận hơn và danh tiếng của cậu sẽ bị gây hại nhiều hơn”.
“Chỉ cần trả một khoản phí nhỏ, chúng tôi sẽ xóa đoạn phim và không quấy rầy thêm”, hacker nhắn. Owen bỏ ngoài tai lời đe dọa, cho rằng đó là trò lừa đảo.
Vài giờ sau, tin tặc gửi một đoạn phim khiêu dâm, trong đấy khuôn mặt anh bị ghép vào nhân vật chính, tới bạn bè của Owen. “Họ hỏi tôi có nhận thấy người trong video không. Tôi đã phải đem rửa mặt cho tỉnh táo. Họ nói Owen đang tham gia một đơn vị mua bán tình dục nhưng lại không trả tiền”, bạn của anh kể. Nhiều bạn bè và cả đồng nghiệp cũ của Owen cho biết họ cũng nhận được video tương tự.
Owen lập tức báo cảnh sát. Hôm sau, một số người khác cũng gặp chiêu thức tống tiền tương tự. Các chuyên gia cho là video hacker dùng để làm tống tiền nạn nhân là một dạng deepfake.
Với sự tiến bộ của AI, kẻ xấu cũng có thể có thể ghép mặt bất kỳ ai vào một video mà người thường khó cũng có thể có thể phân biệt được đâu là thật, đâu là giả. Deepfake là từ kết hợp của “deep learning” (học sâu) và “fake” (giả mạo). Các video deepfake trước mắt được tung lên Reddit năm 2017, có nội dung là người nổi tiếng hoán đổi khuôn mặt vào các ngôi sao phim cấp ba.
Theo hoạch toán của Sensity, trong hơn 14.000 video deepfake được đăng tải, có đến 96% là video khiêu dâm. CNN dẫn lời Giorgio Patrini, CEO kiêm trưởng nhóm khoa học của Deeptrace, rằng các video có nội dung sai lệch lại thường được phát tán rất nhanh. “Ngay cả những lúc nhiều đoạn deepfake trông không giống thực, người xem vẫn bị ảnh hưởng về nhận thức. Đây là mối dọa dẫm đáng ngại cho mạng xã hội”, Patrini nói.
Phần lớn nội dung deepfake mà Deeptrace tìm kiếm được đều từ website khiêu dâm, trong đấy có riêng một trang cung cấp cho người sử dụng các dòng phim deepfake với diễn viên nữ có khuôn mặt được thay bằng hình ảnh người nổi tiếng nào đó. Tất cả được gắn quảng cáo.
Các nền tảng trực tuyến như Facebook hay Google nhiều lần cảnh báo nguy cơ deepfake bị phát tán rộng rãi trên mạng xã hội. Vì vậy, họ đã tạo nên các kho dữ liệu deepfake với kỳ vọng bổ trợ các nhà nghiên cứu tìm cách ngăn chặn loại nội dung giả mạo.
Khương Nha (theo Yahoo News )
Deepfake, hacker, ghép mặt, Đời sống số hóa, Tin
Nội dung Tống tiền thất bại, hacker ghép nạn nhân vào video khiêu dâm – Tin Công Nghệ Số hóa được tổng hợp sưu tầm biên tập bởi: Sửa máy tính ITS. Mọi ý kiến vui lòng gửi Liên Hệ cho suamaytinhits.com để điều chỉnh. suamaytinhits.com tks.