Cục An toàn thông tin, Bộ Thông tin và Truyền thông cảnh báo thủ đoạn lừa đảo bằng công nghệ
Deepfake.
Theo đó, Công nghệ Deepfake là công nghệ ứng dụng trí tuệ
nhân tạo để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt
như hình ảnh của người mà các đối tượng muốn giả mạo.
Deepfake đã trở thành mối đe dọa đối với không gian mạng tại
Việt Nam, nơi tội phạm mạng thường sử dụng các cuộc gọi video Deepfake để mạo
danh một cá nhân và vay mượn người thân, bạn bè của họ những khoản tiền lớn cho
những trường hợp cấp bách.
Đối tượng làm giả/chiếm đoạt tài khoản của người dùng mạng
xã hội, liên lạc với người thân trong danh sách bạn bè cho biết đang bị mắc kẹt
khi du lịch tại nước ngoài và cần một khoản tiền ngay lập tức. Sử dụng công nghệ
Deepfake và thực hiện cuộc gọi video (hình ảnh) để nạn nhân tưởng rằng đang nói
chuyện với người thân của mình và nhu cầu vay tiền là có thật, từ đó chuyển tiền
cho các đối tượng.
Hình minh họa
(nguồn cục an toàn thông tin)
Cục An toàn thông tin (Bộ TT&TT) khuyến cáo người dùng
có thể dùng chính các công cụ AI để nhận diện deepfake nhằm giảm thiểu xác suất
thành công của các vụ lừa đảo như Intel FakeCatcher, Microsoft Video
Authenticator… Đối với video deepfake, một số công cụ giúp nhận diện sự chuyển
động không khớp giữa khuôn miệng và lời thoại. Một số công cụ phát hiện lưu lượng
máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim
bơm máu, tĩnh mạch của con người sẽ đổi màu. Người dùng có thể phát hiện
deepfake nhờ vào hình mờ đánh dấu tác giả.
Người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp
thông tin cá nhân như căn cước công dân, tài khoản ngân hàng, mã OTP và không
chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu
lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, nên thực
hiện các phương thức xác thực khác như gọi điện thoại truyền thống hay sử dụng
các kênh liên lạc khác để xác nhận lại.
Phạm
Tuyển