Cục An toàn thông tin (Bộ Thông tin và Truyền thông) ngày 30.12 đưa ra cảnh báo về thủ đoạn lừa đảo bằng cách ghép mặt nhờ AI, nhằm giả mạo người thân, bạn bè trên tin nhắn Facebook để chiếm đoạt tiền của người dùng.
Theo Cục An toàn thông tin, sự việc gần đây nhất xảy ra vào sáng 23.12, khi chị N.T.H (45 tuổi, Q.Long Biên, Hà Nội) nhận cuộc gọi video qua ứng dụng tin nhắn Facebook của con trai đang ở TP.HCM, đề nghị chuyển trên 100 triệu đồng để đóng phí đăng ký du học.
Là cán bộ ngân hàng đã được tập huấn, chị H. tỏ ra nghi ngờ và không thực hiện. Cục An toàn thông tin đánh giá, các đối tượng lừa đảo thường thu thập hình ảnh, video của nạn nhân từ mạng xã hội hoặc nhiều nguồn khác để tạo video giả mạo. Chúng sử dụng AI để ghép khuôn mặt và giọng nói, rồi gọi video nhờ vào lí do cấp bách như tai nạn, nợ nần, yêu cầu chuyển tiền ngay.
Dấu hiệu nhận biết và cách phòng ngừa
“Người dân khi nhận được cuộc gọi cần gọi lại cho người thân qua số điện thoại đã biết để kiểm tra thông tin, không nên vội chuyển tiền theo yêu cầu trong cuộc gọi video hoặc tin nhắn trên mạng xã hội,” Cục An toàn thông tin khuyến cáo.

Ngoài ra, cơ quan này cho rằng người dùng nên hạn chế đăng tải thông tin nhạy cảm, video, hình ảnh cá nhân trên mạng xã hội, đồng thời điều chỉnh thiết lập quyền riêng tư để tránh bị kẻ xấu lợi dụng. Nếu phát hiện tài khoản người thân, bạn bè có dấu hiệu bất thường, hãy thông báo cho họ và tránh tương tác các yêu cầu liên quan đến tiền bạc.
Khi nghi ngờ hoặc gặp trường hợp lừa đảo, người dân cần kịp thời trình báo cơ quan công an, phối hợp chặt chẽ với cơ quan chức năng để ngăn chặn hành vi phạm pháp.
Nhận biết lừa đảo bằng AI, deepfake
Trước đó, Cục An toàn thông tin cũng cảnh báo các cuộc gọi giả mạo (deepfake) với một số dấu hiệu nhận biết như: thời gian gọi thường rất ngắn (chỉ vài giây), khuôn mặt trên video ít biểu cảm, tư thế không tự nhiên, màu da bất thường, ánh sáng kỳ lạ… Âm thanh trong clip không đồng nhất với hình ảnh hoặc có nhiều tạp âm.
Chuyên gia khuyến nghị người dân luôn xác minh kỹ thông tin, đặc biệt là các yêu cầu chuyển tiền gấp với lý do khẩn cấp. Việc cảnh giác và xác thực thông tin qua kênh liên lạc chính thống là biện pháp hiệu quả nhất để bảo vệ tài sản, cũng như ngăn chặn hành vi lừa đảo đang diễn biến phức tạp trong môi trường số.