Cuộc gọi lừa đảo do trí tuệ nhân tạo (AI) tạo ra đang trở thành một mối đe dọa ngày càng lớn. Công nghệ này đang bị kẻ xấu lợi dụng để thực hiện những cuộc gọi mạo danh chân thật đến mức khó phân biệt.
Theo báo cáo của Ủy ban Thương mại Liên bang Mỹ (FTC), các vụ lừa đảo mạo danh đã gây thiệt hại 2,6 tỉ USD vào năm 2022. Với sự xuất hiện của nhiều công nghệ mới, những trò lừa đảo mạo danh ngày càng tinh vi hơn. Vào tháng 3, FTC cho biết những kẻ lừa đảo đã bắt đầu sử dụng AI để tạo ra các tình huống khẩn cấp, thuyết phục nạn nhân tin rằng thành viên gia đình họ đang gặp nạn để lấy tiền hoặc thông tin cá nhân.
Trong một cuộc khảo sát vào tháng 4 đối với người trưởng thành ở 7 quốc gia do công ty bảo mật McAfee thực hiện, 1/4 số người được hỏi cho biết họ từng gặp lừa đảo bằng giọng nói AI, trong khi 15% nói rằng người quen của mình từng gặp phải vụ lừa đảo tương tự.
Chỉ cần vài phút kết nối internet và một khoản phí nhỏ, những kẻ xấu có thể “vũ khí hóa” AI để trục lợi cá nhân. Báo cáo từ McAfee cho thấy, trong một số trường hợp, kẻ lừa đảo chỉ cần 3 giây âm thanh của đối tượng để sao chép giọng nói.
Theo Business Insider, TikToker 19 tuổi Eddie Cumberbatch đã nhận được một cuộc gọi của bố hỏi anh có bị tai nạn xe hơi ở Chicago (Mỹ) không. Điều này khiến Eddie vô cùng bất ngờ vì anh chưa từng lái xe trong 6 tháng qua và thậm chí không có xe ở Chicago.
Sau khi được bố giải thích, Eddie biết được có kẻ mạo danh thông báo với gia đình rằng anh gặp tai nạn giao thông để lừa tiền. May mắn là bố anh đã nghi ngờ về cuộc gọi này ngay lập tức, gọi điện cho con trai để xác minh và nhận ra kẻ xấu đã sử dụng giọng nói được tạo bằng AI để đánh lừa gia đình Cumberbatch.
Là một người sáng tạo trực tuyến với hơn 100.000 người theo dõi trên TikTok, Eddie Cumberbatch biết các tài khoản giả mạo bắt chước anh chắc chắn sẽ xuất hiện. Một ngày trước cuộc gọi lừa đảo, một tài khoản giả mạo của Eddie đã xuất hiện trên Instagram và bắt đầu nhắn tin cho gia đình và bạn bè của anh.
Cảm thấy sợ hãi trước việc kẻ lừa đảo cố gắng dùng AI sao chép giọng nói của mình, Eddie đã gọi điện cho những người còn lại trong gia đình để cảnh báo họ về trò lừa đảo và làm một video trên TikTok về trải nghiệm của mình để nâng cao nhận thức.
Trong khi Eddie và gia đình của anh ấy có thể tránh được trò lừa đảo, thì nhiều nạn nhân của những kẻ lừa đảo được hỗ trợ bởi AI này lại không may mắn như vậy. Và khi công nghệ AI trở thành xu hướng, những trò gian lận này sẽ ngày càng khó phát hiện hơn.
Theo trang web của FTC, có trường hợp những kẻ lừa đảo giả làm người yêu, nhân viên Sở Thuế vụ Mỹ (IRS), kỹ thuật viên máy tính và thành viên gia đình. Hầu hết các vụ lừa đảo xảy ra qua điện thoại, nhưng chúng cũng có thể diễn ra trên mạng xã hội, qua tin nhắn hoặc email.
Một kỹ sư phần mềm tại Google Richard Mendelstein đã nhận được một cuộc gọi giống như tiếng kêu cứu của con gái mình. Sau khi Mendelstein chuyển 4.000 USD để chuộc con gái, anh mới biết mình đã bị lừa và con gái anh vẫn an toàn ở trường suốt thời gian qua.
Các vụ lừa đảo bắt cóc ảo trước đây thường sử dụng các bản ghi âm giọng nói phù hợp với độ tuổi và giới tính của con cái nạn nhân, nhắm vào các bậc cha mẹ đang hoảng sợ khi nghe thấy âm thanh của một đứa trẻ đang sợ hãi, ngay cả khi giọng nói đó không thực sự khớp với giọng nói của con họ. Nhưng với AI, giọng nói ngày càng khó phân biệt hơn.
Tờ Washington Post đưa tin vào tháng 3 rằng một cặp vợ chồng người Canada đã bị lừa 21.000 USD sau khi nghe thấy giọng nói kêu cứu do AI tạo ra giống như con trai họ. Trong một trường hợp khác vào năm nay, những kẻ lừa đảo đã sao chép giọng nói của một cô gái 15 tuổi và đóng giả những kẻ bắt cóc để đòi khoản tiền chuộc 1 triệu USD.
Hầu hết chúng ta có thể nghĩ mình sẽ nhận ra giọng nói của người nhà trong tích tắc. Nhưng khảo sát từ McAfee cho biết khoảng 70% người trưởng thành thiếu tự tin trong việc phân biệt giữa giọng nói nhân bản và giọng nói thật. Một nghiên cứu năm 2019 cho thấy bộ não không ghi nhận sự khác biệt đáng kể giữa giọng nói thật và giọng nói do máy tính tạo ra.
Ngoài ra, ngày càng có nhiều người cung cấp giọng nói thật của họ cho những kẻ lừa đảo, McAfee cho biết 53% người trưởng thành đã chia sẻ dữ liệu giọng nói của họ trực tuyến hằng tuần. McAfee cũng phát hiện hơn 1/3 nạn nhân đã mất hơn 1.000 USD trong các vụ lừa đảo bằng AI, với 7% mất hơn 5.000 USD.
FTC đã báo cáo rằng nạn nhân của những vụ lừa đảo mạo danh đã mất trung bình 748 USD trong quý 1/2023.
Giám đốc công nghệ của McAfee Steve Grobman cho biết, một trong những điều quan trọng nhất cần lưu ý là các tiến bộ của AI trong năm nay đưa công nghệ này đến với nhiều người hơn, bao gồm cả việc thực sự cho phép mở rộng quy mô trong cộng đồng người sử dụng mạng. Tội phạm mạng có thể sử dụng trí tuệ nhân tạo AI để tạo giọng nói giả và deepfake dễ dàng hơn trước.
Thay vì tốn 3 tháng để “hẹn hò” online và chờ đợi đối tượng “sập bẫy”, họ có thể thực hiện một vụ lừa đảo bằng âm thanh giả thực hiện trong 10 phút và nhận được kết quả tương tự.
Các vụ lừa đảo giả danh cuộc gọi điện thoại trước đây dựa vào kỹ năng diễn xuất của kẻ lừa đảo hoặc mức độ cả tin của nạn nhân. Nhưng giờ đây, AI đã thực hiện hầu hết công việc đó. Các nền tảng âm thanh AI phổ biến như Murf, Resemble và ElevenLabs cho phép người dùng tạo giọng nói chân thực bằng công nghệ chuyển văn bản thành giọng nói.
Không chỉ thế, hầu hết các công cụ này đều dễ sử dụng và được cung cấp bản dùng thử miễn phí. Kẻ lừa đảo chỉ cần tải tệp âm thanh của ai đó lên một trong những trang web này rồi và để AI mô phỏng giọng nói của họ.
Đối với những cuộc gọi lừa đảo, nạn nhân thường có rất ít thông tin để cung cấp cho cảnh sát điều tra. Hơn nữa, các kẻ xấu có thể hoạt động từ khắp nơi trên thế giới. Với thông tin ít ỏi và nguồn lực cảnh sát hạn chế, hầu hết các vụ việc đều chưa được giải quyết. Ở Anh, cứ 1.000 trường hợp lừa đảo thì chỉ có 1 trường hợp bị buộc tội.
Tuy nhiên, CTO của McAfee nói khi nhận được cuộc gọi khả nghi, chúng ta nên bình tĩnh và hỏi một số câu mà chỉ người quen ở đầu dây bên kia mới biết câu trả lời. FTC cũng đã khuyến nghị nếu một người thân nói với bạn rằng họ cần tiền, hãy tạm dừng cuộc gọi đó và thử gọi riêng cho thành viên gia đình để xác minh câu chuyện. Ngay cả khi một cuộc gọi đáng ngờ đến từ số của một thành viên trong gia đình, thì cuộc gọi đó cũng có thể bị làm giả.
Chính phủ Mỹ đang cố gắng kiểm soát những cách lừa đảo bằng AI. Vào tháng 2, thẩm phán Tòa án Tối cao Mỹ Neil Gorsuch nhấn mạnh vẫn còn những hạn chế trong việc ngăn chặn các vụ lừa đảo AI, cụ thể là phần lớn các trang web không phải chịu trách nhiệm pháp lý đối với nội dung do bên thứ ba đăng.
Vào tháng 5 vừa qua, Phó tổng thống Mỹ Kamala Harris nói với CEO của các công ty công nghệ hàng đầu rằng họ có trách nhiệm bảo vệ xã hội khỏi những nguy cơ của AI. Tương tự, FTC nói với các công ty rằng họ cần biết về những rủi ro và tác động của sản phẩm AI trước khi đưa ra thị trường.
[…] trái đạo đức, thậm chí phạm pháp. Nổi bật trong số này là sử dụng Deepfake để tạo ra video ghép mặt nhằm bôi xấu, lừa đảo, hay việc lách luật […]
[…] Cảnh sát lý giải chiếc chày đâm tiêu thực chất là một quả lựu đạn, được người phụ nữ trong làng phát hiện ngoài đồng 20 năm về trước. Tưởng là cục sắt, bà lão này đã đem về nhà và sử dụng như một chiếc chày đâm tiêu. […]
[…] người đang tìm kiếm một cách kín đáo và tinh tế để kết thúc hay từ chối cuộc gọi trên iPhone mà không bị coi là thô lỗ, có một cách thực hiện khá thú […]