LỪA ĐẢO BẰNG AI – CHIÊU TRÒ NGÀY CÀNG KHÓ LƯỜNG
Trí tuệ nhân tạo (AI) được phát minh để phục vụ cuộc sống con người tốt đẹp hơn. Tuy nhiên, lợi dụng những tính năng ưu việt của AI, nhiều tổ chức tội phạm công nghệ cao lại đang sử dụng AI vào những mục đích phi pháp, tấn công và lừa đảo người dùng.
- Lừa bị truy nã, liên quan các vụ án hình sự

Hành vi lừa đảo bằng công nghệ thông tin ngày càng tinh vi, khó đoán. (Nguồn: dammetatca.com)
Thời gian vừa qua, nhiều người dùng cho biết họ bỗng dưng nhận được tin nhắn, cuộc gọi “Lệnh truy nã”, nêu rõ thời gian ra quyết định và hành vi bị truy nã, đồng thời yêu cầu người nhận tự giác trình diện. Ngoài giả danh công an thông báo “lệnh truy nã”, lực lượng chức năng đã có nhiều khuyến cáo về việc kẻ xấu mạo danh cán bộ Công an, Viện Kiểm Sát… gọi điện hù dọa liên quan đến vi phạm giao thông, án ma túy, rửa tiền…
Khi nạn nhân cho biết mình không liên quan hoặc không phải là tội phạm được nói đến thì các đối tượng lừa đảo này sẽ yêu cầu cung cấp thông tin để xác minh hoặc nói rằng “Có thể thông tin cá nhân của anh/chị bị lợi dụng”, yêu cầu nạn nhân làm theo hướng dẫn để “phục vụ công tác điều tra, xử lý”, từ đó dẫn dụ nạn nhân cung cấp thông tin, làm theo những yêu cầu của mình.
- Giả làm người thân, nhà trường yêu cầu chuyển tiền
Kẻ xấu sẽ mạo danh là giáo viên, nhân viên y tế nhà trường hoặc nhân viên y tế bệnh viện liên hệ trực tiếp với phụ huynh học sinh báo tin về việc học sinh, người nhà bị tai nạn, đang nhập viện cấp cứu, yêu cầu phải nhanh chóng chuyển tiền để đóng viện phí, cấp cứu bệnh nhân, từ đó chiếm đoạt tài sản. Trong quá trình video call bằng nhiều thủ đoạn, đối tượng sẽ yêu cầu nạn nhân nhìn thẳng, nghiêng trái, nghiêng phải,… sau đó, đối tượng sẽ ghi lại video và dùng nó để mở tại tài khoản ngân hàng, ví điện tử đứng tên nạn nhân.

Các đối tượng sử dụng deepfake giả làm người quen, cơ quan nhà nước lừa đảo chiếm đoạt tài sản
(Nguồn: Pacifista.tv)
- Deepfake – Nguy hiểm tiềm tàng
Các đối tượng trên đã sử dụng Deepfake – Một kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo AI
Cụ thể hơn, Deepfake là công nghệ mô phỏng hình ảnh khuôn mặt con người, được đặt tên theo cụm từ được kết hợp giữa “Deep learning” và “Fake”. Nó được sử dụng để kết hợp và chồng các hình ảnh và video hiện có lên các hình ảnh hoặc video nguồn bằng cách sử dụng kỹ thuật học máy gọi là Generative Adversarial Network (tạm dịch là mạng đối nghịch tạo sinh).
Cách thức hoạt động: Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video cá nhân khác và sử dụng AI thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật.
- Tỉnh Táo, Xác Thực Mọi Thứ Trước Khi Chuyển Tiền
Người dùng khi nhận được những cuộc gọi, tin nhắn trên trước hết phải hết sức bình tĩnh, giữ tâm lý “mạnh” vì các kẻ gian này chủ yếu thao túng tâm lý vào “nỗi sợ”.
Bên cạnh đó cần chú ý một số dấu hiệu lừa đảo sau:
- Video hoặc hình ảnh mà nhân vật trong đó có một số dấu hiệu kỳ lạ, như khuôn mặt thiếu tính cảm xúc và khá “đơ” khi nói, tư thế lúng túng, không tự nhiên… Hay màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ khiến cho video trông “giả tạo” và không tự nhiên.
- Âm thanh không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh
- Kiểm tra kĩ thông tin chủ tài khoản ngân hàng. Tài khoản chuyển tiền có thể không phải của người thực hiện cuộc gọi
- Trong quá trình thực hiện hành vi lừa đảo, kẻ gian thường ngắt giữa chừng, bảo là mất sóng, sóng yếu,….
Những yếu tố kỳ lạ như trên là “báo hiệu đỏ” của Deepfake. Người dùng nên tỉnh táo, nâng cao cảnh giác khi có một ai đó trên mạng xã hội trong danh sách bạn bè tự nhiên hỏi mượn tiền, có người giả danh cơ quan nhà nước hay nhà trường gửi link lạ thì không nên vội vã, hốt hoảng mà hãy bình tĩnh, kiểm chứng và nên xác thực mọi thông tin trước khi tiến hành giao dịch.
Hoàng Anh – IP Leader





