Cảnh báo hiểm họa Deepfake: Vượt qua bảo mật sinh trắc học

ảnh đại diện

by Editor CLD

Công nghệ Deepfake (kết hợp giữa “deep learning” và “fake”), được hỗ trợ bởi Trí tuệ nhân tạo (AI), đang đưa hoạt động giả mạo lên một cấp độ mới, khó phát hiện hơn bao giờ hết. Nếu như trước đây, sinh trắc học được coi là “tấm khiên” bảo vệ tuyệt đối, thì nay, công cụ mô phỏng khuôn mặt và giọng nói này đã trở thành mối đe dọa nghiêm trọng đối với an ninh tài chính toàn cầu và tại Việt Nam.

Hãy cùng Chống Lừa Đảo tìm hiểu về những rủi ro này và các lỗ hổng bảo mật mà tội phạm đang khai thác.

Sự nguy hiểm của Deepfake AI

Công nghệ Deepfake AI hiện nay có khả năng qua mặt cả sinh trắc học nếu hệ thống bảo mật không được triển khai tốt. Kẻ gian sử dụng Deepfake để giả mạo khuôn mặt và giọng nói, sau đó dùng tài khoản mạng xã hội bị đánh cắp để lừa đảo, dẫn dụ nạn nhân chuyển tiền.

  • Thiệt hại Tài chính Toàn cầu:
  • Các sự cố Deepfake đã tăng gấp 10 lần (tương ứng với mức tăng hơn 900%) trên toàn cầu từ năm 2023–2025.
  • Theo ước tính của Deloitte, gian lận do AI thúc đẩy sẽ gây thiệt hại cho các ngân hàng và khách hàng của họ tới 40 tỉ USD vào năm 2027.
  • Thực trạng tại Việt Nam:

Tại Việt Nam, hiểm họa của AI tạo sinh và Deepfake ngày càng tăng và rõ ràng hơn. Trong năm 2024, Cục An toàn thông tin đã ghi nhận hơn 220.000 báo cáo về lừa đảo trực tuyến và gian lận, phần lớn liên quan đến lĩnh vực tài chính và ngân hàng.

Thậm chí, các vụ triệt phá băng nhóm tội phạm gần đây đã cho thấy thủ đoạn tinh vi: tội phạm thu mua thông tin tài khoản, SIM điện thoại, và yêu cầu chủ tài khoản quay lại video khuôn mặt để phục vụ cho việc hack sinh trắc học tài khoản ngân hàng nhằm nhận tiền lừa đảo và rửa tiền.

Lỗ hổng bảo mật từ đâu?

Nhiều người dùng lo lắng liệu công nghệ sinh trắc học có bị “lạc hậu” hay không, khi mà công cụ AI có thể tạo ra khuôn mặt như thật để vượt qua bước sinh trắc học.

Theo lãnh đạo Cục An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (Bộ Công an), hệ thống công nghệ ứng dụng sinh trắc học của các ngân hàng đều cơ bản đảm bảo xử lý được vấn đề bảo mật. Tuy nhiên, công nghệ Deepfake, với sự hỗ trợ của AI, đã vượt qua các biện pháp kỹ thuật thông thường.

Các chuyên gia an ninh mạng đã chỉ ra rõ vấn đề nằm ở khâu triển khai:

  • Thiếu lớp kiểm tra chống giả mạo:
  • Các chuyên gia nhận định rằng, công nghệ giả mạo bằng AI đã đủ tinh vi để vượt qua các lớp xác thực cơ bản như Face ID hay cuộc gọi video.
  • Tuy nhiên, vấn đề không phải là công nghệ sinh trắc học “lạc hậu,” mà là do nhiều ngân hàng và nền tảng chưa triển khai đủ các lớp kiểm tra chống giả mạo (liveness detection – phát hiện người thật, và deepfake detection).
  • Lợi dụng kẽ hở ứng dụng:
  • Hiện nay, một số giải pháp xác thực danh tính dễ dàng bị qua mặt bởi hình ảnh tĩnh, video, hoặc Deepfake. Một phần nguyên nhân đến từ việc các giải pháp này không đạt tiêu chuẩn về chất lượng.
  • Kẻ gian có thể lợi dụng kẽ hở của ứng dụng và đánh lừa sinh trắc học chứ chưa cần đến công nghệ AI tinh vi.
  • Một số ứng dụng (app) ngân hàng vì bảo mật kém đã bị bẻ khóa, sau đó đối tượng có thể dùng một tấm hình chân dung để vượt qua sinh trắc học.

Khuyến cáo từ các chuyên gia

Để đối phó với cuộc chạy đua công nghệ tội phạm này, đòi hỏi sự phối hợp hành động cẩn trọng từ cả tổ chức và người dùng:

  • Về phía Ngân hàng và Tổ chức

Các ngân hàng và tổ chức tín dụng cần phải thường xuyên cập nhật diễn biến mới để phát hiện các lỗ hổng. Quan trọng nhất là:

  • Nâng cấp hệ thống xác thực đa lớp, kết hợp AI chống Deepfake.
  • Khi thực hiện giải pháp xác thực định danh khách hàng trực tuyến (eKYC), các ứng dụng phải có chức năng chống giả mạo Deepfake và ảnh tĩnh.
  • Cần tăng cường cảnh báo rủi ro cho người dùng.
  • Về phía Người dùng

Bảo vệ thông tin cá nhân của bạn là tuyến phòng thủ đầu tiên.

  • Xác minh đa kênh: Khi nhận được yêu cầu chuyển tiền hoặc thông tin nhạy cảm qua cuộc gọi/video Deepfake, hãy sử dụng một kênh liên lạc khác (số điện thoại đã biết, tin nhắn SMS) để xác minh trực tiếp với người đó.
  • TUYỆT ĐỐI KHÔNG CHIA SẺ: Không chia sẻ mật khẩu, mã OTP, hoặc thông tin định danh cho bất kỳ cá nhân/tổ chức nào không được xác thực chính thống.
  • Cảnh giác với đường link lạ: Hạn chế truy cập đường link lạ không rõ nguồn gốc hoặc có nội dung mời chào/khuyến mãi bất thường.

Hãy nhớ rằng, công nghệ chỉ thực sự hiệu quả khi cả tổ chức lẫn người dùng đều hành động cẩn trọng và chủ động phòng ngừa.


Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *