Cụ thể, theo thông tin từ Ngân hàng Nhà nước, các nhóm tội phạm tìm kiếm hoặc "nuôi" người đứng tên tài khoản ngân hàng, sau đó thuê chính người này xuất hiện để xác thực giao dịch bằng khuôn mặt, từ đó qua mặt hệ thống bảo mật sinh trắc học của ngân hàng.
Thủ đoạn này thường được sử dụng để rút tiền, chuyển tiền lừa đảo dưới vỏ bọc các tài khoản doanh nghiệp hoặc cá nhân đã hợp pháp hóa từ trước.
Ngân hàng Nhà nước Việt Nam đã ghi nhận thực trạng này và phối hợp cùng Bộ Công an để ngăn chặn.
Theo quy định mới trong Thông tư 17/2024, từ ngày 1/7/2025, các tài khoản doanh nghiệp chưa xác thực sinh trắc học người đại diện sẽ bị dừng mọi giao dịch điện tử, nhằm siết chặt quản lý và giảm nguy cơ bị lợi dụng cho mục đích gian lận. Đối với cá nhân, hành vi cho thuê khuôn mặt để phục vụ lừa đảo có thể bị truy cứu trách nhiệm hình sự và xử phạt hành chính lên tới 200 triệu đồng.
Theo số liệu của Ngân hàng Nhà nước, hiện có hơn 200 triệu tài khoản ngân hàng, nhưng mới chỉ khoảng 113 triệu tài khoản đã được đối chiếu sinh trắc học. Điều này cho thấy mức độ rủi ro vẫn còn cao, nhất là khi người dân chưa nhận thức đầy đủ về việc bảo vệ thông tin cá nhân.
Trong trường hợp này, việc dùng khuôn mặt để thực hiện sinh trắc học cho các hoạt động lừa đảo vẫn ở dạng trao đổi. Tức là, người ta dùng khuôn mặt của mình như một món hàng để kiếm tiền. Tất nhiên, họ không lường được hết hệ lụy pháp lý cho những công việc tưởng chừng rất đơn giản này.
Tuy nhiên, xa hơn, việc thay thế dần mật khẩu, mã OTP bằng sinh trắc học (khuôn mặt, vân tay) không còn xa. Không chỉ trong lĩnh vực ngân hàng mà ở mọi lĩnh vực cần bảo mật. Tức là, khuôn mặt, vân tay, giọng nói dần sẽ trở thành chìa khóa, cũng là tài sản của mỗi người kể cả giao dịch tiền bạc lẫn cả trăm tài khoản cung cấp đủ các loại dịch vụ đời sống trên mạng.
Vấn đề nghiêm trọng cần suy xét thấu đáo ở đây không đơn thuần chỉ là những người đồng thuận cho sử dụng khuôn mặt mình vào mục đích xấu. Đó là việc có thể, tội phạm công nghệ cao sẽ có khuôn mặt, giọng nói của người dùng và dùng công nghệ deepfake hay clone giọng nói để phục vụ mục đích xấu.
Bởi, mỗi người dân bây giờ đều là chủ của hơn một tài khoản mạng xã hội. Clip, hình ảnh đăng công khai rất nhiều. Đó là nguồn để tội phạm công nghệ cao tái tạo những hình ảnh, giọng nói như thật phục vụ mục đích xấu.
Deepfake có thể khó qua được các “cửa” sinh trắc học phức tạp của ngân hàng. Nhưng chuyện giả người thân gọi video call “vay tiền” không còn xa lạ. Hay chuyện dùng công nghệ AI ghép khuôn mặt vào clip nhạy cảm để tống tiền cũng diễn ra nhiều… Vô vàn hình thức đã, đang và sẽ xảy ra trong tương lai khi công nghệ AI đang phát triển như vũ bão.
Ngân hàng Nhà nước, lực lượng công an hay các đơn vị liên quan đã làm tốt việc của mình là xây dựng khung pháp lý, triệt phá tội phạm, lên tiếng cảnh báo. Việc còn lại là ý thức của người dân.
Tất nhiên, việc đăng tải hình ảnh, video lên mạng xã hội là xu thế không thể đảo ngược và khó có thể khuyên người dân hạn chế bởi sáng tạo nội dung số giờ đã thành một ngành công nghiệp. Song, ý thức trong từng cuộc gọi của người thân với đầy đủ khuôn mặt, giọng nói; ý thức về các clip nhạy cảm làm giả để thao túng, gây sức ép hay ý thức rõ ràng rằng khuôn mặt mình, giọng nói mình, là một loại tài sản cần cẩn trọng khi giao cho các bên không rõ ràng… là việc cần nhớ.
Bởi, như đã nói, nếu như tiền, vàng, sổ đỏ - những thứ tài sản hữu hình truyền thống - có thể cất trong kho bạc hoặc két sắt thì gương mặt và giọng nói thì không. Chúng ta buộc phải tự ý thức cao độ về việc bảo vệ loại tài sản đặc biệt này cũng như những cuộc gọi bất thường xảy ra.
Vì suy cho cùng, tấm khiên mạnh nhất để chống lại các loại hình lừa đảo là sức đề kháng trong ý thức mỗi người về các loại hình tội phạm công nghệ cao, đặc biệt trong thời buổi AI trăm hoa đua nở như ngày nay.
Đọc nhiều
Tin mới
“Đi bắt học trò”
Để có năng lượng sạch, trước tiên phải có môi trường đầu tư sạch
Phải truy trách nhiệm “chợ trên quốc lộ”
Tin tức khác
Người về từ đại dương
Sau lưng là thành phố
Giáo dục bằng tình thương
Phải “sốt ruột” hơn nữa trên EWEC
Trục lợi trong thảm họa