Cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake để lừa đảo

Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người dùng “sập bẫy”. Đó là đối tượng lợi dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để yêu cầu “nạn nhân” chuyển tiền.

Thủ đoạn lừa đảo này được dự báo sẽ “nở rộ” trong thời gian tới, các chuyên gia khuyến cáo người dùng cần hết sức cảnh giác để tránh bị mất tiền oan.

Cách đây khoảng 1 tuần, chị Nguyễn Thị Thanh Hà ở Thanh Trì (Hà Nội) nhận được tin nhắn của anh trai qua Faecbook đề nghị chuyển tiền với nội dung “tài khoản em còn đủ 17 triệu không, chuyển cho anh qua đây, sáng mai anh gửi lại sớm được không?”. Sau khi nhắn tin, tài khoản này còn gọi video qua Facebook cho chị Hà với thời lượng khoảng 8-10 giây. Trong video hiện lên hình ảnh của anh trai chị Hà dù hình ảnh video không thực sự sắc nét.

Mặc dù trong lòng cảm thấy có chút băn khoăn vì từ trước đến nay anh trai ít khi hỏi vay một số tiền lớn như vậy song thấy hình ảnh video qua Facebook chính là anh trai nên chị Hà cũng tự loại bỏ nghi ngờ. Sau khi yêu cầu gửi số tài khoản để chuyển tiền, thấy tên tài khoản không phải là tên anh trai mà là một người khác, chị Hà liền gọi điện thoại để xác minh thì được biết anh trai chị vừa bị hack Facebook.

deepfake-lua.jpeg -0
Trước việc kẻ xấu lợi dụng công nghệ Deepfake để lừa đảo, người dùng cần xác minh kỹ thông tin trước khi chuyển tiền. Ảnh minh họa

Không may mắn như chị Hà, chị Nguyễn Hải Ly đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook với nội dung “Cho mình mượn tạm 10 triệu đồng vì đang có việc cần gấp” và yêu cầu chuyển thẳng số tiền đó vào tài khoản của người thứ 3 để “đỡ mất công phải chuyển đi chuyển lại. Lúc nào chuyển xong thì chỉ cần chụp hình ảnh gửi cho mình”.

Nghi ngờ Facebook người bạn bị chiếm tài khoản nên chị Ly đã gọi video để kiểm chứng. Phía bên kia bắt máy, mở video cho chị Ly thấy mặt nhưng hình ảnh hơi mờ. Khi chị Ly hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Thấy hình ảnh bạn, chị Ly đã tin tưởng và chuyển 10 triệu đồng vào tài khoản. Sau khi chuyển tiền, chị Ly gọi điện thoại cho bạn thì mới biết mình bị lừa.

Theo các chuyên gia công nghệ, trong tình huống trên đối tượng đã sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh, video làm giả người ngoài đời thực với độ chính xác tương đối cao. Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Để tránh bị “sập bẫy”, các chuyên gia khuyến cáo và đề nghị người dùng cần nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Sau đó phải thực hiện ngay thao tác kiểm tra bằng cách gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber).

Thông tin thêm về thủ đoạn này, chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Việt Nam (NCS) cho biết: Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước. Tuy nhiên, gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ.

Cũng theo ông Sơn, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Vì thế, người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển và giọng nói không trơn tru, không ngắt nghỉ…

Theo dự đoán của các chuyên gia của BKAV, việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng sẽ có thể gia tăng trong thời gian tới. Do đó, người dùng cần bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp, kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Bên cạnh đó, cũng nên tìm hiểu về công nghệ Deepfake để nhận biết được các đặc điểm nhằm phân biệt giữa video và hình ảnh thật và giả mạo.

Hùng Quân

Các tin khác

Cảnh báo chiêu lừa “phạt nguội 50.000 VND” qua website giả mạo dịch vụ công

Cảnh báo chiêu lừa “phạt nguội 50.000 VND” qua website giả mạo dịch vụ công

Lợi dụng tâm lý chủ quan của nạn nhân trước khoản phạt nhỏ, đối tượng lừa đảo phát tán tin nhắn giả mạo “phạt nguội 50.000 VND”, dẫn dụ người dân truy cập website giả Cổng dịch vụ công để đánh cắp thông tin ngân hàng. Chỉ sau vài thao tác nhập dữ liệu thẻ và mã OTP, nạn nhân có thể mất tiền trong tài khoản bởi thủ đoạn lừa đảo tinh vi, khó nhận biết.

VinaPhone hướng dẫn xác thực thông tin thuê bao cho người Việt Nam ở nước ngoài

VinaPhone hướng dẫn xác thực thông tin thuê bao cho người Việt Nam ở nước ngoài

Trong bối cảnh yêu cầu chuẩn hóa thông tin thuê bao ngày càng được siết chặt, nhiều người Việt Nam đang sinh sống, làm việc ở nước ngoài băn khoăn về cách xác thực thông tin thuê bao cho số điện thoại VinaPhone của mình đang sử dụng mà không cần về nước. Với hướng dẫn cụ thể từ VinaPhone, người dùng hoàn toàn có thể chủ động tự hoàn tất thủ tục ngay trên điện thoại, đảm bảo liên lạc thông suốt và tránh nguy cơ bị gián đoạn dịch vụ.

Bảo đảm an ninh dữ liệu, tăng cường hợp tác quốc tế về an ninh mạng

Bảo đảm an ninh dữ liệu, tăng cường hợp tác quốc tế về an ninh mạng

Lần đầu tiên, khái niệm “an ninh dữ liệu” được quy định một cách đầy đủ, xác lập vị trí độc lập trong hệ thống pháp luật tại Luật An ninh mạng. Bên cạnh đó, Luật An ninh mạng cũng đã bổ sung, tăng cường các quy định về bảo vệ trẻ em trên không gian mạng; khuyến khích nghiên cứu, phát triển và ứng dụng khoa học, công nghệ trong lĩnh vực an ninh mạng. 

“Bẫy mật ngọt” và mồi nhử vô hình không gian số

“Bẫy mật ngọt” và mồi nhử vô hình không gian số

Chiến thuật tuyển mộ nguồn tin đang dịch chuyển hoàn toàn sang không gian số. Các tương tác trực tuyến được xây dựng khéo léo, vừa tạo niềm tin vừa mở ra kênh khai thác thông tin tinh vi từ những đối tượng thiếu cảnh giác.

Toạ đàm AI và báo chí: Khi công nghệ phải đi cùng chuẩn mực

Toạ đàm AI và báo chí: Khi công nghệ phải đi cùng chuẩn mực

Tọa đàm “Trí tuệ nhân tạo (AI) và báo chí” do Chương trình Phát triển Liên hợp quốc (UNDP) phối hợp cùng các Đại sứ quán Canada, Na Uy, New Zealand và Thụy Sĩ tổ chức chiều 25/3 tại Hà Nội, đã đặt ra một vấn đề cốt lõi rằng trong bối cảnh AI bùng nổ, niềm tin của công chúng trở thành nền tảng sống còn với báo chí. Các nhà báo và chuyên gia nhấn mạnh, AI cần được sử dụng như công cụ hỗ trợ, trong khi quyền kiểm soát và trách nhiệm biên tập phải luôn thuộc về con người.

Cảnh giác với “ma trận” lừa đảo nhắm vào người yếu thế

Cảnh giác với “ma trận” lừa đảo nhắm vào người yếu thế

Theo dõi các diễn đàn, hội nhóm từ thiện, các bài đăng kêu gọi hoặc tổng kết hoạt động giúp đỡ người yếu thế trên mạng xã hội (MXH), các đối tượng tạo lập tài khoản giả mạo người kêu gọi từ thiện hoặc “đóng vai” là người thành đạt ở nước ngoài, hứa hẹn giúp đỡ một khoản tiền lớn để nạn nhân mất đi sự đề phòng, từ đó từng bước đưa họ vào... “ma trận” lừa đảo, chiếm đoạt tài sản. Đây là thủ đoạn lừa đảo mới xuất hiện trên địa bàn tỉnh Quảng Ngãi.

Bác bỏ thông tin bịa đặt “2 chiến sĩ Cảnh sát giao thông hi sinh khi truy đuổi phương tiện vi phạm”

Bác bỏ thông tin bịa đặt “2 chiến sĩ Cảnh sát giao thông hi sinh khi truy đuổi phương tiện vi phạm”

Chiều 16/3, Công an tỉnh Thanh Hoá khẳng định, thông tin lan truyền trên mạng xã hội cho rằng “2 chiến sĩ Cảnh sát giao thông hi sinh khi truy đuổi phương tiện vi phạm giao thông” là hoàn toàn bịa đặt, sai sự thật. Hiện lực lượng chức năng đang xác minh, làm rõ chủ tài khoản và nguồn phát tán thông tin để xử lý nghiêm theo quy định của pháp luật.

CSGT bác thông tin "xe đầu kéo tông xe ô tô do mâu thuẫn cá nhân"

CSGT bác thông tin "xe đầu kéo tông xe ô tô do mâu thuẫn cá nhân"

Do thiếu quan sát nên khi vào vòng xoay, xe ô tô 5 chỗ bị xe đầu kéo tông trúng và bị đẩy đi một đoạn gần 20m. Nhiều người chứng kiên đã quay clip đăng tải lên mạng xã hội với nội dung do mâu thuẫn cá nhân, chủ 2 phương tiện tông nhau để giải quyết mâu thuẫn mà coi thường tính mạng người đi đường…