Cảnh báo đỏ sử dụng Deepfake để lừa đảo – NCS – Công ty Cổ phần Công nghệ An ninh mạng Quốc gia Việt Nam
Báo Đầu tư – Các cá nhân, tổ chức, doanh nghiệp cần cẩn trọng trước thủ đoạn sử dụng công nghệ Deepfake – tạo ra các sản phẩm công nghệ giả dưới dạng âm thanh, hình ảnh hoặc video bằng ứng dụng trí tuệ nhân tạo (AI) – để lừa đảo.
Tạo hình ảnh, giọng nói và video giả mạo để lừa đảo
Mới đây, chị V.T.M. (trú tại quận Long Biên, Hà Nội ) nhận được tin nhắn của một người bạn thân đang sống ở nước ngoài, nhờ chuyển 75 triệu đồng vào tài khoản. Cẩn thận thực hiện cuộc gọi video cho bạn để kiểm tra, thì phía bên kia hiện lên hình ảnh và nói đang cần tiền gấp, nên chị M. không ngần ngại chuyển tiền. Vài tiếng sau, trên Facebook cá nhân của người bạn đó đăng thông báo việc bị kẻ gian đánh cắp tài khoản để hỏi vay tiền bạn bè. Chị M. gọi điện lại, thì người bạn xác nhận đã bị kẻ gian chiếm đoạt tài khoản mạng xã hội.
Chị M. chỉ là một trong số nhiều nạn nhân được công an TP. Hà Nội, TP.HCM, Hà Tĩnh và nhiều tỉnh, thành phố khác… mô tả, phát đi cảnh báo về chiêu thức lừa đảo mới với công nghệ Deepfake.
Tại cuộc họp báo thông tin về tình hình, kết quả các mặt công tác quý I/2023 của Bộ Công an tổ chức vào ngày 28/3, ông Triệu Mạnh Tùng, Phó cục trưởng Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao (Bộ Công an) cho biết, hiện các đối tượng đã sử dụng công nghệ Deepfake ứng dụng AI vào các mục đích lừa đảo, chiếm đoạt tài sản. Cụ thể, công nghệ Deepfake được dùng để giả hình ảnh, giọng nói của một người, rồi tương tác với bị hại. Khi chiếm được lòng tin của bị hại, các đối tượng yêu cầu bị hại thực hiện các giao dịch tài chính để lừa đảo, chiếm đoạt.
Chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty NCS cho biết, Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước.
“Gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ”, ông Sơn cho biết.
Theo cơ quan công an, với công nghệ Deepfake, video giả mạo có độ chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video do đối tượng tạo sẵn thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp. Để che lấp khuyết điểm này, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét, giống như cuộc gọi video có tín hiệu chập chờn, được thực hiện trong khu vực phủ sóng di động hoặc wifi yếu…
Phòng chống lừa đảo như thế nào?
Ông Ngô Minh Hiếu, Nhà sáng lập Dự án Chống lừa đảo nhấn mạnh, các cuộc điện thoại video hiển thị khuôn mặt ít biểu cảm, hướng đầu và cơ thể của người trong video không nhất quán, màu da bất thường, ánh sáng kỳ lạ, nhiều tiếng ồn, hình ảnh nhòe… là dấu hiệu của cuộc gọi Deepfake lừa đảo.
Theo ông Hiếu, khi có một ai đó trên mạng xã hội trong danh sách bạn bè hỏi mượn tiền, hay gửi link lạ, mọi người nên kiểm chứng, xác thực bằng cách gọi điện thoại trực tiếp hoặc gọi video call ít nhất trên 1 phút, đặt ra những câu hỏi mà chỉ có bạn và người kia mới biết, vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao.
Chuyên gia Vũ Ngọc Sơn cũng cho biết, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao.
“Người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ…”, chuyên gia Vũ Ngọc Sơn khuyến nghị.
Hiện tại, các mạng xã hội phổ biến toàn cầu như Facebook, Twitter, TikTok đều áp dụng công cụ riêng để phát hiện video Deepfake, đồng thời cấm đăng tải nội dung do công nghệ này tạo ra lên nền tảng của họ. Tuy vậy, việc phát hiện chỉ ở mức tương đối và kẻ gian vẫn không ngừng tìm cách để lách qua bộ lọc của mạng xã hội.
Các chuyên gia bảo mật cảnh báo, cách tốt nhất để tránh bị làm giả Deepfake là mọi người nên hạn chế chia sẻ hình ảnh, video cá nhân lên trên mạng; đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao. Nếu chia sẻ video hay clip trên mạng, nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật.
Cơ quan công an cũng khuyến cáo người dùng cá nhân, các tổ chức, doanh nghiệp cần nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, xác nhận qua video call; nên xác thực lại thông tin bằng cách gọi điện thoại hoặc gặp trực tiếp để trao đổi thông tin chính xác trước khi giao dịch. Bên cạnh đó, người dùng nên cẩn trọng khi chia sẻ các thông tin cá nhân trên mạng xã hội, không nên để lộ quá nhiều thông tin riêng tư như số nhà, số căn cước công dân…
Bên cạnh Deepfake, thì lừa đảo bằng công nghệ giả giọng nói (Voice Deepfake) cũng đã được thực hiện. Năm 2019, một công ty năng lượng tại Mỹ bị lừa 243.000 USD khi tội phạm mô phỏng giọng nói của lãnh đạo công ty, yêu cầu nhân viên chuyển tiền cho một nhà cung cấp. Trong năm 2022, tổng số tiền người dùng bị lừa bằng hình thức lừa đảo mô phỏng giọng nói người thân đã lên tới 11 triệu USD.