Người phụ nữ bị lừa 75 triệu bằng Deepfake, công nghệ cao đang tiếp tay cho tội phạm chuyên nghiệp hơn?
Công nghệ AI và Deepfake ngày càng phát triển đã mở đầu cho xu hướng thời đại công nghệ mới nhưng cũng vô tình trở thành công cụ lừa đảo tinh vi cho một số cá nhân hay tổ chức.
Những kẻ gian đã lợi dụng sơ hở của pháp luật khi chưa siết chặt quyền sở hữu và quy định về sử dụng các công nghệ nói trên. Đồng thời, với những cải tiến vượt bậc về công nghệ càng giúp cho kẻ gian có thể làm giả gần như chính xác từ giọng nói đến khuôn mặt và độ tin cậy của người dùng mạng. Vậy những trường hợp nào đã xảy ra và làm thế nào AI cùng Deepfake có thể mô phỏng chính xác đến vậy. Cùng mình tìm hiểu trong bài viết này nhé!
Những trường hợp bị lừa đảo từ AI và Deepfake
Trường hợp điển hình nhất cho tình trạng này đến từ chị V.T.M, hiện đang sinh sống và làm việc tại Long Biên, Hà Nội. Chị M nhận được tin nhắn mượn tiền đến từ tài khoản Facebook của người thân với nội dung chuyển tiền vào số tài khoản lạ cùng giá trị khoảng 75 triệu đồng.
Trường hợp điển hình nhất cho tình trạng này đến từ chị V.T.M, hiện đang sinh sống và làm việc tại Long Biên, Hà Nội. Chị M nhận được tin nhắn mượn tiền đến từ tài khoản Facebook của người thân với nội dung chuyển tiền vào số tài khoản lạ cùng giá trị khoảng 75 triệu đồng.
Mặc dù, trước đó cũng có phần nghi ngờ nhưng là vì người thân cận bên mình nên chị M đã chọn một số cách kiểm tra đơn giản như gọi video và sau đó quyết định chi số tiền lớn đó. Vì một phần người thân cũng đã đi nước ngoài nên chị M chỉ có thể thông qua cách gọi video mà khó có thể xác thực bằng phương pháp nào khác.
Chị M kể lại, lúc đầu khi nghe tin mượn tiền từ người thân với số tiền lớn lên đến 75 triệu đồng đã khiến cho chị không đổi nghi ngờ. Chị quyết định sử dụng cách xác thực đơn giản nhưng chính xác nhất là gọi video để xác nhận khuôn mặt cũng như ngữ điệu của người mượn tiền.
Sau khi xác thực chính xác người mượn tiền là người thân của mình thì chị M đã quyết định cho vay số tiền lớn. Mọi chuyện chỉ vỡ lẽ khi người bạn mượn tiền đăng bài vào tối hôm đó với nội dung đã bị hack nick và kẻ gian đã lợi dụng để vay tiền từ bạn bè cùng người thân. Lập tức chị M gọi điện cho bạn mình và nhận được câu trả lời chính xác là chị đã bị lừa.
Điểm mấu chốt của vấn đề đến từ cuộc gọi video đã diễn ra lúc chị có ý định cho vay. Mặc dù hình ảnh và chi tiết có chất lượng khá kém, âm thanh bị rè cùng độ phân giải thấp như đang bị sóng yếu. Nhưng ngược lại, từ ngữ điệu giọng nói đến cách xưng hô và từ ngữ thân mật đều được kẻ gian nắm rõ. Người lừa đảo đã thực hiện và mô phỏng chính xác đến mức nạn nhân dù là người thân trong gia đình cũng không hề hay biết và mắc bẫy.
Thậm chí, trước đó đã có nhiều thông tin và cảnh báo về việc lừa đảo mượn tiền qua mạng nhưng đến cả việc gọi video xác nhận thường được cho là rất an toàn khi có thể nhận dạng được khuôn mặt cùng giọng nói cũng có thể làm giả.
Làm thế nào AI và Deepfake có thể trở thành công cụ lừa đảo?
Deepfake đang trở thành “bóng ma” đáng sợ của mặt tối xã hội, những kẻ gian đã lợi dụng công nghệ học sâu của máy tính để xây dựng lại những hình ảnh chân thật. Từ đó, tạo điều kiện thuận lợi cho phương thức gây án chuyên nghiệp và tinh vi hơn. Hiện tại, các công ty công nghệ về AI hàng đầu thế giới có thể kể đến như
Deepfake đang trở thành “bóng ma” đáng sợ của mặt tối xã hội, những kẻ gian đã lợi dụng công nghệ học sâu của máy tính để xây dựng lại những hình ảnh chân thật. Từ đó, tạo điều kiện thuận lợi cho phương thức gây án chuyên nghiệp và tinh vi hơn. Hiện tại, các công ty công nghệ về AI hàng đầu thế giới có thể kể đến như ChatGPT , Microsoft và Google với các phiên bản Bing tích hợp AI và chatbot Bard hoàn toàn mới.
Ngoài ra, chính người dùng đã và đang vô tình hỗ trợ Deepfake có thêm nhiều thông tin hơn để có thể làm giả khuôn mặt trở nên hoàn hảo hơn thế. Các dữ liệu đến từ hàng loạt ứng dụng, hình ảnh chia sẻ trên mạng xã hội hay video trên YouTube sẽ mang lại cho công nghệ thay đổi khuôn mặt nguồn dữ liệu khỏng lồ. Với càng nhiều nguồn dữ liệu, AI và Deepfake càng có khả năng làm giả lại mọi chi tiết trên khuôn mặt với độ chi tiết cực kỳ cao.
Nhận định từ các chuyên gia
Theo các chuyên gia công nghệ cho biết, phương thức gây án của những đối tượng lừa đảo rất tinh vi. Chúng sẽ đi từ việc tìm kiếm thông tin được chia sẻ công khai trên mạng, tìm hiểu gia cảch và thói quen hàng ngày để lên kế hoạch lừa đảo. Thậm chí, đến khi nạn nhân gọi video xác thực thông tin thì cũng lại tiếp tục dùng những phần mềm công nghệ cao như AI hay Deepfake để cắt ghép, thay đổi khuôn mặt lẫn giọng nói để nạn nhân mắc bẫy.
Theo các chuyên gia công nghệ cho biết, phương thức gây án của những đối tượng lừa đảo rất tinh vi. Chúng sẽ đi từ việc tìm kiếm thông tin được chia sẻ công khai trên mạng, tìm hiểu gia cảch và thói quen hàng ngày để lên kế hoạch lừa đảo. Thậm chí, đến khi nạn nhân gọi video xác thực thông tin thì cũng lại tiếp tục dùng những phần mềm công nghệ cao như AI hay Deepfake để cắt ghép, thay đổi khuôn mặt lẫn giọng nói để nạn nhân mắc bẫy.
Ngoài ra, nhiều lần các cơ quan chức năng cũng đã đưa tin về hành vi lừa đảo công nghệ cao với sự tinh vi và tổ chức có kế hoạch. Các trường hợp điển hình của hành vi này có thể kể đến như mạo danh Facebook hay hack tài khoản Facebook để chiếm đoạt tài sản. Các hành vi lừa đảo thường nhắm vào khoảng thời gian sơ hở của nạn nhân và có thể đến bất kỳ lúc nào.
Thậm chí, trong thời gian gần đây còn rộ lên các hành vi lừa đảo mới hơn như gọi điện video mạo danh là người thân cần chuyển tiền hay con cái đang đi du học và xin tiền để đóng học phí. Chưa hết, kẻ gian còn nghĩ ra các kế hoạch với những ứng dụng hẹn hò qua mạng và dụ “con mồi” với những kịch bản có sẵn.
Bất cứ khi nào nhận được tin nhắn mượn tiền từ Facebook bạn cũng nên chuẩn bị sẵn sàng xác thực thông qua số điện thoại cá nhân hay những phương án xác thực chính xác hơn. Khi biết mình đã mắc bẫy hay nghi ngờ hay trình báo ngay đến cơ quan công an tại địa phương để kịp thời có phương án xử lý.
Cảnh báo về an ninh mạng trong năm 2023: AI và Deepfake sẽ là nhân vật chính!
Theo các thống kê của Cục An toàn thông tin, Bộ Thông tin và Truyền thông tính từ đầu năm đến 21/12/2023 cho thấy, đã thực hiện và hướng dẫn xử lý lên đến 11,213 cuộc tấn công trên không gian mạng nhắm vào các cá nhân và tổ chức. Mức tăng lên đến 44.2% so với cùng kỳ năm 2021. Điều này diễn ra trong bối cảnh các cá nhân, tổ chức hay doanh nghiệp có xu hướng tăng cường hoạt động mạng xã hội, triển khai mô hình hybrid, kết hợp giữa làm việc tại văn phòng và tại nhà.
Theo các thống kê của Cục An toàn thông tin, Bộ Thông tin và Truyền thông tính từ đầu năm đến 21/12/2023 cho thấy, đã thực hiện và hướng dẫn xử lý lên đến 11,213 cuộc tấn công trên không gian mạng nhắm vào các cá nhân và tổ chức. Mức tăng lên đến 44.2% so với cùng kỳ năm 2021. Điều này diễn ra trong bối cảnh các cá nhân, tổ chức hay doanh nghiệp có xu hướng tăng cường hoạt động mạng xã hội, triển khai mô hình hybrid, kết hợp giữa làm việc tại văn phòng và tại nhà.
Dựa vào “Dự báo an toàn thông tin năm 2023 của Zoom” các vấn đề an ninh mạng sẽ trở nên khó khăn hơn với các phương thức gây án ngày càng tinh vi. Chính vì thế, các tổ chức, doanh nghiệp cần phải có những biện pháp rõ ràng, kế hoạch dài hạn để đối với với các cuộc tấn công mạng công nghệ cao.
Ngoài ra, việc lừa đảo qua Email (spear phishing) và phi kỹ thuật cũng đạt đến trình độ tiến tiến hơn rất nhiều. Từ đó, gây ra không ít khó khăn cho việc phòng chống, hạn chế và xác định tác nhân đe doạ. Dự đoán cho biết, trong năm 2023 các cuộc tấn công mạng sẽ khai thác triệt để hình thức tấn công phi kỹ thuật với ứng dụng công nghệ trí tuệ nhân tạo (AI) và nội dung giả mạo (Deepfake).
Bên cạnh đó, việc thiếu hụt nguồn cung ứng về phần mềm đảm bảo an toàn trên không gian mạng cũng là nguyên nhân để kẻ gian có thể lộng hành. Đối với các doanh nghiệp, cần thiết nhất phải trang bị mô hình bảo mật toàn diện Zero Trust đồng thời phát triển cơ sở hạ tầng để sẵn sàng ứng phó.
Như vậy trong bài viết mình đưa những thông tin quan trọng về vấn đề an ninh mạng trong năm 2023. Các thủ đoạn lừa đảo phi kỹ thuật và vì sao công nghệ trí tuệ nhân tạo (AI) và nội dung giả mạo (Deepfake) có thể khiến cho các nạn nhân tin tưởng đến vậy. Hy vọng bạn sẽ có được cái nhìn chính xác hơn và tránh được những tai nạn không đáng có.
- Xem thêm bài viết chuyên mục Khám phá