Làn sóng tấn công an ninh mạng mới: AI biến các vụ lừa đảo và deepfake trở nên nguy hiểm hơn bao giờ hết

Mercenary

Moderator
Thành viên BQT

Sự phát triển vượt bậc của trí tuệ nhân tạo (AI) đã cách mạng hóa mọi khía cạnh cuộc sống, từ mua sắm, giao dịch ngân hàng, lái xe, tìm kiếm trên internet, sáng tạo và tiêu thụ nội dung, cùng nhiều hoạt động khác. Mặc dù nâng cao trải nghiệm người dùng và cực kỳ linh hoạt trong nhiều ứng dụng, chatbot và các thuật toán cũng “mở đường” cho các cuộc tấn công phi kỹ thuật (social engineering attack) mới tinh vi và nguy hiểm hơn, trong cả đời sống cá nhân lẫn doanh nghiệp.​

Anh-Kaspersky-3---Fr.jpg


Báo cáo Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra. Diễn đàn Kinh tế Thế giới (World Economic Forum) dự báo, đến năm 2026, có thể tới 90% nội dung trực tuyến sẽ được tạo ra bằng AI. Thoạt nghe, nhiều người có thể cho rằng mục tiêu chính của các cuộc tấn công deepfake và phishing AI là những người nổi tiếng hay các nhân vật có tiếng tăm. Tuy nhiên, mục tiêu và động cơ chính vẫn không khác gì so với các vụ lừa đảo từ trước tới nay:

1. Người dùng phổ thông với thông tin cá nhân, ngân hàng, và thanh toán
2. Các doanh nghiệp – nơi lưu giữ dữ liệu và tài sản có giá trị

Ba cách AI đang được sử dụng để đánh cắp dữ liệu của bạn

Phishing được nâng cấp bởi AI

Phishing là một hình thức lừa đảo trên internet nhằm dụ dỗ nạn nhân tiết lộ thông tin đăng nhập hoặc chi tiết thẻ ngân hàng. Hình thức này có thể nhắm tới cả cá nhân lẫn doanh nghiệp và được thực hiện trên diện rộng hoặc cá nhân hóa theo từng đối tượng. Tin nhắn phishing thường giả danh thông báo từ ngân hàng, nhà cung cấp dịch vụ, hệ thống thanh toán điện tử, hoặc các tổ chức khác. Trong trường hợp lừa đảo theo hình thức phishing nhắm mục tiêu cụ thể, kẻ lừa đảo thậm chí còn giả mạo người quen biết của nạn nhân.

Trước đây, các nội dung phishing thường sơ sài, đầy lỗi sai với nội dung thiếu thuyết phục. Giờ đây, các mô hình ngôn ngữ lớn (LLM) cho phép kẻ tấn công tạo ra các tin nhắn và trang web cá nhân hóa, đưa ra thông điệp thuyết phục, với ngữ pháp chính xác, cấu trúc logic, và các đoạn văn mượt mà. Ngày nay, khi phishing trở thành mối đe dọa toàn cầu, những kẻ tấn công còn có thể nhắm đến các cá nhân sử dụng ngôn ngữ mà chúng không thành thạo, nhờ vào khả năng sáng tạo nội dung của AI. Thêm vào đó, chúng có thể sao chép phong cách viết của cá nhân cụ thể – chẳng hạn như đối tác kinh doanh hay đồng nghiệp – bằng cách phân tích bài đăng mạng xã hội hoặc các nội dung khác liên quan đến cá nhân đó.

Hơn nữa, trong thời đại số hiện đại, công nghệ AI còn cho phép tạo ra các hình ảnh bắt mắt hoặc thậm chí dựng toàn bộ Landing Page một cách dễ dàng. Đáng nói, những công cụ này cũng bị tội phạm mạng lợi dụng để sản xuất các tài liệu đầy tính thuyết phục nhằm phục vụ cho việc lừa đảo theo hình thức phishing.

Deepfake âm thanh

Deepfake âm thanh là công nghệ sử dụng trí tuệ nhân tạo để tạo ra những đoạn âm thanh giả mạo giọng nói của người khác một cách chân thực. Chỉ với vài giây ghi âm giọng nói, AI có thể tạo ra các bản audio y hệt giọng nói của ai đó thân quen, chẳng hạn như bạn bè hoặc người thân.

Hãy tưởng tượng: kẻ tấn công chiếm được tài khoản trên một ứng dụng nhắn tin của bạn, sau đó sử dụng các đoạn tin nhắn thoại trong cuộc trò chuyện để tạo ra bản ghi âm giả mạo giọng nói của bạn. Chúng có thể gửi các tin nhắn này đến bạn bè hoặc người thân của bạn. Điều đáng sợ là, với công nghệ ngày càng phát triển, những cuộc tấn công này hoàn toàn có thể xảy ra. Kẻ tấn công có thể lợi dụng giọng nói của bạn để yêu cầu chuyển tiền khẩn cấp hoặc cung cấp thông tin nhạy cảm, dựa vào sự tin tưởng giữa các cá nhân để thực hiện hành vi lừa đảo ở cả cấp độ cá nhân lẫn doanh nghiệp.

Deepfake video
sPkcP34.jpeg


Kẻ tấn công còn có thể sử dụng công cụ AI để tạo ra các đoạn video giả mạo deepfake chỉ từ một bức ảnh duy nhất. Nếu bạn nghĩ rằng điều này chỉ có thể xuất hiện trong các bộ phim khoa học viễn tưởng với công nghệ CGI phức tạp, đòi hỏi kiến thức chuyên sâu về khoa học máy tính, bạn sẽ bất ngờ khi đọc tiếp.
Chỉ với vài hướng dẫn cơ bản, bạn có thể sử dụng dễ dàng những phần mềm phức tạp, để hoán đổi khuôn mặt trong video, đồng bộ chuyển động môi, tinh chỉnh các lỗi AI tạo ra, và thêm giọng nói chân thực cho nhân vật.
Với những công cụ này trong tay, kẻ tấn công có thể nghĩ ra những âm mưu tưởng chừng như không thể – chẳng hạn như tạo ra các quảng cáo giả mạo, thực hiện các cuộc gọi lừa đảo, hoặc thậm chí tổ chức các cuộc gọi video trực tiếp, giả danh một cộng sự đáng tin cậy hoặc một người thân thiết. Những hành vi này gây ra tổn thất tài chính nghiêm trọng cho các nạn nhân.

Thực tế đáng báo động: Từ hình thức phishing AI đến deepfake các nhân vật nổi tiếng

Kaspersky đã quan sát và phát hiện ra rằng: tội phạm mạng đang sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo nội dung cho các cuộc tấn công phishing và lừa đảo quy mô lớn. Những cuộc tấn công này thường để lại dấu vết đặc trưng của AI, chẳng hạn như các cụm từ “Là một mô hình ngôn ngữ AI…” hoặc “Mặc dù tôi không thể làm chính xác điều bạn muốn, nhưng tôi có thể thử điều gì đó tương tự.” Những dấu hiệu trên đã tiết lộ nội dung giả mạo đó được tạo ra bởi LLM. Việc ứng dụng LLM để tạo nội dung, khiến kẻ xấu dễ dàng tự động hóa tạo ra hàng chục, thậm chí hàng trăm trang web phishing và lừa đảo với nội dung thuyết phục, khiến các cuộc tấn công này càng trở nên khó phát hiện hơn.

Ngoài việc tấn công theo hình thức phishing, đã có nhiều bài học về các vụ lừa đảo sử dụng công nghệ deepfake. Đơn cử, một nạn nhân đã “rơi vào bẫy” sau khi nhận được thông báo rằng họ được Elon Musk chọn để đầu tư vào một dự án mới và được mời tham gia một cuộc họp trực tuyến. Đến giờ hẹn, một deepfake của Elon Musk đã trình bày chi tiết về dự án với một nhóm người tham dự, sau đó kêu gọi đóng góp tài chính – từ đó gây thiệt hại lớn cho nạn nhân.
Deepfake cũng được sử dụng để tạo ra những quảng cáo giả mạo phát tán trên nhiều nền tảng, có sự xuất hiện của các nhân vật nổi tiếng, chẳng hạn như diễn viên toàn cầu hoặc chính trị gia. Chẳng hạn, một video deepfake đã được phát tán với hình ảnh giả mạo Thủ tướng Canada Justin Trudeau đang quảng bá một kế hoạch đầu tư.

Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm (AI romantic scams), trong đó deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân thông qua các cuộc gọi video. Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay. Gần đây, một nhóm hơn hai chục người liên quan đến các vụ lừa đảo kiểu này đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Đài Loan, Singapore, và Ấn Độ.
Giọng nói giả mạo (voice fakes) cũng đã được sử dụng trong các vụ lừa đảo nhắm vào cá nhân, cũng như trong các cuộc tấn công nhằm vào các ngân hàng sử dụng hệ thống xác thực bằng giọng nói.

Làm thế nào để tự bảo vệ bản thân trước các mối đe dọa an ninh mạng sử dụng AI?

Khi công nghệ AI ngày càng phát triển, các biện pháp phòng thủ cũng cần được nâng cấp. Các biện pháp này có thể chia thành hai nhóm chính: kỹ thuật và phi kỹ thuật.
Về mặt kỹ thuật, các mô hình ngôn ngữ lớn (LLM) trong tương lai có thể sẽ tích hợp các ký hiệu chìm (watermark). Những ký hiệu này không thể nhận biết được bằng mắt thường nhưng có thể được phát hiện bằng thuật toán, giúp xác định và gắn nhãn nội dung do AI tạo ra trên môi trường trực tuyến. Tuy nhiên, điều quan trọng cần lưu ý là phương pháp này chủ yếu hiệu quả với các mô hình lớn được phát triển bởi các tập đoàn công nghệ lớn. Nếu kẻ xấu không sử dụng các mô hình có sẵn mà tự phát triển mô hình riêng, chúng sẽ không bị ảnh hưởng bởi những dấu hiệu nhận diện này và có thể dễ dàng né tránh hoặc "lách luật”.
Một công nghệ đầy hứa hẹn khác là các công cụ phát hiện deepfake. Các công cụ này được thiết kế để nhận diện các đặc điểm bất thường trong hình ảnh chỉnh sửa, sự dao động bất thường trong giọng nói, cách dùng từ không tự nhiên trong văn bản và các dấu hiệu khác cho thấy có sự can thiệp của AI. Tuy nhiên, thách thức lớn nhất là các công cụ này phải liên tục được cải tiến để theo kịp tốc độ phát triển nhanh chóng của công nghệ AI tạo sinh (generative AI), đảm bảo tính hiệu quả lâu dài.
Chữ ký số (digital signatures), hiện đang được sử dụng rộng rãi trong các giao dịch ngân hàng và thông tin quan trọng, cũng có thể được áp dụng để xác thực độ tin cậy của video hoặc âm thanh. Đây được xem là một trong những giải pháp kỹ thuật đáng tin cậy nhất. Tương tự như cách nhiều trang web hiện nay tự động xác minh chữ ký số, trong tương lai, chữ ký số cũng có thể được áp dụng cho video và tin nhắn âm thanh, với quá trình xác minh diễn ra âm thầm.
Tuy nhiên, việc đối phó với các cuộc tấn công phi kỹ thuật phi không thể chỉ dựa vào công nghệ. Các hình thức lừa đảo đã tồn tại từ trước khi công nghệ deepfake ra đời, nên việc giáo dục cũng như tự nâng cao ý thức cảnh giác vẫn luôn là những phương pháp phòng vệ quan trọng nhất. Hiện nay, một lỗ hổng lớn vẫn tồn tại: nhiều người không nhận thức được mức độ dễ dàng mà công nghệ này có thể bị lợi dụng. Nhiều kẻ tấn công lợi dụng sự thiếu hiểu biết kể trên để thực hiện hành vi của mình. Điều này nhấn mạnh tầm quan trọng cấp thiết của việc mở ra các cuộc đối thoại cởi mở và triển khai các chiến dịch giáo dục toàn diện về vấn đề này.
Kết lại, dù các mối đe dọa từ những vụ lừa đảo và deepfake sử dụng AI đang ngày càng gia tăng, việc hiểu rõ những rủi ro này là bước quan trọng đầu tiên để tìm ra cách giải quyết. Thay vì lo sợ, chúng ta nên tập trung vào việc nâng cao nhận thức và cải thiện hiểu biết về an ninh mạng. Mỗi cá nhân có thể tự bảo vệ mình bằng cách luôn cập nhật thông tin, cảnh giác và cẩn trọng trong các tương tác trực tuyến. Các tổ chức cũng có thể chủ động giảm thiểu rủi ro liên quan đến AI bằng cách triển khai các giải pháp bảo mật hiệu quả, cải thiện quy trình an ninh và thực hiện các sáng kiến phù hợp. Bằng cách chủ động đối mặt và xử lý các thách thức này một cách thận trọng, chúng ta có thể cùng nhau xây dựng một môi trường số an toàn và đáng tin cậy hơn.
 
Bên trên