Trí thông minh nhân tạo, vũ khí mới cho lừa đảo tài chính - Bài 1: Công cụ lợi hại
(DNTO) - Từ sáng tác các bài viết lừa đảo cho đến giả mạo gương mặt, giọng nói, trí thông minh nhân tạo đang trở thành một vũ khí lợi hại cho kẻ gian.
“Quý khách đang có khoản tiền trả đền bù $2000 từ Ngân hàng Chase. Để nhanh chóng tiến hành thủ tục nhận tiền, xin hãy làm theo hướng dẫn dưới đây:
- Bước 1. Vui lòng gọi bộ phận chăm sóc khách hàng qua số điện thoại 1-800-953-XXXX. Quý khách nên chuẩn bị các thông tin tài khoản cũng như các thông tin liên quan…”.
Nếu bạn là người có tài khoản tại Ngân hàng Chase, bạn có thể nghĩ rằng đây là email chính thức. Nó có giọng điệu chuyên nghiệp, không dùng từ lạ, không lỗi chính tả, cú pháp… như những email lừa đảo bạn đã nhận được trước kia. Đó là vì email trên được tạo ra bởi ChatGPT, dịch vụ chatbot trí thông minh nhân tạo được tung ra bởi OpenAI vào hồi năm ngoái. Ai cũng có thể tạo ra email trên chỉ với một lệnh đơn giản: “Tạo email gửi đến John Doe về khoản tiền đền bù 2000 đô la từ Ngân hàng Chase. Gọi số 1-800-953-XXXX để nhận hướng dẫn”.
Xu hướng đáng ngại
Soups Ranjan, CEO của Sardine, một công ty chống gian lận ở San Francisco, cho biết: “Kẻ gian lừa đảo nay có thể viết nội dung với ngữ pháp hoàn hảo, hệt như người bản địa”.
Với sự hiện diện của công nghệ trí thông minh nhân tạo khởi tạo (generative AI), kẻ gian đã có thể dễ dàng tạo ra không những nội dung chữ viết, mà còn cả âm thanh giọng nói, hay video để có thể lừa gạt người dùng. Hơn thế nữa, chúng còn qua mặt được những phần mềm phòng chống lừa đảo.
Hiện tượng này không phải là mới, tội phạm từ lâu đã luôn nhanh nhạy ứng dụng các công nghệ mới nhất, khiến các cơ quan chức năng phải liên tục đuổi bắt. Ví dụ ở những năm 1989, tội phạm đã vận dụng máy tính và máy in laser để tạo ra séc gần như thật nhằm đánh lừa các ngân hàng, vốn chưa tiến hành các phương pháp phát hiện giả mạo.
Trí thông minh nhân tạo có thể đe dọa, thậm chí làm lỗi thời hoàn toàn các biện pháp phát hiện giả mạo cao cấp nhất. Chẳng hạn như xác định danh tính bằng giọng nói hay xác nhận người thật bằng video quay trực tiếp.
Synchrony, một trong những hãng cung cấp thẻ tín dụng lớn nhất tại Mỹ với hơn 70 triệu tài khoản, đang đứng ở “chiến tuyến đầu” của tệ nạn này.
Kenneth Williams, Phó chủ tịch cấp cao của Synchrony, cho biết: “Chúng tôi thường xuyên thấy các cá nhân sử dụng hình ảnh và video giả mạo deepfake để xác thực. Có thể dễ nhận thấy rằng chúng đều được tạo ra bằng trí thông minh nhân tạo khởi tạo”.
Trong một khảo sát được thực hiện bởi hãng an ninh Deep Instinct hồi tháng 6/2023, xem xét ý kiến của 650 chuyên gia an ninh mạng, đã có 3 trong chuyên gia ghi nhận gia tăng đột biến số lượng tấn công trong năm qua, “với 85% quy kết nguyên do là từ trí thông minh nhân tạo khởi tạo”.
Theo báo cáo của Ủy ban Thương mại Liên bang Hoa Kỳ, trong năm 2022, người dùng đã báo cáo tổng thiệt hại 8,8 tỷ đô la vì lừa đảo, tăng 40% so với 2021. Mức thiệt hại tài chính cao nhất đến từ lừa đảo đầu tư, nhưng giả mạo danh tính lại là phổ biến nhất, một dấu hiệu đáng ngại từ ảnh hưởng của công nghệ AI.
Muôn vàn chiêu lừa đảo
Tội phạm có thể ứng dụng công nghệ AI bằng vô vàn cách thức. Tội phạm có thể sử dụng AI, phân tích phong cách viết của người dùng thông qua mạng xã hội. Và rồi bắt chước văn phong đó, tạo ra các thông điệp gửi đến ông bà của nạn nhân, cầu xin mượn tiền để trả nợ.
Đáng sợ hơn, chỉ bằng một đoạn video ngắn, kẻ gian có thể tái tạo giọng nói của con cái, gọi điện đến cha mẹ giả dạng một cuộc bắt cóc và đòi tiền chuộc. Đó chính là điều đã xảy ra với Jennifer DeStefano, một bà mẹ ở Arizona, người đã ra điều trần trước Quốc hội Mỹ về tệ nạn này.
Không chỉ cha mẹ, ông bà là nạn nhân, tội phạm cũng tấn công vào các doanh nghiệp. Kẻ gian có thể giả dạng các công ty cung ứng, tạo ra email hối thúc kế toán trả tiền, cùng với hướng dẫn thủ tục thanh toán vào một tài khoản ngân hàng của chúng.
CEO Ranjan cho biết nhiều công ty tài chính tìm đến sự trợ giúp của Công ty Sardine đã rơi vào các cạm bẫy này và mất hàng trăm ngàn đô la.
Con số đó là nhỏ nhặt so với vụ lừa đảo xảy ra vào hồi 2020, làm mất đi 35 triệu đô la của một công ty Nhật Bản. Giọng nói của giám đốc công ty này đã bị giả dạng.
Vụ lừa đảo trên là một trong những trường hợp gây báo động cho khả năng ngày càng trở nên tinh vi và dễ sử dụng của công nghệ trí thông minh nhân tạo.
Nếu như trước kia, ta cần phải có hàng ngàn tấm ảnh chụp để tạo ra một nhân dạng giả tạo bằng AI, thì nay con số ảnh chụp cần có chỉ đếm trên đầu ngón tay - theo lời Rick Song, đồng sáng lập và CEO của Persona, một công ty chống gian lận.
Trong khi các công ty chống gian lận đang tìm cách thích ứng với làn sóng đáng ngại này, thì tội phạm lại tiếp tục tạo ra các công cụ lừa đảo chuyên biệt, với những cái tên như FraudGPT (Fraud - lừa đảo) và WormGPT (Worm - Con sâu), dựa theo cùng mô hình AI của Công ty OpenAI.