Thứ hai, 24/03/2025
Doanh Nhân Trẻ

Doanh Nhân Trẻ

  • Click để copy

Trí thông minh nhân tạo, vũ khí mới cho lừa đảo tài chính - Bài 2: Ai cũng có thể là nạn nhân

Xuân Hạo
- 20:37, 27/09/2023

(DNTO) - Trí thông minh nhân tạo đã cho phép kẻ gian tái tạo hình ảnh nạn nhân một cách vô cùng chân thực, có thể qua mặt những biện pháp xác minh danh tính tối tân nhất, khiến bất kỳ ai cũng có thể trở thành nạn nhân.

AI có thể được sử dụng để tái tạo khuôn mặt, giọng nói của bạn trong thời gian thực. Ảnh: FactorDaily

AI có thể được sử dụng để tái tạo khuôn mặt, giọng nói của bạn trong thời gian thực. Ảnh: FactorDaily

Ai cũng có thể là nạn nhân

Trong tháng 1/2023, xuất hiện một video YouTube của Elon Musk giới thiệu một cơ hội đầu tư tiền tệ mã hóa crypto với hứa hẹn trả lãi gấp đôi bitcoin, ether, dogecoin hay tether, cho những ai tham gia, cùng rút thăm trúng thưởng 100 triệu đô la.

“Chúng ta quy tụ hôm nay vì một lý do quan trọng. Trong chương trình phát sóng trực tiếp này, tất cả các chủ sở hữu tiền tệ ảo quyết định đầu tư đều sẽ đạt được lợi nhuận tăng cao”, hình ảnh vị CEO danh tiếng Elon Musk mờ ảo nói. “Đúng vậy, tôi đang thực hiện chương trình crypto này trực tiếp tại SpaceX”.

Video này là một ví dụ của deepfake, một loại video được tái lập bằng trí thông minh nhân tạo, dựa vào một buổi diễn thuyết của Elon Musk vào hồi 2022. YouTube đã nỗ lực xóa bỏ các video này, nhưng chúng xuất hiện tràn lan, thậm chí còn xuất hiện trong vụ hack kênh YouTube nổi tiếng Linus Tech Tips.

Video lừa đảo sử dụng AI để giả tạo hình ảnh Elon Musk hệt như người thật:

Elon Musk là một mục tiêu “chín mùi” để thực hiện các video giả danh này, nhưng ngày nay, gần như ai cũng có thể bị mạo danh như thế.

Đầu năm nay, Larry Leonard, 93 tuổi, cùng vợ nhận được một cuộc gọi từ người cháu 27 tuổi, tha thiết xin giúp đỡ vì anh ta liên quan đến một tai nạn và đang cần bảo lãnh ra tù. Nhận thấy cách xưng hô lạ, Larry trả lời ông sẽ gọi bố mẹ của người cháu trước, và thế là phía người gọi cúp máy.

Sau này khi biết được cuộc gọi đó là giả tạo thông qua AI, Larry rất ngạc nhiên. “Thật là đáng sợ vì họ đã có thể giả mạo giọng nói của cháu tôi chính xác đến như vậy. Không hề có bất kỳ ngắt quãng hay từ ngữ nào cho thấy nó được tạo ra từ máy tính”, ông nói.

Trước kia, những người già cả là mục tiêu chính cho kẻ gian, nhưng nay khả năng giả mạo danh tính tinh vi của trí thông minh nhân tạo khiến bất kỳ ai cũng có thể trở thành nạn nhân. 

Kathy Stokes, Giám đốc chương trình phòng chống gian lận tại AARP, nhà cung cấp dịch vụ với gần 38 triệu thành viên, cho biết: “Ngày càng khó để ta có thể tin tưởng các cuộc gọi, email hay tin nhắn bởi công nghệ giả mạo danh tính. Chúng ta đang bị mất dần các công cụ liên lạc đáng tin cậy”.

Xu thế đáng ngại này cũng đưa các biện pháp an ninh tiên tiến vào tầm ngắm. Chẳng hạn như các tổ chức tài chính khổng lồ như Vanguard Group - quỹ tương hỗ khổng lồ phục vụ hơn 50 triệu nhà đầu tư, sử dụng tính năng nhận dạng danh tính thông qua lời nói. Nhưng khả năng tái tạo giọng nói sẽ đe dọa tính năng bảo mật này.

Các doanh nghiệp từ nhỏ đến lớn, với các quy trình chi trả hóa đơn hay chuyển tiền không nghiêm ngặt, đều trở nên dễ tổn thương hơn khi kẻ gian có thể trang bị công nghệ AI. Tội phạm có thể gọi trực tiếp đến nhân viên của các doanh nghiệp, sử dụng giọng nói giả mạo các giám đốc điều hành để ra lệnh chi trả hay tiết lộ thông tin mật.

Nếu như khi xưa, hình thức lừa đảo qua đường dẫn “bẩn” trên mạng Internet được gọi là “phishing” thì nay hình thức lừa đảo sử dụng giọng nói giả mạo được đặt cái tên “vishing”, viết tắt vừ “voice phishing” (voice - giọng nói).

“Giả mạo các thành viên điều hành để thực hiện các vụ lừa đảo giá trị cao là một mối hiểm họa vô cùng đáng sợ và rất có thể xảy ra” - theo cảnh báo của Rick Song, CEO công ty Persona, chuyên cung cấp dịch vụ nhận diện khách hàng cho các công ty.

Vô hiệu hóa các biện pháp bảo vệ

Đáng sợ hơn là khả năng tội phạm có thể sử dụng trí thông minh nhân tạo khởi tạo (generative AI) để vượt mặt các biện pháp an ninh chuyên biệt, vốn được tạo ra bởi các hãng công nghệ tiên tiến để bảo vệ hệ thống tài chính điện tử.

Một trong những tính năng chính mà các công ty công nghệ này mang lại là khả năng xác nhận danh tính của khách hàng, bảo vệ các tổ chức tài chính và khách hàng của họ khỏi thất thoát từ lừa đảo. Các công ty như  Socure, Mitek và Onfido sử dụng một hình thức kiểm tra đòi hỏi người dùng chụp ảnh hoặc quay video khuôn mặt để so sánh với các thông tin danh tính được cung cấp trước đó.

Nhưng kẻ gian có thể mua hình ảnh chụp căn cước công dân, bằng lái,... trên các trang web “đen”, rồi sử dụng những công cụ AI thông dụng để tạo hình ảnh 3D hệt như khuôn mặt của nạn nhân, sau đó chồng hình ảnh đó lên khuôn mặt của mình. Kẻ gian sẽ có thể quay video với khuôn mặt 3D giả tạo đó, xoay chuyển nhiều hướng hệt như người thật, và tăng khả năng qua mặt các biện pháp xác thực nhân dạng kể trên.

CEO Rick Song cảnh báo: “Số lượng giả mạo sử dụng các hình ảnh khuôn mặt vô cùng giống thật bằng AI đang tăng lên trong thời gian gần đây, ước tính gấp mười lần so với trước đây”. Số lượng mức tấn công cao nhất là nhắm vào các công ty công nghệ tài chính (Fintech) và các hãng tiền tệ điện tử crypto.

Các chuyên gia an ninh cho biết với sự hiện diện của công nghệ AI, tỷ lệ thành công của các biện pháp an ninh đã bị giảm xuống đáng kể. CEO Johnny Ayers thuộc hãng Socure quả quyết “điều này không đúng”, nhưng cũng thú nhận nhiều hãng tài chính, ngân hàng đã chậm nâng cấp hệ thống lên các mô hình xác nhận danh tính mới chính xác hơn.

AI đấu với AI

OpenAI, hãng công nghệ đứng đằng sau ChatGPT, đã đưa ra nhiều biện pháp ngăn cản kẻ gian sử dụng dịch vụ này để tạo ra các nội dung lừa đảo. Chẳng hạn, ChatGPT sẽ từ chối tạo email yêu cầu gửi các thông tin nhạy cảm như số tài khoản ngân hàng. Tuy vậy, kẻ gian vẫn có thể qua mặt được rào cản này bằng cách đưa ra các lệnh khôn ngoan đánh lừa ChatGPT.

Llama 2, mô hình ngôn ngữ trí thông minh nhân tạo của Meta, công ty đứng đằng sau Facebook, lại sử dụng mã nguồn mở, cho phép bất kỳ ai có thể “vũ khí hóa” thành công cụ lừa đảo. Meta cho rằng sử dụng hình thức mã nguồn mở sẽ cho phép mọi người cùng tham gia tăng cường tính bảo mật, an toàn của mô hình.

Ở mặt khác, các công ty công nghệ phòng chống lừa đảo cũng đang nỗ lực thích ứng nhanh nhất có thể. Và các công cụ như Llama 2 có thể được ứng dụng để phòng chống lừa đảo. Các hãng này đang tìm kiếm bất kỳ dữ liệu nào có thể góp phần phát hiện kẻ gian: “Cách bạn viết, cách bạn bước đi hay cách bạn cầm điện thoại,... đều là những đặc điểm nhận dạng không dễ dàng thu thập, và có thể được phân tích thông qua AI để nhận dạng” - CEO Ranjan của công ty phòng chống lừa đảo Sardine nói.

Ranjan quả quyết: “Để nhận dạng một cá nhân nào đó một cách chính xác qua mạng Internet, công nghệ AI sẽ là rất cần thiết”. Nói một cách khác, ta sẽ cần AI để đánh bại AI.

Tin khác

An toàn thông tin
Trong một bước đi chiến lược nhằm tăng cường khả năng bảo mật cho Google Cloud, Alphabet đã chính thức mua lại Wiz – startup an ninh mạng nổi bật với công nghệ trí tuệ nhân tạo, với mức giá kỷ lục 32 tỷ USD. Tuy nhiên, thương vụ này cũng đặt ra không ít thách thức pháp lý và tài chính, phản ánh sự táo bạo trong chiến lược dài hạn của Alphabet.
5 ngày
An toàn thông tin
Những công cụ WolfGPT, FraudGPT đều là công cụ gây hại nhưng ai cũng có thể dùng, kể cả những người không có nền tảng công nghệ.
2 tháng
An toàn thông tin
Hạ viện Mỹ đã gửi thư tới các nhà điều hành cấp cao của Apple và Google về việc chuẩn bị xóa TikTok vào tháng tới.
3 tháng
An toàn thông tin
Chuyên gia của Hiệp hội An ninh mạng quốc gia cho biết các mã độc sẽ có khả năng tự nâng cấp, công nghệ Deepfake được cải tiến và các công cụ AI tạo sinh khác sẽ giúp kẻ xấu tạo nội dung giả mạo khó lường hơn.
3 tháng
An toàn thông tin
ByteDance và ứng dụng chia sẻ video ngắn TikTok yêu cầu tòa án phúc thẩm tạm thời ngăn chặn điều luật yêu cầu ByteDance phải thoái vốn khỏi TikTok trước ngày 19/1 tới đây, hoặc phải đối mặt với lệnh cấm, trong khi chờ xem xét của Tòa án Tối cao Mỹ.
3 tháng
An toàn thông tin
Chuyên gia cho rằng cần có hành lang pháp lý để kiểm soát sự phát triển của trí tuệ nhân tạo (AI) nhưng nên quy trách nhiệm cho người dùng AI chứ không phải bản thân AI.
4 tháng
An toàn thông tin
Chuyên gia cho biết tấn công mạng ngày càng có xu hướng tập trung vào những hạ tầng thông tin quan trọng, không chỉ nguy hiểm cho hệ thống của các doanh nghiệp, tổ chức mà còn ảnh hưởng đến an toàn không gian mạng quốc gia.
5 tháng
An toàn thông tin
Giả mạo công an, nhân viên ngân hàng, người thân, cho đến cả chuyên gia bảo mật nổi tiếng..., các đối tượng lừa đảo ngày nay không bỏ qua bất kì phương thức nào hòng chiếm đoạt tiền trong túi của người dân. 
8 tháng
An toàn thông tin
Giả dạng những nhà phát hành game, quản trị web, nhà quảng cáo hay thậm chí là người bạn chơi game cùng, nhóm tin tặc lôi kéo người chơi game, người sử dụng mạng xã hội truy cập vào các đường link giả mạo, hoặc tải về các file có đường dẫn nguy hại để chiếm quyền truy cập máy tính, điện thoại.
9 tháng
An toàn thông tin
Các cuộc tấn công mạng ngày càng gia tăng và nguy hiểm khi các đối tượng sử dụng sự thông minh của công nghệ AI vào mục đích xấu.
9 tháng
An toàn thông tin
Theo chuyên gia bảo mật, quyền truy cập của hàng trăm nghìn chiếc camera đang được tin tặc (hacker) rao bán với giá rẻ, nguy cơ dẫn tới lộ lọt thông tin cá nhân và các hành vi riêng tư.
10 tháng
An toàn thông tin
Tội phạm mạng đang triệt để lợi dụng công nghệ trí tuệ nhân tạo (AI), công nghệ mới như deepface…, gây thiệt hại hàng nghìn tỷ USD mỗi năm cho các nền kinh tế.
10 tháng
An toàn thông tin
Những bản ghi âm, video nhái giọng nói, hình ảnh của người thân, người nổi tiếng đã khiến nhiều nạn nhân rơi vào bẫy của tội phạm deepfake. 
10 tháng
An toàn thông tin
Theo chuyên gia, các hacker (tin tặc) thường nằm vùng trong các tổ chức từ 3-6 tháng để nghiên cứu hệ thống vận hành, sau đó tiến hành các cuộc tổng tấn công.
11 tháng
An toàn thông tin
Xác thực không mật khẩu, tức dùng sinh trắc học để đăng nhập vào các tài khoản được xem là phương thức hữu hiệu để hạn chế các vụ tấn công mạng.
11 tháng
Xem thêm