Bằng kỹ thuật Deepfake AI, các kẻ lừa đảo đã chiếm đoạt hàng triệu đô la từ các nạn nhân bằng cách giả mạo giọng nói của người thân, bác sĩ và luật sư của họ để yêu cầu chuyển tiền. Tình trạng trên đến nỗi Ủy ban Thương mại Liên bang Mỹ (FTC) đã phải phát đi cảnh báo về mối đe dọa của trò lừa đảo AI – một âm mưu tưởng chừng chỉ có trong truyện khoa học viễn tưởng.
Trí tuệ nhân tạo (AI) đang khiến nhiều người lo lắng về tương lai của con người. Cả Elon Musk và Steve Wozniak, những nhà lãnh đạo công nghệ hàng đầu, đã ký một bản kiến nghị công khai, kêu gọi OpenAI – nhà sản xuất chatbot đàm thoại ChatGPT – tạm dừng phát triển trong sáu tháng để được giám sát bởi các chuyên gia độc lập.
Mặc dù lo ngại về tương lai là chính đáng, thế nhưng hiện tại, AI đã bắt đầu gây ra tác động lớn và thậm chí làm phá hủy tài chính của các doanh nghiệp và cá nhân. Các trò lừa đảo AI đang được sử dụng để lừa đảo người dùng bằng cách giả mạo giọng nói của họ.
Tình trạng trên đã khiến Ủy ban Thương mại Liên bang Mỹ (FTC) phải cảnh báo về mối đe dọa của trò lừa đảo AI, như một âm mưu trong truyện khoa học viễn tưởng. Với sự phát triển nhanh chóng của AI, việc kiểm soát và giám sát nghiêm ngặt trở nên càng cần thiết hơn bao giờ hết.
Ủy ban Thương mại Liên bang Mỹ (FTC) đã đưa ra lời khuyên quan trọng khi đối phó với mối đe dọa từ các trò lừa đảo sử dụng trí tuệ nhân tạo. Theo đó, nếu bạn nhận được yêu cầu chuyển tiền từ người trông giống như bạn bè hoặc người thân, đặc biệt là qua các hình thức chuyển khoản ngân hàng, tiền điện tử hoặc thẻ quà tặng, bạn nên ngừng lại và gọi trực tiếp cho người đó để xác minh. Điều này giúp đảm bảo rằng bạn không rơi vào bẫy của các trò lừa đảo sử dụng trí tuệ nhân tạo để lừa đảo và chiếm đoạt tiền của bạn.
Công nghệ Deepfake AI không còn là điều xa lạ, và những kẻ lừa đảo đã sử dụng nó để đánh cắp 11 triệu USD từ những người tiêu dùng cả tin vào năm ngoái. Bằng cách ngụy tạo giọng nói của người thân yêu, bác sĩ và luật sư, chúng yêu cầu tiền từ người thân và bạn bè của họ.
Theo FTC, để thực hiện trò lừa đảo này, kẻ lừa đảo chỉ cần có một đoạn âm thanh ngắn giọng nói của người mà họ muốn giả mạo – một điều không khó khăn khi có rất nhiều nội dung trực tuyến. Sau đó, họ sử dụng một chương trình nhân bản giọng nói để tạo ra giọng nói giống hệt như người thật.
Khi kẻ lừa đảo gọi điện cho bạn, giọng nói của họ sẽ giống như người mà họ đang giả mạo. Đó là lý do FTC khuyên bạn nên gọi trực tiếp cho người thân của mình để xác minh trước khi chuyển tiền.
Những trường hợp này không chỉ tác động đến người tiêu dùng, mà cả các doanh nghiệp ở mọi quy mô đang trở thành nạn nhân của hình thức lừa đảo mới này.
Một giám đốc ngân hàng ở Hồng Kông đã bị kẻ lừa đảo giả danh là giám đốc ngân hàng khác gọi điện yêu cầu chuyển khoản. Bằng cách giả danh thành công, kẻ lừa đảo đã lừa được giám đốc chuyển khoản số tiền lên đến 35 triệu USD mà không bao giờ lấy lại được.
Một công ty năng lượng có trụ sở tại Vương quốc Anh cũng bị tấn công bởi kẻ lừa đảo, khi một nhân viên vô tình chuyển khoản khoảng 250.000 USD sau khi bị lừa bởi người giả danh là giám đốc điều hành của công ty mẹ. Trong khi đó, ít nhất 8 người cao tuổi ở Canada đã bị lừa mất tổng cộng 200.000 USD vào đầu năm nay bởi một vụ lừa đảo sử dụng công nghệ nhân bản giọng nói rất tinh vi.
Một cảnh báo mới từ FBI cho biết, bọn tội phạm đang sử dụng công nghệ Deepfake để tạo ra các “nhân viên” giả mạo trong môi trường làm việc từ xa nhằm xâm nhập vào thông tin của các doanh nghiệp.
Trong vài năm qua, công nghệ video Deepfake đã được sử dụng phổ biến để tạo ra những video giả mạo của các người nổi tiếng, chính trị gia như Mark Zuckerberg, Tom Cruise, Barack Obama và Donald Trump. Tuy nhiên, ảnh hưởng tiềm ẩn đến các doanh nghiệp nhỏ cả tin mới là nguồn đe dọa đáng lo ngại nhất.
Các chuyên gia đang cảnh báo rằng công nghệ Deepfake đang trở nên ngày càng phổ biến và tinh vi hơn. Không chỉ có những video Deepfake giả lập những người nổi tiếng thực hiện những hành động và nói những điều họ không bao giờ làm, mà công nghệ sao chép giọng nói cũng đang phát triển nhanh chóng.
Theo giáo sư khoa học máy tính Subbarao Kambhampati tại Đại học bang Arizona, chi phí để nhân bản giọng nói cũng đang giảm, khiến những kẻ lừa đảo dễ dàng tiếp cận hơn. Kambhampati cho rằng trước đây, những kỹ thuật này đòi hỏi sự phức tạp, nhưng bây giờ, kẻ gian nhỏ cũng có thể sử dụng chúng để lừa đảo.
Số lượng video trên mạng xã hội ngày càng tăng, và nhiều người dường như không nhận ra rằng giọng nói của họ có thể bị lợi dụng để tấn công hoặc gây ra sự nhầm lẫn. Ngoài ra, các kẻ lừa đảo còn có thể sử dụng giọng nói của một người để gọi điện cho một người khác, để lôi kéo họ vào một cuộc trò chuyện và lấy lại thông tin quan trọng.
Điều này có thể gây ra những tổn thất nghiêm trọng và ngay lập tức, nên cần có biện pháp để ngăn chặn nó. Tuy nhiên, việc cấm bất kỳ giao dịch tài chính nào dựa trên một cuộc điện thoại gọi đến là không đủ. Điều quan trọng là mọi người phải có ý thức về tình huống này và được hướng dẫn về cách xác minh nguồn tin trước khi thực hiện bất kỳ giao dịch nào, kể cả khi đó là một cuộc gọi từ CEO của công ty.
Để thực hiện giao dịch với một số tiền nhất định, cần có sự chấp thuận bằng văn bản từ các lãnh đạo trong công ty. Ngoài ra, cần có tài liệu bằng văn bản – yêu cầu hoặc hợp đồng đã ký – để làm cơ sở cho yêu cầu giao dịch. Việc kiểm soát này có thể dễ dàng hơn trong các công ty lớn có nhiều bộ phận.
Tuy nhiên, những kế toán viên tại các doanh nghiệp nhỏ hơn thường trở thành nạn nhân của việc quản lý vượt quyền. Những người này có thể không quan tâm đến các quy tắc và yêu cầu chuyển tiền ngay lập tức mà không có sự chấp thuận trước. Do đó, các chủ doanh nghiệp nên thiết lập và tuân thủ các quy tắc để đảm bảo lợi ích của chính mình.
Mặc dù công nghệ AI như ChatGPT có thể đem lại những rủi ro cho nhân loại trong tương lai, nhưng hiện tại, nguy cơ của công nghệ Deepfake mới là vấn đề đang trở nên ngày càng phổ biến. Việc bắt chước giọng nói của các giám đốc điều hành và giả mạo nhân viên có thể gây ra hậu quả nghiêm trọng. Điều này cần được cảnh báo và đối phó kịp thời để đảm bảo an toàn cho doanh nghiệp và nhân viên.