
Một video được tạo bởi AI với biểu cảm, giọng nói nhật vật như người thật.
Tại Diễn đàn Digital Trust in Finance 2026 tổ chức ngày 12/5 ở Hà Nội với chủ đề “Xây dựng niềm tin số tài chính trong kỷ nguyên AI”, nhiều chuyên gia công nghệ, an ninh mạng và tài chính đã cùng chỉ ra một thực tế đáng lo ngại: AI không chỉ tạo ra tiện ích, mà còn đang làm lung lay nền tảng niềm tin trong môi trường số.
Trong bối cảnh Deepfake ngày càng tinh vi, chatbot AI ngày càng phổ biến và các mô hình lừa đảo liên tục biến hóa, cách tiếp cận về an toàn số cũng đang thay đổi. Nếu trước đây người dùng thường cố phân biệt đâu là thật, đâu là giả, thì nay nhiều chuyên gia cho rằng điều quan trọng hơn là phải đặt câu hỏi: yêu cầu mà đối phương đưa ra có hợp lý hay không.

Chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC)
Nếu trước đây video call hay giọng nói từng được xem là bằng chứng xác thực mạnh nhất, thì trong thời đại AI, điều đó đang thay đổi rất nhanh.
Theo ông Ngô Minh Hiếu (Hiếu PC), Giám đốc Tổ chức Chống lừa đảo, công nghệ AI hiện nay đã có thể giả lập khuôn mặt, giọng nói, biểu cảm và cả bối cảnh video với độ chân thực rất cao. Chỉ với một ảnh chân dung, các đối tượng xấu đã có thể sử dụng công cụ mã nguồn mở hoặc phần mềm giá rẻ để tạo ra các cuộc gọi giả mạo trên FaceTime, Zalo, WhatsApp hay nhiều nền tảng khác.
Ông dẫn lại vụ việc từng xảy ra tại Hồng Kông năm 2024, khi một nhân viên tài chính bị lừa tham gia cuộc họp Zoom Deepfake có sự xuất hiện giả mạo của toàn bộ lãnh đạo công ty. Sau cuộc họp, người này đã chuyển 25 triệu USD cho nhóm lừa đảo.
Theo chuyên gia, Deepfake hiện đã phát triển đến mức rất khó nhận diện bằng mắt thường. Dù người dùng vẫn có thể quan sát một số dấu hiệu bất thường như khẩu hình thiếu đồng bộ, ánh mắt không tự nhiên, làn da quá mịn hoặc ánh sáng thiếu nhất quán, nhưng đó không còn là lớp phòng vệ đủ mạnh.
Điểm cốt lõi, theo ông Hiếu, không nằm ở việc cố xác minh video thật hay giả, mà là đánh giá tính hợp lý của yêu cầu được đưa ra.
“Tội phạm thường tạo cảm giác gấp gáp, khẩn cấp để khiến nạn nhân mất khả năng kiểm chứng thông tin. Chúng liên tục yêu cầu chuyển tiền, cung cấp mã OTP hoặc thao tác ngay lập tức”, ông nói.
Cách tiếp cận này cho thấy một thay đổi lớn trong tư duy an toàn số. Trong thời đại AI, niềm tin trực giác đang trở nên kém đáng tin hơn bao giờ hết. Một video chân thực không đồng nghĩa nội dung là thật. Một giọng nói quen thuộc không đảm bảo người ở đầu dây bên kia đúng là người quen.
Và vì thế, thay vì chỉ tập trung vào công nghệ nhận diện Deepfake, người dùng cần hình thành phản xạ mới: bất kỳ yêu cầu tài chính nào mang tính thúc ép, bất thường hoặc vượt ngoài quy trình quen thuộc đều cần được xác minh độc lập, kể cả khi hình ảnh và giọng nói có vẻ hoàn toàn “thật”.

Chuyên gia tài chính Nguyễn Minh Thư, Phó Giám đốc CafeBiz
Ở góc độ tài chính, bà Nguyễn Minh Thư, Phó Giám đốc CafeBiz cho rằng AI và Deepfake đang khiến các mô hình lừa đảo tài chính trở nên thuyết phục hơn rất nhiều, đặc biệt khi kết hợp với video chuyên nghiệp, hình ảnh hào nhoáng và các cam kết lợi nhuận phi thực tế.
Bà Thư nhấn mạnh tới những lời mời gọi đầu tư với mức lợi nhuận 40% mỗi tháng, tương đương khoảng 480% mỗi năm, tức gần gấp 6 lần sau một năm đầu tư. Mức lợi nhuận này gấp nhiều lần so với lãi suất ngân hàng 7-9% mỗi năm. Đó là một con số không tưởng và đặt ra rất nhiều câu hỏi.
“Một mức lợi nhuận quá cao trong thị trường tài chính, lại được quảng bá là không có rủi ro, là dấu hiệu rất đáng ngờ”, bà nói.
Bà cũng lưu ý rằng video đẹp mắt, AI đầu tư tự động hay các cụm từ như “công nghệ độc quyền” không phải bằng chứng cho hiệu quả đầu tư. Bởi việc đầu tư bằng bot tự động đã xuất hiện từ rất lâu, đặc biệt trong thị trường forex và crypto. Nhiều quỹ đầu tư có năng lực công nghệ mạnh đã triển khai các mô hình này từ lâu. Tuy nhiên, phần lớn công nghệ đó không được công khai để chứng minh với thị trường và quan trọng nhất là không thể chứng minh được tính hiệu quả.
Theo bà Nguyễn Minh Thư, scammer tài chính thường bán “giấc mơ làm giàu nhanh”, trong khi những KOL tài chính có trách nhiệm sẽ tập trung vào giáo dục tài chính, giúp người dùng hiểu rủi ro thay vì kích động tâm lý FOMO hay đưa ra khuyến nghị mua bán cụ thể.

Ông Nguyễn Mạnh Tường, Tổng Giám đốc MoMo
Ở góc độ là một ví điện tử có lượng người dùng lớn nhất Việt Nam, đại diện MoMo cũng cho rằng ngành tài chính cần thay đổi tư duy trong cuộc chiến chống lừa đảo.
Theo ông Nguyễn Mạnh Tường, Đồng sáng lập, Đồng chủ tịch HĐQT kiêm Tổng Giám đốc MoMo, thực tế cho thấy phần lớn vụ lừa đảo thành công không xuất phát từ lỗi hệ thống, mà vì người dùng tự thực hiện giao dịch trong trạng thái bị thao túng tâm lý.
“Tư duy truyền thống của ngành là phát hiện giao dịch rồi chặn. Nghe có vẻ đúng, nhưng thực tế phần lớn vụ lừa đảo thành công không phải vì hệ thống có vấn đề hay không phát hiện được giao dịch, mà vì người dùng tự tay thực hiện giao dịch trong lúc bị dẫn dắt tâm lý. Vì vậy, chúng tôi chuyển từ tư duy ‘chặn kẻ xấu’ bởi thực tế không thể chặn hết sang tư duy ‘đồng hành với người tốt’, giúp họ tránh đưa ra quyết định sai lầm”, ông nhấn mạnh.
Theo đại diện MoMo, trọng tâm của phòng chống lừa đảo không còn đơn thuần là nhận diện giao dịch bất thường, mà là hiểu đúng ngữ cảnh và can thiệp đúng thời điểm.
Đáng chú ý, đại diện MoMo cho rằng “90% vấn đề không nằm ở mô hình hay thuật toán”. Điều quan trọng hơn là khả năng sử dụng tín hiệu từ công nghệ để tác động đúng vào hành vi người dùng trước khi họ đưa ra quyết định sai lầm.
Trong nhiều vụ lừa đảo, kẻ gian thường cố cô lập nạn nhân về mặt tâm lý, tạo áp lực thời gian hoặc gieo cảm giác sợ hãi để khiến họ mất khả năng suy xét. Nếu hệ thống có thể xuất hiện đúng lúc bằng cảnh báo phù hợp hoặc cơ chế xác minh bổ sung, khả năng ngăn chặn thiệt hại sẽ cao hơn nhiều so với việc chỉ chặn giao dịch ở lớp cuối cùng.
Có thể nói trong kỷ nguyên AI, khi công nghệ có thể tạo ra những video giả giống thật, những lời hứa lợi nhuận phi lý lại càng dễ trở nên thuyết phục. Và vì thế, lớp phòng vệ quan trọng nhất có lẽ không nằm ở việc sở hữu công nghệ hiện đại hơn hay cố phân biệt video thật giả mà ở khả năng giữ được sự tỉnh táo trước mọi lời đề nghị “quá tốt để là sự thật”.
Phan Trang
Đàm Thị Thuý Vân
Link nội dung: https://antt.nguoiduatin.vn/ky-nguyen-deepfake-van-de-khong-phai-la-phan-biet-that-gia-205260513141843306.htm