AI mạo danh: Cạm bẫy deepfake trên mạng xã hội
Mạng xã hội gần đây xôn xao trước những video quảng cáo có sự xuất hiện của các ca sĩ nổi tiếng giới thiệu cơ hội kiếm tiền trên các nền tảng thương mại điện tử. Nhưng sự thật, những hình ảnh và giọng nói ấy hoàn toàn là giả mạo.
Công nghệ deepfake là một bước tiến của trí tuệ nhân tạo, có khả năng tái tạo hình ảnh và giọng nói con người gần như hoàn hảo. Chỉ vài đoạn video, vài mẫu âm thanh thật, kẻ xấu có thể “hô biến” một người nổi tiếng nói những lời chưa từng tồn tại.
Giả người nổi tiếng trục lợi
Kẻ xấu đã tạo ra nhũng video bằng công nghệ AI, lồng ghép gương mặt một ca sĩ nổi tiếng để quảng cáo sản phẩm. Trong các video ấy, khẩu hình miệng và giọng nói được dựng lại gần như trùng khớp, khiến nhiều người xem tin rằng nghệ sĩ thực sự đứng ra giới thiệu sản phẩm.
Không chỉ dừng ở các mặt hàng gia dụng, hàng loạt video khác còn mạo danh ca sĩ, diễn viên để quảng cáo mua sắm trên các sàn thương mại điện tử. Những nội dung này được lan truyền mạnh, thu hút hàng chục nghìn lượt xem chỉ sau vài giờ đăng tải.
Điểm chung của các clip là nghệ sĩ hoàn toàn không hề hay biết việc hình ảnh và giọng nói của mình bị sử dụng, trong khi người xem rất dễ bị đánh lừa bởi mức độ chân thật ngày càng cao của công nghệ deepfake.
Đáng chú ý, không ít người lớn tuổi đã trở thành nạn nhân của những đoạn quảng cáo mạo danh này. Một số người tin đó là chia sẻ thật của nghệ sĩ và quyết định đặt mua sản phẩm mà không hề nghi ngờ.
Các nghệ sĩ bị mạo danh cũng đã đồng loạt lên tiếng đính chính, khẳng định họ không hề tham gia bất kỳ quảng cáo hay lời kêu gọi mua sắm nào như trong các clip lan truyền. Tuy nhiên, những lời cảnh báo này thường đến sau khi hàng loạt người xem đã tin tưởng và mua hàng. Điều này cho thấy mức độ nguy hiểm của deepfake khi có thể tạo ra nội dung giả mạo nhanh hơn nhiều so với khả năng kiểm chứng của người dùng. Và đây cũng là lý do các chuyên gia cho rằng, cần có giải pháp mạnh hơn để bảo vệ nghệ sĩ và cộng đồng trước loại hình lừa đảo tinh vi này.
Cạm bẫy deepfake trên mạng xã hội
Cụm từ deepfake được ghép từ khái niệm Deep Learning - máy học sâu và Fake - giả. Trong nhiều năm trở lại đây, deepfake đang trở thành cơ hội cho các hành vi lừa đảo. Mức độ nguy hiểm của deepfake không chỉ nằm ở khả năng sao chép khuôn mặt hay giọng nói gần như hoàn hảo, mà còn ở việc nó có thể đánh sập lòng tin - yếu tố cốt lõi trong mọi tương tác trực tuyến.
Chỉ với vài giây video, một mẫu giọng nói thu trộm, kẻ xấu đã đủ dữ liệu để tạo ra phiên bản “ảo” của bất kỳ ai, từ nghệ sĩ, doanh nhân, cho đến người dùng bình thường. Việc các ca sĩ nổi tiếng, KOL bị mạo danh trong quảng cáo lừa đảo cho thấy deepfake đã đạt đến mức độ vi phạm nghiêm trọng: vừa xâm phạm hình ảnh cá nhân, vừa tạo ra hành vi lừa đảo có tổ chức.
Trung tá Nguyễn Tiến Cường, Trưởng phòng 3, Tổng Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao cho biết: "Các tổ chức tội phạm hoạt động trên không gian mạng rất chuyên nghiệm và bài bản, nhắm vào người dùng. Và người dùng đôi khi không đủ kỹ năng thì rất dễ trở thành bị hại".
Đáng lo hơn, mô hình deepfake được “vũ khí hóa” cùng mạng xã hội khiến tốc độ lan truyền gấp hàng trăm lần so với các chiêu trò lừa đảo truyền thống. Khi một video giả mạo được chia sẻ ồ ạt, não bộ người xem dễ bị thuyết phục bởi yếu tố hình - âm thanh chân thực, từ đó vô tình trở thành nạn nhân hoặc tiếp tay lan truyền thông tin sai lệch.
Ông Hồ Minh Đức, CEO Công ty VBEE Việt Nam chia sẻ: "Viễn cảnh chúng ta phải đối mặt với deepfake là không thể tránh khỏi. Người dùng phải có cách để nhận biết ra đâu là nội dung deepfake, ví dụ như cảm xúc sẽ không giống con người, sự chênh lệch giữa khuôn miệng, lời nói, hành động không đồng nhất".
Không chỉ người nổi tiếng mới trở thành nạn nhân của deepfake, bất cứ ai có sự hiện diện trên mạng xã hội đều có thể bị đánh cắp dữ liệu và biến thành công cụ phục vụ mục đích xấu. Chỉ cần vài giây hình ảnh hoặc âm thanh, kẻ gian có thể tạo ra bản sao kỹ thuật số của chính chúng ta.
Anh Nguyễn Minh Hiếu, Giám đốc Dự án chongluadao.vn bày tỏ: "Để chống lại việc bị lộ lọt thông tin dữ liệu và bị kẻ xấu lợi dụng, sử dụng vào hành vi xấu như giả mạo, deepfake thì chính chúng ta phải biết bảo vệ minh trên không gian mạng, đặc biệt là ẩn đi các bài viết, các thông tin, hình ảnh cá nhân".
Theo Bộ luật Dân sự 2015, việc sử dụng hình ảnh của người khác khi không có sự đồng ý là vi phạm quyền nhân thân, người bị mạo danh có quyền yêu cầu tòa án buộc người vi phạm thu hồi/tiêu hủy hình ảnh, chấm dứt việc sử dụng, xin lỗi, cải chính công khai và bồi thường thiệt hại.
Ngoài ra, theo Bộ luật Hình sự 2015, cụ thể là Điều 198 Bộ luật Hình sự, nếu việc dùng hình ảnh, giọng nói giả mạo nhằm bán hàng, quảng cáo hay giao dịch, gây hiểu lầm, lừa dối khách hàng thì có thể cấu thành tội “lừa dối khách hàng”. Thêm vào đó, hành vi này cũng vi phạm quy định của Luật Bảo vệ quyền lợi người tiêu dùng 2023, vì người kinh doanh có trách nhiệm minh bạch thông tin, rõ ràng về danh tính, địa chỉ, phương thức liên hệ - điều mà các quảng cáo sử dụng AI giả mạo thường bỏ qua.
Tuy nhiên, để bị xử lý hình sự, cần có đủ yếu tố cấu thành tội phạm: cơ quan chức năng phải điều tra, xác minh xem việc giả mạo có dẫn đến thiệt hại thực tế, có ý đồ gian dối, làm ảnh hưởng người tiêu dùng hay không.














