Thời gian gần đây, trên các nền tảng mạng xã hội như Facebook, TikTok diễn ra chiêu trò lừa đảo mới tinh vi chưa từng có.

Đó là các đối tượng xấu đã sử dụng công nghệ trí tuệ nhân tạo (AI) để chỉnh sửa khuôn mặt, cơ thể của những người bình thường, biến họ thành người khuyết tật, rồi dựng lên những câu chuyện thương tâm để bán hàng hoặc kêu gọi ủng hộ. Mục tiêu duy nhất là lợi dụng lòng trắc ẩn của cộng đồng nhằm trục lợi bất chính.

lua-dao.jpg
Hình ảnh người phụ nữ bị chỉnh sửa bằng công nghệ AI giống người khuyết tật trên kênh TikTok có tên N.L.

Chiêu trò tinh vi

Vụ việc điển hình khiến dư luận phẫn nộ là kênh TikTok có tên N.L đăng tải hàng loạt video về một người phụ nữ bị cụt cả hai tay, cố gắng bán hàng online để nuôi con nhỏ. Trong các đoạn clip, người phụ nữ xuất hiện trong căn phòng đơn sơ, mặc quần áo giản dị, dùng phần tay cụt để giới thiệu sản phẩm khiến người xem xúc động và thương cảm. Nhiều người không ngần ngại bấm theo dõi, chia sẻ rầm rộ, thậm chí còn đặt mua hàng để giúp đỡ người mẹ vượt khó. Thế nhưng, khi các video lan truyền mạnh mẽ, cộng đồng mạng nhận ra đây thực chất là hình ảnh của một cô gái bán hàng bình thường đã bị chỉnh sửa bằng công nghệ AI để trông giống như người khuyết tật thật.

Chiêu trò đánh vào cảm xúc thương hại đã trở thành chiếc bẫy khiến nhiều người sẵn sàng chuyển tiền hoặc đặt hàng vì tin rằng mình đang giúp đỡ một người yếu thế, bị thiệt thòi. Anh Đặng Minh Quang, ở đường Ngọc Lâm, phường Bồ Đề (Hà Nội) chia sẻ: “Mẹ tôi vì tin vào clip người phụ nữ cụt tay bán hàng nên đã thương cảm mà đặt mua một số sản phẩm do người này bán. Khi biết sự thật, người khuyết tật chỉ là hình ảnh do AI tạo ra bà đã rất buồn và cảm thấy bị xúc phạm”.

Câu chuyện của mẹ anh Quang không phải cá biệt. Hàng trăm người khác từng bị lừa tương tự. Khi lòng tốt bị lợi dụng, con người dần mất niềm tin, dè dặt trước những lời kêu gọi giúp đỡ thật sự. Và hệ quả đau lòng là những người yếu thế thật sự bị tổn thương nặng nề. Trên Facebook cá nhân, tài khoản Nguyễn Sin chia sẻ trường hợp của chị Trần Thị Nga (36 tuổi ở tỉnh Phú Thọ) - chủ kênh “Nga tích cực” là người khuyết tật (cuối năm 2024, do căn bệnh viêm cơ tim cấp, chị buộc phải cắt bỏ cả tay lẫn chân để giữ lại mạng sống), được nhiều người biết đến do thường xuyên truyền cảm hứng bằng nghị lực sống lạc quan. Tuy nhiên, sau khi xuất hiện nhiều vụ giả mạo người tàn tật bằng AI, chị Nga bị nghi là sử dụng AI để giả dạng người khuyết tật.

Trong các buổi livestream gần đây, chị Nga nhiều lần buồn bã khi liên tục bị một số người sử dụng mạng xã hội yêu cầu “giơ tay lên”, “lết đi”... để chứng minh mình là người khuyết tật thật. Những yêu cầu vô lý, tàn nhẫn ấy khiến chị tổn thương sâu sắc. Câu chuyện của chị “Nga tích cực” là minh chứng đau lòng cho việc công nghệ bị lạm dụng có thể gây hại đến mức nào.

Kỹ năng nhận diện nội dung giả do AI tạo dựng

Theo Bộ Công an, năm 2024, Việt Nam ghi nhận hơn 6.000 vụ lừa đảo trực tuyến, gây thiệt hại ước tính khoảng 12.000 tỷ đồng. Chỉ trong 8 tháng năm 2025, gần 1.500 vụ lừa đảo qua mạng cũng đã được phát hiện. Con số ấy phản ánh rõ mức độ nguy hiểm của tội phạm công nghệ cao trong bối cảnh nước ta có hơn 78 triệu người dùng internet, 72 triệu người sử dụng mạng xã hội. Không gian mạng đang trở thành mảnh đất màu mỡ cho các chiêu trò lừa đảo ngày càng tinh vi, trong đó việc sử dụng AI để tạo nội dung giả là mối đe dọa lớn nhất hiện nay.

Trước thực tế đáng báo động đó, các cơ quan chức năng và chuyên gia an ninh mạng khuyến cáo người dân cần trang bị kiến thức và kỹ năng nhận diện nội dung giả. Phó Bí thư Đoàn Thanh niên Công an phường Long Biên (Hà Nội) Nguyễn Nhật Hà lưu ý, người dân nên thường xuyên theo dõi các nguồn thông tin chính thống, chủ động cập nhật kiến thức về công nghệ, các hình thức lừa đảo mới. Đặc biệt, phải luôn cảnh giác và ghi nhớ các nguyên tắc cơ bản, đó là xác minh cẩn trọng nguồn tin, không cung cấp thông tin cá nhân cho nguồn không xác thực, không truy cập đường dẫn lạ, không chuyển tiền cho tài khoản chưa xác minh.

Để nhận biết các video do AI tạo ra, theo các chuyên gia an ninh mạng, người dùng nên quan sát kỹ chi tiết hình ảnh, cử động khuôn mặt, tay chân hoặc âm thanh. Những dấu hiệu như ánh mắt vô hồn, chuyển động không tự nhiên, giọng nói bị trễ hoặc không khớp khẩu hình thường là chỉ dấu của công nghệ Deepfake.

Ngoài ra, việc kiểm tra thông tin kênh đăng tải, đọc bình luận, xem lịch sử hoạt động cũng là cách đơn giản để đánh giá độ tin cậy. Cùng với đó, người dùng cần hình thành thói quen kiểm chứng trước khi tin. Một video dù gây xúc động đến đâu cũng không nên được chia sẻ, ủng hộ vội vàng.

Các chuyên gia đồng thời kêu gọi các nền tảng mạng xã hội tăng cường kiểm duyệt, nhận diện nội dung sử dụng AI để mạo danh người khuyết tật, đồng thời xử lý nghiêm những tài khoản vi phạm. Cơ quan chức năng cũng cần sớm ban hành quy định rõ ràng về việc sử dụng hình ảnh và nội dung AI, bảo đảm không để công nghệ trở thành công cụ cho hành vi phi đạo đức của những đối tượng xấu.

Thu Trang / Hà Nội Mới