Một loạt video gây tranh cãi được tạo bằng AI có nhân vật giả tưởng tên “Josh” với những phát ngôn mang hàm ý phân biệt chủng tộc về thị trường việc làm và nhập cư Canada đã bị TikTok gỡ xuống. Nền tảng này viện dẫn vi phạm nguyên tắc cộng đồng về việc công khai minh bạch nội dung tổng hợp, thay vì lý do nội dung kích động.
Các video mô tả một thanh niên da trắng tên “Josh” than thở về khó khăn tìm việc tại Canada. Trong đoạn clip lan truyền rộng rãi, nhân vật này khẳng định không thể xin được việc tại Tim Hortons vì “người Ấn Độ đã chiếm hết”, thậm chí cáo buộc được hỏi có biết tiếng Punjab khi nộp đơn. Tim Hortons bày tỏ cực kỳ bức xúc trước những video lừa đảo này.
Một clip khác càng gia tăng sự dối trá khi “Josh” chất vấn chính sách nhập cư Canada, đặt câu hỏi tại sao tiếp nhận nhiều người trong khi việc làm khan hiếm. Những thước phim này nằm trong xu hướng đáng lo ngại mang tên “fake-fluencing”, nơi doanh nghiệp tạo ra nhân vật AI hư cấu để quảng cáo sản phẩm/dịch vụ như được người thật ủng hộ.
Công Ty Đứng Sau Màn Lừa Đảo
Nexa – công ty chuyên về AI phát triển phần mềm tuyển dụng – chính là thủ phạm tạo ra “Josh”. Divy Nayyar, người sáng lập kiêm CEO Nexa, thừa nhận tạo nhân vật này để “trêu đùa” với tâm lý “người Ấn chiếm lĩnh thị trường lao động”. Anh ta mong muốn nhân vật này cộng hưởng với giới trẻ thất nghiệp. Một số video còn khéo léo đặt logo Nexa, mà Nayyar gọi là “đặt quảng cáo trong tiềm thức”.
Tuy nhiên, các chuyên gia marketing lên án chiến dịch này kịch liệt. Giáo sư Markus Giesler (Đại học York) nhận định đây là hành vi “cực kỳ, cực kỳ có vấn đề và phi đạo đức”. Ông chỉ ra rằng lối kể chuyện gây chia rẽ này thường xuất hiện ở nhóm cực đoan, việc công ty sử dụng để thu hút khách hàng là vô tiền lệ và thiếu trách nhiệm.
AI Tân Tiến: Khó Phát Hiện Hơn
Những video lừa đảo này được tạo ra dễ dàng nhờ bước tiến của công nghệ AI, đặc biệt là phần mềm Veo AI của Google cùng các công cụ khác. Phiên bản mới nhất Veo3 (ra mắt tháng 5) tạo video từ văn bản với độ chân thực vượt trội. Các dấu hiệu AI cũ như ngón tay thừa hay chuyển động giả tạo giờ rất hiếm. Âm thanh khó phân biệt với giọng người thật, khớp môi hoàn hảo – từng là thách thức lớn với công cụ tạo video AI.
Dù tinh vi, một số người dùng TikTok tinh ý đã nhận diện video là AI trong phần bình luận. Nhưng nhiều người tin “Josh” có thật, thậm chí tương tác với thông điệp phân biệt chủng tộc và nhận được phản hồi từ nhân vật giả này. Giáo sư Marvin Ryder (Đại học McMaster) ban đầu tưởng “Josh” có thật, cho thấy nguy cơ đáng báo động khi tin giả khó phát hiện trong tương lai. “Làm sao người dùng mạng xã hội… phân biệt thật giả?” – ông đặt câu hỏi.
Quan Điểm Của TikTok Về Minh Bạch AI
TikTok không bình luận về tính chất kích động của nội dung. Chính sách nền tảng yêu cầu nội dung AI tạo ra mô phỏng cảnh/hình ảnh chân thực phải được đánh dấu rõ ràng bằng nhãn, chú thích, hình mờ hoặc sticker. Dù có watermark mờ của Google Veo, TikTok nhận định video “Josh” chưa minh bạch về nguồn gốc nhân tạo. TikTok nhấn mạnh không tự động gắn nhãn tất cả nội dung AI – trách nhiệm thuộc về người sáng tạo.
Sự việc làm dấy lên lo ngại từ các chuyên gia như giáo sư Giesler, cảnh báo việc tạo video chân thực chứa thông điệp thù hận bằng AI sẽ ngày càng nghiêm trọng. Ông nhấn mạnh việc “sử dụng vô trách nhiệm chiến thuật đánh vào cảm xúc thương hiệu” không nên được dung túng, đồng thời chỉ ra nhu cầu cấp thiết về hướng dẫn đạo đức và kiểm soát nền tảng trong bối cảnh lừa đảo trực tuyến và nhân vật số đang phát triển chóng mặt.