VNTB – Dấu hiệu hàng đầu cho thấy bạn đang xem video do AI tạo ra
Thomas Germain
15.11.2025 6:11
VNThoibao
(VNTB) – Các video AI vẫn còn lỗi nhưng ngày càng khó phát hiện chúng hơn.
Bảng tin mạng xã hội của bạn đang bị chiếm dụng bởi video AI. Có một dấu hiệu có thể giúp bạn phát hiện video giả mạo – trông nó có giống như được quay kém chất lượng không?
Mọi chuyện đã kết thúc. Bạn sẽ mắc bẫy thôi. Mà có lẽ bạn đã mắc bẫy rồi. Trong sáu tháng qua, các chương trình tạo video bằng AI (tạm gọi là video AI) đã trở nên tốt đến nỗi mối quan hệ của chúng ta với máy quay phim sắp tan vỡ. Đây là kịch bản nhiều khả năng xảy ra nhất: bạn sẽ bị lừa, hết lần này đến lần khác, cho đến khi bạn chán đến mức bạn nghi ngờ mọi thứ mình nhìn thấy. Chào mừng bạn đến với tương lai.
Nhưng hiện tại, vẫn còn một vài dấu hiệu đáng ngờ cần chú ý. Một dấu hiệu nổi bật. Nếu bạn thấy một video có chất lượng hình ảnh kém – ví dụ như cảnh quay nhiễu hạt, mờ nhòe – thì nên nghi ngờ rằng bạn đang xem video AI.
“Đó là một trong những điều đầu tiên chúng tôi xem xét”, Hany Farid, giáo sư khoa học máy tính tại Đại học California, Berkeley, người tiên phong trong lĩnh vực thẩm định kỹ thuật số và là người sáng lập công ty GetReal Security chuyên phát hiện các video bị chỉnh sửa hoặc được làm bằng AI, cho biết.
Sự thật đáng buồn là các công cụ video AI cuối cùng sẽ trở nên tốt hơn nữa, và lời khuyên này sẽ sớm trở nên vô dụng. Điều đó có thể xảy ra trong vài tháng, hoặc có thể mất nhiều năm. Khó nói lắm! Tôi xin lỗi. Nhưng nếu bạn cùng tôi thảo luận các chi tiết tinh tế, mẹo này có thể giúp bạn tránh khỏi một số vấn đề liên quan đến video AI cho đến khi bạn học được cách tìm ra sự thật cho dù các video do AI tạo ra giống hệt như cảnh thật.
Tôi xin nói rõ rằng đây không phải là bằng chứng. Video AI hiếm khi có chất lượng kém. Các công cụ AI tốt nhất có thể tạo ra các clip đẹp mắt và trau chuốt. Và không phải mọi clip chất lượng thấp đều được tạo ra bởi AI. “Nếu bạn thấy thứ gì đó có chất lượng thực sự thấp thì không có nghĩa là nó là giả. Nó không có nghĩa là người làm ra nó có ý đồ bất chính”, Matthew Stamm, giáo sư và trưởng Phòng thí nghiệm An ninh Thông tin và Truyền thông đa phương tiện tại Đại học Drexel, Hoa Kỳ, cho biết. Thay vào đó, vấn đề là làm cho các video AI mờ đi mới dễ đánh lừa bạn hơn, ít nhất là ở thời điểm hiện tại. Đó là dấu hiệu cho thấy bạn nên xem kỹ hơn những gì mình đang co
“Các chương trình chuyển văn bản thành video hàng đầu như Veo [của Google] và Sora của OpenAI vẫn tạo ra những lỗi nhỏ”, Giáo Sư Farid nói. “Nhưng không phải là những lỗi kiểu bàn tay có sáu ngón hay nói nhảm. Nó tinh vi hơn vậy.”
Ngay cả những chương hình tiên tiến nhất hiện nay cũng thường gặp phải các vấn đề như kết cấu da mịn màng một cách kỳ lạ, kiểu tóc và quần áo dị thường, hoặc các vật thể nhỏ ở hậu cảnh chuyển động theo những cách vô lý hoặc không thực tế. Rất khó để phát hiện những chi tiết này, nhưng hình ảnh càng rõ nét thì bạn càng có khả năng nhận ra những lỗi AI đáng chú ý này.
Đó là lý do khiến những video chất lượng thấp trở nên hấp dẫn với những kẻ có ý định lừa người xem đến vậy. Ví dụ, khi bạn yêu cầu AI làm một clip trông giống như được quay bằng điện thoại cũ hoặc camera an ninh, nó có thể che giấu những chi tiết giả mạo mà mọi người sẽ phát hiện ra nếu nó rõ nét.
Trong vài tháng qua, một vài video AI nổi tiếng đã lừa được rất nhiều người. Tất cả chúng đều có một số điểm chung. Một video giả nhưng thú vị về những chú thỏ hoang nhảy trên bạt lò xo đã đạt hơn 240 triệu lượt xem trên TikTok (https://www.404media.co/ai-bunnies-on-trampoline-causing-crisis-of-confidence-on-tiktok/). Hàng triệu người lãng mạn trực tuyến khác đã nhấn nút thích một đoạn clip ghi lại cảnh hai người yêu nhau ngay lần đầu tiên gặp gỡ trên tàu điện ngầm ở New York, để rồi phải thất vọng khi hóa ra đó là video giả (https://www.tiktok.com/@bestoftheinternet67/video/7556440997912120607). Cá nhân tôi đã bị cuốn hút bởi một video lan truyền về một mục sư người Mỹ thuộc một giáo hội bảo thủ đang thuyết giảng một cách đáng ngạc nhiên theo khuynh hướng cánh tả (https://www.tiktok.com/@guided_in_graces/video/7563048950685535502). “Tỷ phú là nhóm thiểu số duy nhất chúng ta nên sợ hãi”, ông ta hét lên bằng giọng miền Nam. “Họ có sức mạnh hủy diệt đất nước này!” Tôi đã bị choáng váng. Liệu ranh giới chính trị của chúng ta có thực sự mờ nhạt đến vậy không? Không. Chỉ là AI thôi.
Bạn không bao giờ cho rằng một văn bản là thật chỉ vì ai đó đã viết nó. Bạn thường điều tra nguồn gốc. Video trước đây rất khác biệt vì chúng khó làm giả hơn. Giờ thì hết rồi.
Tất cả những video này trông như được quay với chất lượng kém. Những chú thỏ AI? Xuất hiện trong những thước phim camera an ninh rẻ tiền quay vào ban đêm. Cặp đôi trên tàu điện ngầm? Được làm mờ. Vị mục sư tưởng tượng đó? Video trông như được phóng to hơi quá mức. Và hóa ra những video đó còn có những điểm khác nữa.
“Ba điều cần lưu ý là độ phân giải, chất lượng và độ dài”, Giáo sư Farid nói. Độ dài là dễ nhất. “Phần lớn, video AI rất ngắn, thậm chí còn ngắn hơn cả những video mà chúng ta thường thấy trên TikTok hoặc Instagram, thường có độ dài khoảng 30 đến 60 giây. Phần lớn các video tôi được yêu cầu xác minh đều dài sáu, tám hoặc 10 giây.” Đó là bởi vì việc tạo video AI rất tốn kém. Do đó, hầu hết các phần mềm đều chỉ có thể làm các clip ngắn. Thêm vào đó, video càng dài thì khả năng AI bị lỗi càng cao. “Người ta có thể ghép nhiều video AI lại với nhau, nhưng bạn sẽ thấy một đoạn mới sau khoảng mỗi tám giây.”
Hai yếu tố còn lại, độ phân giải và chất lượng, có liên quan nhưng khác nhau. Độ phân giải là về số lượng hoặc kích thước pixel trong hình ảnh (mỗi ảnh tạo bằng phần mềm bao gồm nhiều hình vuông nhỏ li ti có màu sắc khác nhau. Cỡ những hình vuông này càng nhỏ, tương đương với số lượng của chúng càng nhiều khi khổ ảnh không đổi, thì ảnh càng nét hơn). Trong khi đó, nén (giảm chất lượng) là quá trình làm giảm kích thước tệp video bằng cách loại bỏ chi tiết, thường để lại các khối hình và các cạnh mờ.
Thực tế, Giáo Sư Farid cho biết những video giả chất lượng thấp rất hấp dẫn đến nỗi những kẻ định lừa gạt người khác cố tình làm giảm chất lượng tác phẩm của họ. “Nếu tôi định lừa người khác, tôi phải làm gì? Tôi tạo video giả, sau đó giảm độ phân giải để bạn vẫn có thể nhìn thấy nhưng không thể phân biệt được tất cả các chi tiết nhỏ. Và sau đó tôi thêm hiệu ứng nén để làm mờ thêm bất kỳ hiện tượng giả tạo nào có thể xảy ra”, Giáo Sư Farid nói. “Đó là một kỹ thuật phổ biến.”
Vấn đề là, khi bạn đang đọc những dòng này, các gã khổng lồ công nghệ đang chi hàng tỷ đô la để làm cho AI trở nên chân thực hơn. “Tôi có một số tin xấu muốn thông báo. Nếu những dấu hiệu trực quan kể trên xuất hiện bây giờ, chúng sẽ nhanh chóng biến mất “, Stamm nói. “Tôi dự đoán rằng những dấu hiệu này sẽ biến mất khỏi video trong vòng hai năm, ít nhất là những dấu hiệu rõ ràng, bởi vì chúng đã gần như biến mất khỏi hình ảnh do AI tạo ra rồi. Bạn không thể tin vào mắt mình nữa.”
Điều đó không có nghĩa là sự thật đã mất đi. Khi các nhà nghiên cứu như Farid và Stamm xác minh một nội dung, họ có sẵn các kỹ thuật tiên tiến hơn. “Khi bạn tạo hoặc chỉnh sửa một video, nó sẽ để lại những dấu vết nhỏ mà mắt thường không thể nhìn thấy, giống như dấu vân tay tại hiện trường vụ án”, Giáo Sư Stamm nói. “Chúng ta đang chứng kiến sự xuất hiện của các kỹ thuật có thể giúp tìm kiếm và phô bày những dấu vân tay này.” Ví dụ, đôi khi, phân bố các pixel (các hình vuông nhỏ li ti) trong video giả có thể khác với video thật, nhưng những yếu tố như thế này không phải là hoàn hảo.
Các công ty công nghệ cũng đang nghiên cứu các tiêu chuẩn mới để xác minh thông tin kỹ thuật số. Về cơ bản, máy ảnh có thể thêm thông tin vào tệp ngay khi chúng tạo ra hình ảnh để giúp chứng minh đó là thật. Tương tự như vậy, các công cụ AI có thể tự động thêm các chi tiết tương tự vào video và hình ảnh của họ để chứng minh chúng là giả. Giáo Sư Stamm và những người khác cho rằng những nỗ lực này có thể hữu ích.
Theo chuyên gia về kiến thức số Mike Caulfield, giải pháp thực sự là tất cả chúng ta nên bắt đầu suy nghĩ khác đi về những gì chúng ta thấy trên mạng. Việc tìm kiếm những manh mối mà AI để lại không phải là lời khuyên “bền vững” vì những manh mối đó liên tục thay đổi, ông nói. Thay vào đó, Caulfield cho rằng chúng ta phải từ bỏ ý tưởng rằng video hay hình ảnh có thể mang bất cứ ý nghĩa gì nếu không xét đến bối cảnh mà trong đó chúng xuất hiện.
“Quan điểm của tôi là về lâu dài, video sẽ phần lớn trở nên giống như văn bản, trong đó nguồn gốc [nguồn gốc của video], chứ không phải các đặc điểm bề mặt, sẽ là yếu tố then chốt nhất, và chúng ta cũng nên chuẩn bị cho điều đó”, Caulfield nói.
Bạn sẽ không bao giờ nhìn vào một đoạn văn bản và cho rằng nó đúng chỉ vì ai đó đã viết nó ra. Nếu có bất kỳ nghi ngờ nào, bạn sẽ tìm hiểu nguồn gốc của thông tin. Video và hình ảnh trước đây rất khác, vì chúng khó bị làm giả và thao túng hơn. Giờ thì điều đó đã qua rồi. Điều duy nhất quan trọng bây giờ là nội dung đó đến từ đâu, ai đã đăng nó, bối cảnh là gì và liệu nó đã được một nguồn đáng tin cậy xác minh hay chưa. Câu hỏi đặt ra là khi nào (hoặc liệu) chúng ta (có) hiểu ra và chấp nhận sự thật này.
“Nếu tôi được phép nói kiểu đao to búa lớn hơn một chút, tôi nghĩ đây là thách thức an ninh thông tin lớn nhất của thế kỷ 21”, Giáo Sư Stamm nói. “Nhưng vấn đề này chỉ mới xuất hiện vài năm trở lại đây. Số lượng người đang nỗ lực giải quyết vấn đề này còn tương đối nhỏ nhưng đang tăng lên nhanh chóng. Chúng ta sẽ cần sự kết hợp giữa các giải pháp, giáo dục, chính sách thông minh và các phương pháp công nghệ. Tôi không có ý định bỏ cuộc.”
*Thomas Germain là một nhà báo công nghệ cao cấp của BBC. Ông đã đưa tin về AI, quyền riêng tư và những khía cạnh sâu xa nhất của văn hóa internet trong gần một thập niên. Bạn có thể tìm thấy ông trên X và TikTok tại @thomasgermain.
__________________
Nguồn: BBC
No comments:
Post a Comment