Ngày càng có sự đồng thuận về cách thức giải quyết thách thức của deepfake trong truyền thông và doanh nghiệp, được tạo ra thông qua các công nghệ như AI. Đầu năm nay, Google đã thông báo họ sẽ tham gia Liên minh Chứng minh và Xác thực Nội dung (Coalition for Content Provenance and Authenticity) với tư cách là thành viên ban chỉ đạo - các tổ chức khác trong C2PA bao gồm OpenAI, Adobe, Microsoft, AWS và RIAA. Với mối lo ngại ngày càng tăng về thông tin sai lệch và giả mạo AI, các chuyên gia CNTT sẽ muốn chú ý hơn đến công việc của cơ quan này và đặc biệt là Thông tin xác thực nội dung, khi ngành chính thức hóa các tiêu chuẩn quản lý cách quản lý dữ liệu hình ảnh và video.
Thông tin xác thực nội dung là gì?
Thông tin xác thực nội dung (Content Credentials) là một dạng siêu dữ liệu kỹ thuật số mà người tạo có thể đính kèm vào nội dung của họ để đảm bảo nhận dạng phù hợp và thúc đẩy tính minh bạch. Siêu dữ liệu có bằng chứng thể hiện sự sửa đổi này bao gồm thông tin về người sáng tạo và quy trình sáng tạo được nhúng trực tiếp vào nội dung tại thời điểm xuất hoặc tải xuống. Thông tin xác thực nội dung có cơ hội tốt nhất để đạt được cách ghi nhãn nội dung được thống nhất và tiêu chuẩn hóa toàn cầu.
Việc sử dụng Thông tin xác thực nội dung mang lại một số lợi ích. Nó sẽ giúp xây dựng uy tín và niềm tin với khán giả bằng cách cung cấp thêm thông tin về người sáng tạo và quá trình sáng tạo. Sự minh bạch này có thể hỗ trợ chống lại thông tin gây hiểu lầm và thông tin cố tình gây nhầm lẫn trực tuyến. Bằng cách gắn thông tin nhận dạng và liên hệ vào nội dung sản xuất của mình, người sáng tạo có thể giúp người khác tìm thấy và kết nối với họ dễ dàng hơn, nâng cao khả năng hiển thị và nhận biết của họ. Tương tự, việc xác định và hủy nền tảng hoặc xóa nội dung không hợp pháp sẽ trở nên dễ dàng hơn.
Deepfake là một thách thức
Úc, giống như phần lớn phần còn lại của thế giới, đang phải vật lộn với sự gia tăng nhanh chóng của gian lận deepfake. Báo cáo gian lận danh tính thường niên lần thứ ba của Sumsub cho thấy số vụ deepfake ở Úc đã tăng 1.530% trong năm qua và mức độ tinh vi của những hoạt động này cũng ngày càng tăng.
Tình hình trở nên đáng lo ngại đến mức chính phủ gần đây đã công bố chiến lược chống lại một số ví dụ cụ thể về deepfake và sau đó thiết lập các biện pháp để xử lý như bất kỳ dạng nội dung bất hợp pháp nào khác.
Deepfake là nguồn thông tin sai lệch đặc biệt mạnh mẽ vì mắt người có thể bị đánh lừa rất nhanh. Nghiên cứu cho thấy rằng chỉ mất 13 mili giây để xác định một hình ảnh - khung thời gian ngắn hơn nhiều so với khoảng thời gian cần thiết để xử lý và xác định tính hợp lệ. Nói cách khác, deepfake là một rủi ro như vậy bởi vì chúng có thể có tác động đối với một người trước khi chúng có thể được phân tích và loại bỏ.
Ví dụ: cơ quan khoa học hàng đầu của Úc, CSIRO, đã công bố thông tin về “cách phát hiện một deepfake” và hướng dẫn đó yêu cầu phân tích sâu rộng.
“Nếu là video, bạn có thể kiểm tra xem âm thanh có được đồng bộ hóa chính xác với chuyển động của môi hay không. Lời nói có phù hợp với khuôn miệng không? Những điều khác cần kiểm tra là chớp mắt hoặc nhấp nháy không tự nhiên quanh mắt, ánh sáng hoặc bóng kỳ lạ và nét mặt không phù hợp với giọng điệu cảm xúc của bài phát biểu”, chuyên gia CSIRO, Tiến sĩ Kristen Moore, cho biết trong hướng dẫn.
Chính phủ và khu vực tư nhân cần cùng nhau chống lại deepfake
Việc chính phủ biến deepfake thành bất hợp pháp là một bước tích cực trong việc bảo vệ những người sẽ là nạn nhân của chúng. Tuy nhiên, ngành CNTT sẽ cần phải là ngành phát triển các cách xác định và quản lý nội dung này.
Đã có những trường hợp nổi tiếng về các nhân vật kinh doanh lớn như Dick Smith và Gina Rinehart “yêu cầu” các tổ chức như Meta phải chủ động hơn trong việc ngăn chặn các trò gian lận AI, sau khi những hình ảnh giống họ được sử dụng trong các tác phẩm deepfake.
Theo lưu ý của Ủy ban An toàn Điện tử Úc, “sự phát triển của các cải tiến nhằm giúp xác định các hành vi giả mạo sâu vẫn chưa theo kịp bản thân công nghệ”. Về phần mình, chính phủ Úc đã cam kết chống lại nạn deepfake bằng các biện pháp:
Cuối cùng, để tầm nhìn này thành công, cần có sự hỗ trợ từ ngành, với các tổ chức cung cấp công nghệ và đầu tư sâu nhất vào AI. Đây là nơi Thông tin xác thực nội dung xuất hiện.
Các bước cần thực hiện để giúp chống lại deepfake
Thông tin xác thực nội dung là cơ hội tốt nhất để hình thành các tiêu chuẩn chống lại deepfake. Vì cách tiếp cận này được định hướng theo ngành và được hỗ trợ bởi sức nặng của những công ty lớn nhất trong ngành nội dung, điều đó có nghĩa là nội dung bất hợp pháp có thể bị gắn cờ trên phần lớn internet - tương tự như cách các trang web chứa đầy vi-rút có thể bị gắn cờ đến mức chúng trở nên thực sự không thể tìm thấy trên các công cụ tìm kiếm.
Vì lý do này, các chuyên gia CNTT và những người khác làm việc với AI để tạo nội dung sẽ muốn hiểu Thông tin xác thực nội dung giống như cách các nhà phát triển Web hiểu về bảo mật, SEO và các tiêu chuẩn dự kiến sẽ bảo vệ nội dung khỏi bị gắn cờ. Các bước nên thực hiện bao gồm:
Không còn nghi ngờ gì nữa, deepfake sẽ là một trong những thách thức quan trọng nhất mà ngành công nghệ và các chuyên gia CNTT sẽ cần phải tìm ra câu trả lời. Thông tin xác thực nội dung cung cấp một điểm khởi đầu tuyệt vời mà ngành có thể hướng tới.
(theo TechRepublic)
Nguyễn Anh Tuấn