Kẻ xấu tạo video deepfake về Tổng thống Nga Vladimir Putin. Bên trái là ảnh video gốc, bên phải là ảnh đã qua chỉnh sửa dùng công nghệ AI - Ảnh chụp màn hình
Trong bối cảnh các nước đang phải chật vật với tin giả (fake news), sự phát triển của deepfake khiến cuộc chiến này càng thêm khó khăn.
Giới chuyên gia lo ngại kẻ xấu có thể lợi dụng deepfake để tạo ra các thông tin sai lệch, kích động bất ổn quy mô lớn bằng cách làm giả phát ngôn của những người nổi tiếng hay các chính trị gia.
Mặt trái của AI
Không phải ngẫu nhiên Trung tâm Nghiên cứu chiến lược và quốc tế (CSIS) của Mỹ xếp các video được làm giả dựa trên công nghệ deepfake vào 1 trong 5 nguy cơ gây mất an ninh toàn cầu năm 2019. Hãy thử tưởng tượng một ngày nào đó lãnh đạo của một quốc gia trở thành nạn nhân của deepfake khi xuất hiện trong một đoạn phim nhạy cảm được tung ra ngay trước thềm bầu cử, hậu quả có thể được hình dung rõ ràng hơn.
Là một thuật ngữ mới xuất hiện gần đây, deepfake dường như là sự kết hợp giữa hai từ deep-learning (học sâu) và fake (giả). Điều này không chỉ nói lên bản chất giả dối của nó, mà còn cho thấy sự nguy hiểm tiềm ẩn từ việc tận dụng sức mạnh công nghệ.
Các sản phẩm sử dụng khả năng machine learning (học máy) của AI đều cần trải qua hai bước cơ bản chính: nạp dữ liệu đầu vào trước khi sử dụng một thuật toán thích hợp để xử lý và "học" từ các dữ liệu được cung cấp. Với các video deepfake, nguồn dữ liệu không phải là chuyện khó, đặc biệt là những người nổi tiếng. Cái mà những video giả này cần chỉ là biểu cảm gương mặt của nạn nhân.
Hồi tháng 7-2017, một nhóm nghiên cứu tại Đại học Washington (Mỹ) đã trở nên nổi tiếng khi công bố một video deepfake về cựu tổng thống Barack Obama. Chuyện tìm dữ liệu để nạp cho AI hoàn toàn đơn giản. Trong 8 năm làm tổng thống, mọi biểu cảm gương mặt và môi của ông Obama đều có thể được tìm thấy trên mạng chỉ bằng những cú nhấp chuột. Nói cách khác, những người càng nổi tiếng thì càng dễ bị làm giả bằng deepfake và việc này không cần đến sức mạnh của các siêu máy tính.
Deepfake còn gây lo ngại bởi có thể trở thành công cụ đe dọa và phỉ báng người khác, chẳng hạn biến một người trở thành nhân vật chính trong một clip 18+ hay đưa ra các phát ngôn gây sốc. Scarlett Johansson, nữ diễn viên nổi tiếng người Mỹ, đã quá quen thuộc với các chiêu trò ghép mặt cô vào các ảnh khỏa thân. Nhưng khi deepfake xuất hiện, Johansson thừa nhận tự mình chống lại mặt tối của Internet là điều không tưởng.
Đối phó với deepfake ra sao?
Với sự phát triển của AI hiện tại, bất kỳ ai cũng có thể tạo ra các video giả bằng deepfake và phát tán chúng ngay tại nhà riêng. Tin tốt là các video deepfake vẫn chưa đạt được sự hoàn thiện 100% và nhiều cơ sở nghiên cứu, các chính phủ đang nỗ lực phát triển các công nghệ sử dụng AI để chống lại AI.
Một số mạng xã hội đã bắt đầu có cái nhìn tỉnh táo hơn về deepfake. Chương trình MediFor của Chính phủ Mỹ đang nỗ lực tạo ra các công cụ sử dụng AI để phân tích các phương tiện trực quan và phát hiện những thao tác chỉnh sửa tinh vi bằng AI. Reddit, nơi chia sẻ các video khiêu dâm đầu tiên sử dụng deepfake, đã đóng các diễn đàn trao đổi về chủ đề này. Trong khi Twitter chặn việc chia sẻ các video deepfake, Facebook cho rằng những video này nên được phân loại vào một lĩnh vực khác fake news.
Nhưng tin xấu là chúng ta đang ngày càng đánh mất sự an toàn của bản thân bằng chính sự tò mò của mình. Lấy ví dụ như ZAO, một app di động sử dụng deepfake để ghép mặt vào các bộ phim bom tấn, người dùng đã vô tư chụp các biểu cảm gương mặt và gửi nó cho ZAO chỉ để được vài phút thấy mình xuất hiện trong một cảnh quay nổi tiếng.
Nói như một nhà nghiên cứu thuộc CSIS, thứ duy nhất có thể chống lại fake news dưới bất kỳ hình thức nào lại chính là con người, tất nhiên phải được giáo dục và có nhận thức về nguy cơ từ các hành động của mình trên mạng Internet.
Cách để nhận diện video deepfake
Deepfake hiện vẫn còn ở giai đoạn sơ khởi, nên các hình ảnh vẫn chưa đạt tới mức hoàn hảo. Có một số cách để nhận biết video giả được làm bằng deepfake như biểu cảm gương mặt và môi vẫn còn bị nhòe, vùng da mặt sáng hơn và đôi khi là khác màu so với các vùng da còn lại trên cơ thể.
Một số chuyên gia khuyến cáo nên hạn chế chia sẻ các hình ảnh lên mạng xã hội, những nơi bất kỳ ai cũng có thể dễ dàng tìm thấy nguồn dữ liệu cho deepfake. Điều quan trọng hơn là mỗi người cần tự kiềm chế các hành vi của mình theo nguyên tắc "không có cung sẽ chẳng có cầu".
Lấy ví dụ, nếu số lượng người muốn xem các video khiêu dâm deepfake tăng lên, kẻ xấu sẽ càng có thêm động lực để phát triển deepfake trở nên tinh vi đến mức không thể nhận biết bằng mắt thường nữa.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận