Thứ sáu, 22/3/2024, 10:26 (GMT+7) Thủ tướng Italy khởi kiện vì bị tạo video deepfake khiêu dâm Thủ tướng Italy Meloni kiện hai người đàn ông, cáo buộc họ tạo video khiêu dâm giả mạo bà bằng công nghệ deepfake. Cảnh sát Italy điều tra một người đàn ông 40 tuổi và người bố 73 tuổi của nghi phạm này, với cáo buộc sản xuất video deepfake khiêu dâm, giả mạo Thủ tướng Giorgia Meloni. Deepfake là sự kết hợp giữa "deep learning" (học sâu) và "fake" (giả). Công nghệ này sử dụng trí tuệ nhân tạo (AI) phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video trông như thật về người đó, thậm chí tạo được cả giọng nói. Các video deepfake khiêu dâm giả mạo bà Meloni có từ trước khi bà được bổ nhiệm thủ tướng và đã lan truyền trên mạng, được đăng trên một website khiêu dâm của Mỹ và nhận "hàng triệu lượt xem trong vài tháng". Thủ tướng Italy Giorgia Melony trong cuộc họp báo tại Kiev, Ukraine, ngày 25/2. Ảnh: AFP Thủ tướng Italy đang đòi bồi thường 109.000 USD và sẽ làm chứng trước tòa ngày 2/7. Hai nghi phạm đứng trước nguy cơ bị buộc tội phí bảng. Một số tội danh phỉ báng có thể bị xử lý hình sự và chịu án tù ở Italy. Nhóm luật sư của bà Meloni cho hay bà sẽ quyên góp toàn bộ số tiền trên cho một quỹ hỗ trợ phụ nữ là nạn nhân bạo lực, nếu được bồi thường. Maria Giulia Marongiu, luật sư của bà Meloni, cho biết số tiền mang tính "biểu tượng" và yêu cầu bồi thường nhằm "gửi thông điệp khuyến khích những nạn nhân nữ của deepfake tố cáo những người lạm dụng". Các nhà nghiên cứu lo ngại deepfake dần trở thành nguồn tin sai lệch bị lan truyền mạnh mẽ, cho phép bất cứ ai cũng tạo được ảnh khỏa thân, ảnh chân dung bôi nhọ các ứng viên chính trị, người nổi tiếng. AI thậm chí được dùng trong các cuộc gọi tự động, giả mạo giọng nói Tổng thống Mỹ Joe Biden trong cuộc bầu cử sơ bộ ở New Hampshire. Thủ tướng Italy khởi kiện vì bị tạo video deepfake khiêu dâm - VnExpress
deepfake khiêu dâm kiểu này có 1 cái lợi, đó chính là, khi các ca sĩ diễn viên bị lộ các clip nóng của mình, cho dù có quay rõ mặt thì cũng có thể dễ dàng đổ hết tội lỗi cho deepfake, cho bọn tạo ra video, em không biết, đó hoàn toàn không phải là em, bọn nào nó dùng deepfake ghép mặt em vào đấy chứ, em trong sáng, em ngây thơ, em vô tội, em không bao giờ làm những chuyện đồi bại như vậy đâu
Thực ra sau này nếu deepfake phổ biến hơn thì người ta có thể áp dụng các kỹ thuật tạo chữ ký số vào video. Lúc đó thì khi video tuồn ra có thể có cách chính xác để xác nhận đây là gốc được tạo từ máy quay hay là đã qua chỉnh sửa.
Bởi vì vậy nên bây giờ tất cả những thứ gì do AI tạo ra, đều phải được dán nhãn và không sửa nhãn được, bất kể mọi hình ảnh, video,... Đáng tiếc là bây giờ trình độ dân trí thấp, dễ bị thao túng bởi mạng xã hội, bọn người dùng trên mạng xã hội không hiểu được rằng, mọi hình ảnh đăng lên, mọi video đăng tải đều có thể là fake hết, dắt mũi bọn cộng đồng mạng chưa bao giờ dễ dàng như bây giờ
Không thực tế. AI mã nguồn mở có đầy, ai cũng dùng được thì ai cũng có thể xoá/sửa nhãn được mà không có cách nào phát hiện. Hợp lý hơn là phải làm ở ngay tại camera, video/hình ảnh được tạo ra từ camera được gắn kèm với nhãn để xác nhận đây là hàng chính chủ chưa qua chỉnh sửa.