Vụ lộ clip người nổi tiếng lại gióng hồi chuông cảnh báo về công nghệ deepfake: Chúng ta cần phải làm gì?

Trong một thập kỷ trở lại đây, khả năng “ghép mặt” đã chứng kiến những sự kiện tiến hóa lớn, có liên hệ trực tiếp với những bước nhảy vọt của công nghệ.

Nói “phiên phiến”, khoảng hơn 10 năm về trước, chúng ta mới chỉ biết tới việc ghép mặt các nhân vật để ngồi cười với nhau. Bằng những phần mềm ghép ảnh đơn giản, bạn đã có thể biến thành Lee Min Ho để tán gái qua mạng.

Nhưng khi công nghệ đủ hiện đại, khuôn mặt dùng để cắt ghép đã có thể chuyển động như thật, chúng ta chứng kiến sự trỗi dậy của một khái niệm mới: deepfake. Cũng như nhiều những bước nhảy vọt công nghệ khác, ví dụ như internet hay công nghệ smartphone màn hình màu, nội dung khiêu dâm dẫn lối cho deepfake. Nhưng trái với hai ví dụ vừa nêu, deepfake có nguy cơ trở thành thứ vũ khí số cực kỳ lợi hại trong thời đại công nghệ.

photo-1-1614679494677734884633.jpg


Quản lý Lan Ngọc lên tiếng buộc tội công nghệ "deepfake" đã tạo nên scandal.


Việc chỉnh sửa ảnh bằng Photoshop hay những ứng dụng tương tự chỉ tạo ra được hình ảnh tĩnh. Nhưng khi sức mạnh của machine learning - máy học và mạng neural - một mạng AI có cấu trúc tương tự não người trỗi dậy, chúng ta thấy những video ghép mặt ngày một thịnh hành.

Chỉ cần có trong tay ảnh gốc (mà dữ liệu mặt của người nổi tiếng thì quá đỗi sẵn), một cá nhân biết đủ nhiều về công nghệ có thể tạo nên những sản phẩm y như thật. Khi dữ liệu dùng để ghép có nhiều điểm tương đồng với video cần ghép, ví dụ như mặt của Ninh Dương Lan Ngọc có đôi nét giống với cô gái xấu số trong video nhạy cảm, kẻ xấu đã có thể tạo ra một video giống thật đến mức khiến cộng đồng mạng dậy sóng.

Toàn bộ quá trình chỉnh sửa video đều do máy thực hiện. Thuật toán sẽ tìm ra những điểm chung giữa dữ liệu đầu vào (ảnh mạng) và khuôn mặt nhân vật trong clip, rồi tự động tiến hành ghép. Càng nhiều dữ liệu đầu vào, càng bỏ thời gian ra tinh chỉnh phần mềm deepfake, thời gian xử lý càng dài, kết quả cuối cùng sẽ càng chi tiết.

Thậm chí, quá trình thực hiện một video deepfake đơn giản đến mức một người bình thường cũng có thể tự làm với cái giá vỏn vẹn … 552 USD và 2 tuần mò mẫm.

photo-1-16146795579041364944172.png


Chỉ với 552 USD và 2 tuần thực hiện, phóng viên công nghệ, thạc sĩ khoa học máy tính Timothy B. Lee đã có thể ghép mặt nhân vật trong phim với khuôn mặt Mark Zuckerberg.


Cho tới khi phát hiện ra kẻ xấu không biết sườn nạn nhân có hình xăm (trong khi đó, cô gái trong video không sở hữu đặc điểm này), cư dân mạng mới hay rằng Ninh Dương Lan Ngọc không phải nhân vật chính.

Đây chẳng phải lần đầu tiên deepfake làm cộng đồng mạng bất ngờ

Deepfake có thể được dùng để phục chế video cũ, làm ra những video hài hước cười đến rụng rốn, nhưng cũng có thể trở thành thứ vũ khí hủy diệt hàng loạt trong thời đại internet, khi mà nội dung “viral” có thể lan ra như lửa cháy mùa khô.

Những nội dung sai lệch này có thể để lại những hậu quả khôn lường. Sẽ ra sao khi công nghệ deepfake làm giả mặt những người có tiếng nói để truyền bá những điều sai sự thật? Thanh danh một người có thể bị phá hủy, cả cộng đồng có thể bị dắt mũi hay sinh ra những hậu quả tệ hơn thế nhiều lần.

photo-1-16146794577321308735661.jpg


Ninh Dương Lan Ngọc chụp ảnh với hình xăm "minh oan" cho mình.


Tìm đâu ra một áng sáng chân lý giữa cuộc đời nhiễu nhương?

Hiện tại, mắt thường vẫn có thể nhận ra những khuôn mặt được ghép bằng deepfake. Để tôi lấy ví dụ cho trực quan: xem lại phim khoa học viễn tưởng của những năm 2000 hay những phim kiếm hiệp Trung Quốc, bạn hoàn toàn có thể nhận ra đâu là kỹ xảo điện ảnh, đâu là sự vật thật.

Nhưng trong các bom tấn xuất hiện những năm gần đây, ranh giới thật và giả đang ngày một mờ nhạt: tại sao chúng ta thấy “củ khoai môn Vũ trụ” với sáu viên Đá Vô Cực thay đổi được cả thực tại lại chân thực đến thế? Tại sao khủng long chạy trong rừng lại tạo cảm giác sợ hãi tột cùng, khi ta còn chẳng biết vẻ ngoài chính xác của khủng long ra sao?

Nhìn kỹ, bạn mới thấy chẳng có ai da tím tái như thế, chẳng có con khủng long nào trông “giả trân” đến vậy, và khuôn mặt trong clip nhạy cảm được che mờ một cách đáng ngờ, như để kẻ xấu giấu đi cái hạn chế của công nghệ deepfake.

photo-1-161467986028536450676.jpg


Hình ảnh cắt ra từ clip.


Đó là bước nhảy vọt tuyệt vời của công nghệ, khi nó đã có thể tạo ra những cảnh trí như thật, dù chúng ta biết rõ đó đều là kỹ xảo. Nhưng con dao hai lưỡi được khắc hai chữ “công nghệ” lên cán có thể để lại vết thương sâu lắm.

Ngoài mắt thường, óc phán đoán cũng là thứ lá chắn hữu hiệu trong thời đại cạm bẫy hiện hữu khắp nơi. Ví dụ ngay với trường hợp Ninh Dương Lan Ngọc, người tinh ý đã có thể thấy ngay cô gái trong clip nhạy cảm không mang hình xăm trên người, và người tinh mắt có thể thấy ngay ảnh được che mờ ngay tại mặt nhân vật.

Và cuối cùng, ta phải tự bảo vệ bản thân mình thôi. Tư liệu nhạy cảm, bao gồm cả khuôn mặt của mình, đều nên được bảo vệ kỹ càng. Cạm bẫy ở khắp nơi, hoàn toàn có thể được giăng bởi những người bạn không ngờ tới. Thuật toán phát hiện deepfake đang đuổi sát nút công nghệ deepfake, nhưng vì tốc độ phát triển của công nghệ nói chung vẫn quá nhanh, khó có thể nói ai là kẻ chiến thắng trên đường đua dài hơi.

Chốt lại một điều thôi: hãy tỉnh táo khi sử dụng internet! Công nghệ sẽ còn phát triển, deepfake hoàn toàn có thể trở thành deepreal, khiến không ít cư dân mạng nhầm lẫn thật giả.

Ngay cả khi video nhạy cảm đang lan ra kia không phải được làm từ deepfake mà bởi một "diễn viên" giống Ninh Dương Lan Ngọc, những bài học cẩn thận vẫn chẳng thừa trong thời buổi này.

Theo Genk
 

Top Bottom