Lợi dụng công nghệ Deepake để mạo danh người nổi tiếng

 
Lợi dụng công nghệ Deepake để mạo danh người nổi tiếng
hỉ bằng vài thao tác đơn giản trên máy tính, hay điện thoại, công nghệ trí tuệ nhân tạo đã có thể tạo ra những sản phẩm giả mạo tinh vi như thế này

VTV9.vtv.vn - Hàng loạt video mạo danh người nổi tiếng đang tràn lan trên mạng xã hội, với hình ảnh và giọng nói giống thật đến khó tin. Chỉ bằng vài thao tác đơn giản trên máy tính, hay điện thoại, công nghệ trí tuệ nhân tạo đã có thể tạo ra những sản phẩm giả mạo tinh vi như thế này. Chính vì thế, không ít người đã "sập bẫy" khi thấy nghệ sĩ quen thuộc xuất hiện.

Các clip giải mạo này thường có nội dung kêu gọi đầu tư, tặng quà, hay quảng cáo sản phẩm.

Là một khán giả bình thường, nếu lỡ xem phải nội dung của kênh này hẳn sẽ không hề nghi ngờ mà nghĩ rằng đây là kênh của nhà báo Lại Văn Sâm. Nhưng không, từ hình ảnh tới giọng nói mà họ xem thực tế đều là giả mạo. Còn đây là đạo diễn Lý Hải và ca sỹ Khắc Việt, những người cũng bị mạo danh lợi dụng hình ảnh lồng ghép vào các thông tin xấu độc, quảng cáo dịch vụ trái phép và lan truyền thông tin giả.

221T10-pnhn.- KHÁC VIET.jpg
Ca sỹ Khắc Việt

Ca sỹ Khắc Việt: “Về tâm lý thì khi người ta chạm vào các nội dung đấy thì người ta đã thấy ấn tượng xấu rồi. Dù sau đó mình có giải thích hay có biện pháp thông báo thì ấn tượng xấu nó vẫn bị lan truyền. Nó là cái rất là xấu và ảnh hưởng tới nghệ sỹ”.

Bằng công nghệ trí tuệ nhân tạo, các đoạn video có thể giả mạo từ gương mặt tới giọng nói khiến người xem không thể phân biệt. Chỉ vài thao tác, vài câu lệnh là từ hình ảnh cũ đã biến thành đoạn video với nội dung bị xuyên tạc.

221T10-pnhn.01_42_53_12.Still617.jpg
Bằng công nghệ trí tuệ nhân tạo, các đoạn video có thể giả mạo từ gương mặt tới giọng nói khiến người xem không thể phân biệt

Theo các chuyên gia, tình trạng lợi dụng công nghệ AI để mạo danh đang ngày càng có nhiều diễn biến phức tạp, phổ biến nhất là trên các mạng xã hội. Trong khi các cơ quan chức năng đang phối hợp với nền tảng tăng cường biện pháp quản lý, ngăn chặn thì người dùng cần thận trọng và chỉ theo dõi thông tin từ các nguồn chính thống.

Ông Vũ Ngọc Sơn - Hiệp hội An ninh mạng quốc gia: “Một cái người mà ít khi nói về vấn đề này nhưng lại bây giờ lại tự nhiên nói về vấn đề đó thì rất nhiều khả năng đấy là những cái clip giả mạo và bằng cái cách chúng ta có thể quan sát bằng cái cách chúng ta sẽ nhận biết dựa trên những cái nội dung mà chúng ta cảm giác là đây là những cái nội dung bất thường thì chúng ta có thể phát hiện ra được đây là cái clip giả mạo hay không. Và đặc biệt là với những cái clip giả mạo thì nó sẽ thường được đưa lên các cái kênh mà không chính thống”.

221T10-pnhn.01_42_45_16.Still618.jpg
 Chỉ vài thao tác, vài câu lệnh là từ hình ảnh cũ đã biến thành đoạn video với nội dung bị xuyên tạc.

Đại tá Nguyễn Hồng Quân - Cục An ninh mạng và Phòng chống tội phạm sử dụng công nghệ cao, Bộ Công an: “Tôi có một cái câu có lẽ nó rất là kinh điển thôi. Sự thật là sự thật. Sự thật không phải là điều ai đó nói ra. Thì chúng ta hãy đi tìm sự thật chính bản chất của nó, không tìm sự thật ở một cái điều mà ai đó phát ngôn ra. Như vậy thì kể cả đó là A.I hay không là A.I thì chúng ta cũng phải với cái tư duy như vậy thì chúng ta tìm được bản chất của sự thật”.

Để hạn chế tình trạng nói trên một số nền tảng lớn cũng đã đưa ra các quy định bắt buộc dán nhãn AI lên nội dung, hạn chế hiển thị và không chia sẻ doanh thu cho các video nếu cố tình lạm dụng các công nghệ này.

 

 

Share:

Cùng chuyên mục

 
 

Làm metro sân bay bằng vốn xã hội hóa

Từ một đề xuất cụ thể của 1 doanh nghiệp, câu chuyện lớn hơn được mở ra. Đó là cơ chế xã hội hóa đầu tư metro liên vùng, một hướng đi tất yếu, khi ngâ ...