Chuyên gia khuyến nghị biện pháp quản lý deepfake

Các chuyên gia trí tuệ nhân tạo (AI) đều đồng lòng về việc tăng cường quản lý công nghệ deepfake để ngăn chặn nguy cơ xâm phạm xã hội và lan truyền thông tin sai lệch.

Chuyên gia khuyến nghị biện pháp quản lý deepfake

Deepfake - công nghệ giả mạo khuôn mặt đang ngày càng trở nên phổ biến và tiềm ẩn nhiều nguy cơ cho xã hội. Để ngăn chặn sự lạm dụng và xâm phạm, các chuyên gia trí tuệ nhân tạo (AI) đã ký tên vào lá thư ngỏ kêu gọi tăng cường quản lý hoạt động sáng tạo nội dung sử dụng công nghệ deepfake.

Ngày nay, deepfake thường được sử dụng trong việc tạo ra các nội dung hình ảnh khiêu dâm, gian lận hoặc lan truyền các thông tin chính trị sai lệch. Với sự phát triển nhanh chóng của trí tuệ nhân tạo, việc tạo ra hình ảnh giả mạo khuôn mặt trở nên dễ dàng hơn bao giờ hết. Điều này đặt ra một thách thức lớn cho các công cụ bảo vệ và quản lý công nghệ deepfake.

Những hình ảnh giả mạo khuôn mặt được tạo ra nhờ vào các thuật toán trí tuệ nhân tạo và thường được sử dụng để tạo ra các nội dung hình ảnh, âm thanh và video giả mạo nhân vật thật. Sự tiến bộ không ngừng trong công nghệ này đã giúp trí tuệ nhân tạo tạo ra những hình ảnh khó phân biệt với những sản phẩm do con người tạo ra.

Lá thư mang tiêu đề "Can thiệp chuỗi cung ứng giả mạo khuôn mặt" cũng đề xuất một số biện pháp quản lý công nghệ này. Trong đó, đề xuất hình sự hóa mọi hành vi sử dụng công nghệ deepfake để sản xuất nội dung khiêu dâm trẻ em và áp dụng các án phạt hình sự đối với những cá nhân cố tình sáng tạo hoặc tiếp tay lan truyền các nội dung deepfake gây hại. Ngoài ra, lá thư cũng yêu cầu các công ty trí tuệ nhân tạo tìm cách đảm bảo rằng các sản phẩm của họ không bị sử dụng để tạo ra các nội dung deepfake có hại.

Đến ngày 21/2, đã có hơn 400 cá nhân từ các lĩnh vực khác nhau như nghiên cứu học thuật, giải trí và chính trị ký tên vào lá thư này. Trong số đó, có cả các nhà nghiên cứu của Google và OpenAI - hai công ty công nghệ hàng đầu thế giới.

Công nghệ deepfake đã thu hút sự quan tâm đặc biệt từ khi công cụ hội thoại ChatGPT của OpenAI được ra mắt vào năm 2022 và nhanh chóng trở nên phổ biến. Điều này đã khiến các nhà quản lý quan tâm và nghiên cứu cách đảm bảo rằng các hệ thống trí tuệ nhân tạo không gây hại cho xã hội. Nhiều nhân vật có uy tín trong lĩnh vực nghiên cứu trí tuệ nhân tạo cũng đã cảnh báo về nguy cơ tiềm ẩn nếu công nghệ này bị sử dụng cho các mục đích sai trái. Đáng chú ý, tỷ phú công nghệ Elon Musk đã kêu gọi tạm ngừng 6 tháng việc phát triển các hệ thống mạnh hơn mô hình AI GPT-4 của OpenAI.

Đối mặt với nguy cơ xâm phạm và lan truyền thông tin sai lệch, các "ông lớn" công nghệ đã bắt tay vào việc chống lại thông tin giả mạo do deepfake gây ra. Việc tăng cường quản lý công nghệ này là một bước quan trọng để bảo vệ xã hội và đảm bảo sự phát triển bền vững của trí tuệ nhân tạo.

Nguồn: Báo GenK

[question] Ai đã ký vào lá thư về tăng cường quản lý công nghệ deepfake?,Tại sao việc tăng cường quản lý công nghệ deepfake trở nên quan trọng?