Trước thềm cuộc bầu cử sơ bộ tại bang New Hampshire vào ngày 23-1, giới chức bang này thông báo về tình trạng một số người dân nhận được các cuộc gọi tự động có đoạn ghi âm giả mạo giọng nói của ông Biden. Trong cuộc gọi tự động do hãng tin CBS thu được, một giọng nói giả mạo ông Biden khuyến khích cử tri ủng độ Đảng Dân chủ không tham gia bầu cử sơ bộ ở New Hampshire. “Cuộc bỏ phiếu chỉ tạo điều kiện cho Đảng Cộng hòa bầu ông Donald Trump thêm lần nữa. Phiếu bầu của mọi người sẽ tạo nên sự khác biệt vào tháng 11, không phải vào ngày 23-1”, giọng nói giả mạo ông Biden khuyên cử tri. Người phát ngôn của Đảng Dân chủ Aaron Jacobs ở New Hampshire nhấn mạnh đây là tin giả nghiêm trọng nhằm gây tổn hại cho ông Biden, triệt hạ phiếu bầu cho Đảng Dân chủ và phá hủy nền dân chủ Mỹ.

leftcenterrightdel

Tổng thống Mỹ Joe Biden phát biểu trong cuộc vận động tranh cử ở Charleston, bang South Carolina ngày 8-1-2024. (Ảnh: AFP/TTXVN) 

Cơ quan tư pháp bang New Hampshire đã ngay lập tức khuyến cáo cử tri không quan tâm đến thông điệp giả mạo và làm rõ rằng việc bỏ phiếu sơ bộ chọn ứng viên ở bang không cản trở cử tri bầu tổng thống vào tháng 11. Do đó, kết quả bầu cử không bị cuộc gọi giả mạo giọng ông Biden làm ảnh hưởng. Tại cuộc bầu cử sơ bộ của Đảng Dân chủ ở New Hampshire, ông Biden đã giành chiến thắng. Trong khi đó, thắng lợi cũng về tay cựu Tổng thống Trump tại cuộc bầu cử sơ bộ của Đảng Cộng hòa ở bang này.

Theo Bloomberg, đoạn ghi âm được xác định là sản phẩm của công nghệ deepfake có sử dụng trí tuệ nhân tạo (AI). Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả). Công nghệ này dùng AI phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để tạo ảnh hoặc video trông như thật. Công ty chuyên phát hiện giả mạo giọng nói Pindrop Security đã xác định giọng giả mạo ông Biden được tạo bởi công nghệ của ElevenLabs. Đây là một công ty khởi nghiệp chuyên phát triển công cụ tạo giọng nói bằng AI, sử dụng mô hình ngôn ngữ có khả năng thêm ngữ điệu giống con người vào nội dung dựa trên ngữ cảnh. Công ty này có hàng nghìn giọng nói AI được tạo sẵn cho người dùng chọn. Thậm chí, người dùng còn có thể tự tạo ra phiên bản giọng nói AI của riêng mình.

Trên website công ty, ElevenLabs cho phép người dùng giả giọng của những người nổi tiếng, trong đó có lãnh đạo quốc gia, nếu “thể hiện sự hài hước hoặc châm biếm khiến người nghe hiểu rõ sản phẩm chỉ là bản nhái mang tính giải trí”. Ngay sau khi phát hiện có người dùng giả giọng nói của Tổng thống Joe Biden, công ty đã chặn tài khoản này. “Chúng tôi nỗ lực ngăn chặn việc sử dụng công cụ AI âm thanh sai mục đích và luôn xem xét đặc biệt cẩn trọng hành vi lạm dụng”, đại diện ElevenLabs tuyên bố. Tuy nhiên, hiện chưa rõ ElevenLabs đã chuyển thông tin tài khoản giả giọng ông Biden cho giới chức bang New Hampshire để điều tra hay chưa.

Bản ghi âm giả giọng ông Biden không chỉ cho thấy việc phát tán deepfake âm thanh rất dễ dàng mà còn làm dấy lên lo ngại kẻ xấu dùng công nghệ này để đưa ra các thông điệp giả mạo ngăn cử tri đi bỏ phiếu và tác động đến kết quả bầu cử. Giáo sư ngành khoa học máy tính Kathleen Carley tại Đại học Carnegie Mellon (Mỹ) nhấn mạnh, đó chỉ là điềm báo cho những gì có thể xảy ra. Trong khi đó, ông Siwei Lyu, Giáo sư chuyên về deepfake và phân tích dữ liệu kỹ thuật số tại Đại học Buffalo (Mỹ), cảnh báo tình trạng này sẽ còn lặp lại trong cuộc bầu cử tổng thống Mỹ.

Việc công nghệ AI như deepfake ngày càng được sử dụng phổ biến cho thấy nhiều mối đe dọa. Khi rơi vào tay những đối tượng có ý đồ xấu, deepfake có thể trở thành một vũ khí nguy hiểm. Vấn đề này đòi hỏi các nhà hoạch định chính sách tìm ra biện pháp ngăn chặn và ứng phó. “Những nội dung ngụy tạo chính là thách thức nghiêm trọng đầu tiên mà chúng ta cần giải quyết trong kỷ nguyên AI”, ông Vijay Balasubramaniyan, đồng sáng lập kiêm Giám đốc điều hành công ty chuyên phát hiện giả mạo giọng nói Pindrop Security, nhận định.

LÂM ANH

*Mời bạn đọc vào chuyên mục Quốc tế xem các tin, bài liên quan.