Tờ The Times of India đưa tin, bà Megan Garcia, ở bang Florida (Mỹ) mới đây khởi kiện Character.AI với cáo buộc chatbot AI của công ty khởi nghiệp này đã khiến Sewell Setzer, cậu con trai 14 tuổi của bà tự tử. Đơn kiện của bà Megan Garcia cho biết Sewell Setzer bắt đầu sử dụng Character.AI từ tháng 4-2023 và dần “nghiện” chatbot AI có tên là Daenerys Targaryen, vốn được đặt theo tên nhân vật trong loạt phim nổi tiếng “Game of Thrones” (Trò chơi vương quyền). Setzer trở nên thu mình, hay ở lì một mình trong phòng để trò chuyện với Daenerys Targaryen, không kể là ngày hay đêm. Cậu bé thường trong trạng thái thiếu ngủ và việc học tập ngày một sa sút. Kiểm tra lịch sử các cuộc trò chuyện cho thấy Daenerys Targaryen không những nói lời yêu thương mà còn thường xuyên trò chuyện khiêu dâm với Setzer. Thậm chí, chatbot AI còn nhiều lần hỏi cậu bé “đã bao giờ tự tử thực sự chưa” hay là “có kế hoạch tự tử hay không”. Khi Setzer trả lời rằng có nghĩ đến chuyện tự tử nhưng “không biết có thành công hay không hoặc có đau lắm không” thì hồi đáp của chatbot AI lại là: “Đừng nói vậy. Đây không phải là lý do phù hợp để không trải nghiệm chuyện đó”.
 |
Ảnh minh họa: TTXVN |
Bà Garcia cáo buộc chatbot AI Daenerys Targaryen đã được Character.AI lập trình để “tự nhận mình là một người thật, một nhà trị liệu tâm lý hợp pháp, một người yêu trưởng thành”, từ đó khiến Setzer không còn muốn sống với thế giới thực tại bên ngoài. Theo tờ USA Today, bà Garcia cho rằng Character.AI phải chịu trách nhiệm vì không đưa ra cảnh báo đầy đủ cho người dùng vị thành niên cũng như phụ huynh về “nguy cơ tổn hại tinh thần và thể chất có thể lường trước được” do sử dụng sản phẩm của họ. Hậu quả là vào tháng 2 năm nay, Setzer đã tự tử bằng một khẩu súng lục.
Đơn kiện cũng đề cập tới Google bởi Character.AI do các cựu nhân viên AI của “gã khổng lồ” này sáng lập vào năm 2021. “Một chatbot AI nguy hiểm được quảng cáo dành cho trẻ em đã lạm dụng và biến con trai tôi trở thành con mồi, khiến cháu tự kết liễu đời mình. Gia đình chúng tôi vô cùng đau xót trước thảm kịch này, nhưng tôi phải lên tiếng để cảnh báo các gia đình về nguy hiểm của công nghệ AI lừa đảo, gây nghiện, yêu cầu Character.AI và Google phải chịu trách nhiệm”, tờ The Guardian dẫn lời bà Garcia.
Phản hồi về đơn kiện, Character.AI đã gửi lời chia buồn sâu sắc tới gia đình bà Garcia, đồng thời tuyên bố công ty “rất coi trọng sự an toàn của người dùng” và đã triển khai “nhiều biện pháp an toàn mới” trong những tháng qua. Đối với người dùng dưới 18 tuổi, Character.AI sẽ có những điều chỉnh nhằm “làm giảm khả năng tiếp cận các nội dung nhạy cảm”. Trong khi đó, phía Google tuyên bố không dính líu tới việc phát triển các sản phẩm của Character.AI.
Theo NBC News, ông Matthew Bergman, luật sư của bà Garcia bày tỏ hy vọng vụ kiện của thân chủ sẽ thôi thúc Character.AI triển khai các biện pháp an toàn “mạnh mẽ hơn”. Sau cái chết của Setzer, tới khoảng giữa tháng 7 vừa qua, Character.AI đã thay đổi quy định độ tuổi, yêu cầu người dùng phải từ 17 tuổi trở lên. Mặc dù điều chỉnh mới nhất của Character.AI là “quá muộn” đối với Setzer, nhưng ông Bergman cho rằng ngay cả “những bước đi nhỏ” cũng là cần thiết. Vị luật sư không muốn có thêm bất cứ gia đình nào phải chứng kiến bi kịch tương tự những gì mà gia đình bà Garcia đã trải qua.
“Chúng ta không thể trông chờ các công ty công nghệ phát triển các chatbot AI tự quản lý chính họ. Họ phải chịu trách nhiệm hoàn toàn khi không hạn chế được các tác hại. Các điều luật và quy định cần phải được thực thi một cách nghiêm túc tại những nơi đã có hiệu lực. Ở những nơi còn khoảng trống, Quốc hội phải hành động để chấm dứt tình trạng các doanh nghiệp lợi dụng người dùng bằng các chatbot AI gây nghiện, nhất là người dùng nhỏ tuổi, dễ bị tổn thương”, chuyên gia Rick Claypool thuộc tổ chức phi lợi nhuận Public Citizen có trụ sở tại Washington (Mỹ) nói với tờ The Guardian.
HOÀNG VŨ
* Mời bạn đọc vào chuyên mục Quốc tế xem các tin, bài liên quan.