Tháng 3 vừa qua, Google đã hợp tác với Bộ Quốc phòng Mỹ để phát triển và tích hợp các thuật toán AI cần thiết giúp phân tích hình ảnh và video được ghi lại từ những thiết bị không người lái sử dụng trong hoạt động chống khủng bố. Dự án hợp tác giữa Google và Bộ Quốc phòng Mỹ có tên gọi Maven. Theo kênh truyền hình PressTV của Iran, với Maven, Bộ Quốc phòng Mỹ sẽ được phép sử dụng thư viện phần mềm TensorFlow của Google được tích hợp thêm các thuật toán AI để phân tích dữ liệu và hình ảnh, nhận dạng giọng nói... Những dữ liệu này sau đó sẽ được sử dụng để thực hiện các cuộc tấn công có độ chính xác cao hơn bằng máy bay không người lái tại những quốc gia khác, trong đó có Syria và Iraq.

Máy bay không người lái MQ-9 Reaper. Nguồn: US Air Force.

Maven là một trong nhiều dự án máy bay không người lái của Mỹ nhằm tiến tới tự động hóa và xác định nhanh các mục tiêu không kích. Theo New York Times, Lầu Năm Góc đã quyết định chi khoảng 70 triệu USD cho Google trong năm đầu tiên của dự án. Trong khi đó, đối với Google, ngoài lợi nhuận, Maven sẽ giúp tập đoàn này tăng tính cạnh tranh so với các “ông lớn” công nghệ khác, như Amazon và Microsoft, trong việc giành hợp đồng cung cấp dịch vụ đám mây cho Bộ Quốc phòng Mỹ có giá trị hàng tỷ USD.

Tuy nhiên, sự tham gia của Google vào Dự án Maven làm dấy lên mối quan ngại về vấn đề đạo đức từ chính các nhân viên trong công ty, khi họ phản đối việc áp dụng trí tuệ nhân tạo vào mục đích quân sự. 3.100 nhân viên trong tổng số 70.000 nhân viên của Google, bao gồm hàng chục kỹ sư cao cấp cùng ký vào đơn kiến nghị phản đối bản hợp đồng được ký giữa hãng công nghệ này với Lầu Năm Góc. “Chúng tôi tin rằng Google không nên tham gia vào những hợp đồng kinh doanh có thể gây nên chiến tranh. Vì vậy chúng tôi yêu cầu Dự án Maven phải bị hủy bỏ và Google nên soạn thảo, công bố và thực hiện một chính sách rõ ràng quy định cả Google lẫn các đối tác ký hợp đồng sẽ không bao giờ phát triển những công nghệ chiến tranh”-đó là những gì được nêu trong đơn kiến nghị nội bộ mà các nhân viên gửi đến Giám đốc Google Sundar Pichai, Giám đốc điều hành của Alphabet (Công ty mẹ của Google) Larry Page, cùng hai nhà lãnh đạo cấp cao của Google Cloud là Diane Greene và Fei-Fei Li, sau khi thông tin về Dự án Maven được công bố.

Bày tỏ sự ủng hộ bản kiến nghị của các nhân viên Google, Ủy ban Quốc tế về Kiểm soát Vũ khí người máy (ICRAC) cũng cảnh báo, con người cần xem xét lại việc phát triển AI vì công nghệ này có thể mở đường cho các hệ thống tự động nhắm mục tiêu trên các máy bay không người lái. Theo ICRAC, đây là bước đi rất gần với việc máy bay không người lái được phép toàn quyền thực hiện các hành động tiêu diệt mà không có sự giám sát của con người.

Về phần mình, đại diện của Google đã bảo đảm công nghệ của hãng sẽ chỉ dành cho các hoạt động “không liên quan đến việc tấn công”, đồng thời khẳng định các bản ghi nhớ được ký với Lầu Năm Góc đã làm rõ cơ sở của dự án là “hỗ trợ việc đưa ra các quyết định quân sự”. Tuy nhiên, nhiều nhân viên tại đây lập luận rằng: “Rõ ràng công nghệ trên được phát triển riêng cho quân đội vì vậy một khi được chuyển giao, nó có thể dễ dàng hỗ trợ những nhiệm vụ gây chết người”. Theo họ, thực hiện dự án này sẽ gây những thiệt hại nặng nề cho uy tín của Google khi phải đối mặt với làn sóng tẩy chay của người dùng phản đối sử dụng công nghệ AI cho mục đích quân sự. Họ sẽ coi Google không khác gì các nhà thầu quốc phòng như Raytheon hay General Dynamics. Mới đây, hơn 10 nhân viên của Google cũng đã nộp đơn xin thôi việc để phản đối Dự án Maven. Lý do cho quyết định của các nhân viên này là “sự thiếu minh bạch dẫn đến những mối quan ngại về đạo đức”.

Thực tế, ý tưởng về việc áp dụng trí tuệ nhân tạo vào mục đích quân sự từng được nhiều lần mang ra thảo luận và gây nên những lo ngại cho tương lai của loài người. Hồi tháng trước, các nhà khoa học của Viện Khoa học và công nghệ tiên tiến Hàn Quốc (KAIST) bị cộng đồng khoa học thế giới tẩy chay sau khi công bố kế hoạch phát triển AI trên những robot chiến tranh. Kế hoạch của KAIST bị cho là góp phần đẩy nhanh cuộc đua phát triển các loại vũ khí tự động, thậm chí là các loại robot giết người có khả năng tấn công vượt ra ngoài tầm kiểm soát của con người.

Sự việc của KAIST có thể là bài học sâu sắc đối với các công ty như Google và nhiều tập đoàn công nghệ khác khi quyết định đem AI phục vụ cho các mục đích quân sự, dù công nghệ này có thể trực tiếp hay gián tiếp liên quan đến các vụ tấn công nhằm vào con người. Song, theo các nhà khoa học, quan trọng hơn hết vẫn là cần sớm có những quy định, điều luật quốc tế để giám sát những nghiên cứu liên quan đến AI, nhằm bảo đảm sự phát triển của công nghệ này đi theo đúng hướng và phục vụ lợi ích đúng đắn của con người.

HÀ LAN