Công nghệ thay đổi quá nhanh, pháp luật chạy không kịp

AI tạo sinh, mô hình ngôn ngữ lớn, tác nhân tự động… chỉ trong vòng từ 2 đến 3 năm đã phát triển vượt bậc, tạo ra khả năng mà trước đây phải mất hàng thập kỷ.

Khoảng trống pháp lý về công nghệ trí tuệ nhân tạo AI. Ảnh minh họa: nhandan.vn 

Hôm nay công cụ chỉ tạo được văn bản; ngày mai đã tạo được video, giọng nói, hình ảnh sắc nét. Và vài tháng sau, AI có thể tự ra quyết định mà không cần con người giám sát. Trong khi đó, hành lang pháp lý lại chưa kịp theo: Chưa có chuẩn mực rõ ràng về trách nhiệm với sản phẩm AI gây hại. Chưa xác định ranh giới giữa sáng tạo hợp pháp và hành vi “ngụy tạo sự thật”. Chưa có hệ thống kiểm định độc lập để giám sát mô hình AI lớn. Chưa rõ ai chịu trách nhiệm khi AI tự động gây tác động tiêu cực: Nhà cung cấp? Người dùng? Hay chính thuật toán?

Luật Trí tuệ nhân tạo, bước khởi đầu nhưng chưa phải “lá chắn” hoàn chỉnh

Luật Trí tuệ nhân tạo (AI) vừa được thông qua đã đặt nền móng quan trọng cho quản trị công nghệ, như: Quy định về an toàn dữ liệu và trách nhiệm minh bạch; khung quản trị rủi ro theo mức độ; yêu cầu kiểm định đối với sản phẩm AI có tác động xã hội lớn… Tuy nhiên, luật không thể dự đoán toàn bộ hành vi tương lai của AI, đặc biệt là các mô hình tự học, tự sinh và tự hành động trong bối cảnh biến động liên tục.

Điều cần lúc này là cơ chế pháp lý động, vừa ban hành quy định cứng, vừa có quy trình cập nhật linh hoạt, nhanh như chính tốc độ của công nghệ.

Khoảng trống pháp lý tạo ra những nguy cơ nào?

(1) Deepfake phá hoại niềm tin nhưng chưa có chuẩn định danh rõ ràng cho “nội dung tổng hợp”. (2) AI tội phạm vượt biên giới ảo, nhưng quy định hợp tác điều tra quốc tế còn hạn chế. (3) AI trong tài chính, y tế có thể gây hậu quả lớn, nhưng chế tài trách nhiệm chưa đầy đủ. (4) Lỗ hổng về bản quyền: AI dùng dữ liệu đào tạo từ đâu, có được phép hay không? (5) Tự động hóa quyết định: Khi AI từ chối hồ sơ, phân bổ tín dụng, chấm điểm công dân, ai kiểm soát tính công bằng? AI không chỉ tạo ra nội dung giả, nó còn tạo ra hành vi giả, tác động giả, mối nguy thật. Và nếu pháp luật không kịp định danh, ranh giới sẽ bị xóa mờ.

Cần khung kiểm soát nhiều tầng, từ kỹ thuật đến pháp lý

Để không rơi vào thế bị động, Việt Nam cần hình thành hệ thống kiểm soát AI theo mô hình nhiều tầng: (1) Kiểm định công nghệ trước khi đưa vào xã hội, tương tự như kiểm định vũ khí, thuốc, thiết bị y tế: Mô hình AI lớn phải trải qua đánh giá độc lập về độ an toàn, thiên lệch, tính minh bạch. (2) Minh bạch thuật toán không phải công khai toàn bộ mã nguồn, nhưng phải công bố nguyên tắc vận hành, nguồn dữ liệu đào tạo và tiêu chí ra quyết định. (3) Trách nhiệm giải trình rõ ràng, xác định: Trách nhiệm của nhà cung cấp mô hình; trách nhiệm của doanh nghiệp triển khai và trách nhiệm của người dùng cuối.

Cập nhật pháp luật định kỳ theo chu kỳ công nghệ. Luật phải có “cửa mở”, cho phép sửa đổi theo cơ chế rút gọn khi công nghệ xuất hiện rủi ro mới. Thiết lập bộ tiêu chuẩn quốc gia về AI. Cần có chuẩn đánh dấu nội dung AI (AI watermarking), chuẩn kiểm tra sai lệch, chuẩn đánh giá tác động xã hội.

Khi công nghệ vượt khỏi tầm kiểm soát, hậu quả không chỉ là kinh tế hay xã hội, mà là an ninh quốc gia và an toàn con người. Khoảng trống pháp lý về AI không phải vấn đề kỹ thuật, mà là vấn đề chủ quyền, vấn đề tồn tại của một quốc gia trong kỷ nguyên số.

Việc Quốc hội khóa XV thông qua Luật trí tuệ nhân tạo (AI) là bước mở đường quan trọng. Nhưng chặng đường phía trước còn dài. Chỉ khi có một hệ thống pháp lý mạnh, linh hoạt, kịp thời, chúng ta mới có thể giữ vững “lằn ranh số”, bảo vệ niềm tin, sự thật và chủ quyền quốc gia trước làn sóng AI đang cuồn cuộn tràn tới.