Trong bối cảnh công nghệ quân sự ngày càng phát triển, Liên Hợp Quốc đã đặt ra mục tiêu quan trọng về việc quản lý các loại vũ khí tự động tích hợp trí tuệ nhân tạo (AI) vào năm 2026. Tuy nhiên, việc đạt được sự đồng thuận giữa các quốc gia vẫn là một thách thức lớn.
Cuộc họp quan trọng tại New York
Vào ngày 12/5, tại cuộc họp của Đại hội đồng Liên Hợp Quốc ở New York, các quốc gia đã cùng nhau thảo luận về việc quản lý các loại vũ khí tự động do AI điều khiển, bao gồm cả những thiết bị được gọi là “robot sát thủ”. Các chuyên gia đã cảnh báo rằng thời gian để đưa ra các biện pháp bảo vệ cho công nghệ gây chết người mới đang ngày càng cạn kiệt.
Hình ảnh robot Ameca tại Hội nghị thượng đỉnh toàn cầu về AI diễn ra ở Geneva, Thụy Sĩ vào tháng 7/2023.
Đồng thuận quốc tế và thách thức hiện tại
Cuộc họp này diễn ra sau khi 164 quốc gia đã ủng hộ nghị quyết của Đại hội đồng Liên Hợp Quốc vào năm 2023, kêu gọi cộng đồng quốc tế nhanh chóng giải quyết những rủi ro mà vũ khí tự động có thể gây ra. Đây là lần đầu tiên Liên Hợp Quốc tổ chức một cuộc đàm phán chuyên biệt về vấn đề này.
Tuy nhiên, theo Tổ chức Ân xá Quốc tế, trong khi nhiều quốc gia ủng hộ việc thiết lập một khuôn khổ ràng buộc toàn cầu, một số cường quốc như Mỹ, Nga, Trung Quốc và Ấn Độ lại muốn tiếp cận vấn đề này theo hướng từng quốc gia hoặc dựa trên các quy định pháp luật hiện hành.
Phát ngôn viên của Lầu Năm Góc đã nhấn mạnh rằng họ không tin rằng các quy định hiện tại đủ để quản lý tình hình, đồng thời cho rằng vũ khí tự động có thể ít gây rủi ro hơn so với các loại vũ khí truyền thống.
Vai trò của vũ khí tự động trong xung đột
Hệ thống vũ khí tự động hỗ trợ bởi AI đang ngày càng trở nên quan trọng trong các cuộc xung đột hiện đại. Theo thông tin từ Nga, lực lượng quân đội nước này đã triển khai hàng nghìn máy bay không người lái có khả năng tự động phát hiện và tấn công mục tiêu tại Ukraine. Viện nghiên cứu Future of Life cũng ghi nhận sự hiện diện của khoảng 200 hệ thống vũ khí tự động tại các khu vực như Ukraine, Trung Đông và châu Phi, trong khi Israel sử dụng AI để xác định mục tiêu ở Gaza.
Chi tiêu quốc phòng toàn cầu dự kiến sẽ tăng mạnh trong thời gian tới khi công nghệ quân sự tích hợp AI tiếp tục phát triển. Tuy nhiên, việc thiết lập các quy tắc kiểm soát vẫn chưa theo kịp với tốc độ phát triển của công nghệ, và tiêu chuẩn ràng buộc quốc tế vẫn còn thiếu hụt. Kể từ năm 2014, các quốc gia tham gia Công ước về vũ khí thông thường đã tổ chức các cuộc họp tại Genève để thảo luận về khả năng cấm các hệ thống hoàn toàn tự động, nhưng vẫn chưa đạt được sự đồng thuận.
Thời hạn và áp lực từ cộng đồng quốc tế
Tại cuộc họp ngày 12/5, Tổng thư ký Liên Hợp Quốc Antonio Guterres đã đặt ra thời hạn năm 2026 để các quốc gia thiết lập các quy tắc rõ ràng về việc sử dụng vũ khí AI. Tuy nhiên, nhiều nhóm nhân quyền đã cảnh báo rằng vẫn chưa có sự đồng thuận giữa các chính phủ về vấn đề này.
Alexander Kmentt, người đứng đầu cơ quan kiểm soát vũ khí của Áo, đã nhấn mạnh rằng “thời gian thực sự không còn nhiều” và cần phải nhanh chóng đưa ra các biện pháp bảo vệ để ngăn chặn những kịch bản tồi tệ mà các chuyên gia đã cảnh báo.
Chuyên gia cho rằng, mặc dù các quy định không mang tính ràng buộc về mặt pháp lý, nhưng các quốc gia đang cố gắng tạo áp lực lên các cường quốc quân sự, những nước đang phản đối quy định vì lo ngại rằng chúng có thể làm giảm lợi thế của họ trên chiến trường.
Bên cạnh đó, các nhóm vận động hy vọng rằng cuộc họp này sẽ giải quyết các vấn đề quan trọng liên quan đến đạo đức và nhân quyền. Patrick Wilcken, một nhà nghiên cứu quân sự, đã nhấn mạnh rằng “vấn đề này cần được làm rõ thông qua một hiệp ước ràng buộc về mặt pháp lý, vì công nghệ đang phát triển quá nhanh”.
Bảo Lâm (theo Reuters)