Trí tuệ nhân tạo làm tăng nguy cơ hủy diệt hạt nhân
Theo nhà nghiên cứu Zachary Kallenborn, việc hợp nhất AI với vũ khí hạt nhân sẽ tạo cho chúng ta một công thức dẫn đến thảm họa hoàn toàn.
OpenAI, công ty chịu trách nhiệm về ChatGPT, vừa công bố thành lập một nhóm mới với nhiệm vụ rất cụ thể: ngăn chặn các mô hình AI gây ra “rủi ro thảm khốc” cho nhân loại.
Preparedness, cái tên phù hợp được đặt cho nhóm này, sẽ được giám sát bởi ông Aleksander Madry, một chuyên gia về Machine Learning (ML) và là nhà nghiên cứu trực thuộc Viện Công nghệ Massachusetts. Ông Madry và nhóm của ông sẽ tập trung vào các mối đe dọa khác nhau, đáng chú ý nhất là các mối đe dọa về “hóa học, sinh học, phóng xạ, và hạt nhân.” Những mối đe dọa này có vẻ hơi cường điệu — nhưng thực sự không nên xem thường.
Như Liên Hiệp Quốc đã báo cáo hồi đầu năm nay, nguy cơ các quốc gia bắt đầu sử dụng vũ khí hạt nhân đang ở mức cao nhất kể từ Chiến tranh Lạnh. Báo cáo này được công bố trước khi xảy ra sự kiện kinh hoàng ở Israel hôm 07/10. Theo Reuters, một đồng minh thân cận của ông Vladimir Putin, ông Nikolai Patrushev, mới đây đã cho rằng các chính sách “phá hoại” của “Hoa Kỳ và các đồng minh đang làm gia tăng nguy cơ rằng vũ khí hạt nhân, hóa học hoặc sinh học sẽ được đem ra sử dụng.”
Ông Zachary Kallenborn, một nhà nghiên cứu liên kết với Phòng Công nghệ và Vũ khí Phi truyền thống của Hiệp hội Quốc gia về Nghiên cứu Chủ nghĩa Khủng bố và Ứng phó với Chủ nghĩa Khủng bố (START), đã cảnh báo rằng việc hợp nhất AI với các loại vũ khí trên, đặc biệt là vũ khí hạt nhân, sẽ tạo ra cho chúng ta một công thức dẫn đến thảm họa hoàn toàn.
Ông Kallenborn đã nhiều lần gióng lên hồi chuông cảnh báo và không biện giải thêm về mối liên minh xấu xa giữa AI và vũ khí hạt nhân. Một cách thẳng thừng, nhà nghiên cứu này cảnh báo, “Nếu trí tuệ nhân tạo điều khiển vũ khí hạt nhân, tất cả chúng ta có thể sẽ bị diệt vọng.”
Ông ấy không hề nói phóng đại. Cách đây đúng 40 năm, cũng chính ông Kallenborn, một nhà nghiên cứu chính sách tại Trường Chính sách và Chính phủ Schar, đã mô tả, về ông Stanislav Petrov, một trung tá Lực lượng Phòng không Liên Xô, đang bận rộn giám sát các hệ thống cảnh báo hạt nhân của đất nước ông. Theo ông Kallenborn, đột nhiên, “máy điện toán đã kết luận với độ tin cậy cao nhất rằng Hoa Kỳ đã phát động một cuộc chiến tranh hạt nhân.” Tuy nhiên, ông Petrov đã tỏ ra nghi ngờ, phần lớn là vì ông không tin tưởng vào hệ thống phát hiện hiện tại. Hơn nữa, hệ thống radar này thiếu bằng chứng xác thực.
Rất may, ông Petrov đã kết luận rằng thông điệp này là báo động giả và quyết định không đưa ra hành động nào. Cảnh báo tiết lộ nội dung: Máy điện toán đã hoàn toàn sai, và người Nga đã hoàn toàn đúng.
“Tuy nhiên,” ông Kallenborn, một cố vấn an ninh quốc gia lưu ý, “nếu ông Petrov là một cỗ máy, được lập trình để phản ứng tự động khi độ tin cậy đủ cao, thì lỗi báo động sai đó sẽ gây ra một cuộc chiến tranh hạt nhân.”
Hơn nữa, ông gợi ý, hoàn toàn “không có gì bảo đảm” rằng một số quốc gia “sẽ không giao cho AI phụ trách việc phóng hạt nhân,” bởi vì luật pháp quốc tế “không quy định rằng phải luôn có một ‘ông Petrov’ canh giữ nút bấm.”
“Điều đó sẽ sớm thay đổi,” ông Kallenborn nói.
Ông ấy nói với tôi rằng AI đang định hình lại tương lai của chiến tranh.
Theo ông Kallenborn, trí tuệ nhân tạo “có thể giúp quân đội xử lý nhanh chóng và hiệu quả hơn lượng dữ liệu vô cùng lớn được tạo ra từ chiến trường; làm cho cơ sở công nghiệp quốc phòng trở nên hiệu quả và có hiệu suất hơn trong việc sản xuất vũ khí trên quy mô lớn, và có thể cải thiện việc nhắm mục tiêu và ra quyết định trong việc sử dụng vũ khí.”
Chẳng hạn, hãy lấy Trung Quốc làm ví dụ. Quốc gia này được cho là mối đe dọa lớn nhất đối với Hoa Kỳ, và các ứng dụng quân sự được trợ giúp bởi AI của nước này. Theo báo cáo của Đại học Georgetown, trong tương lai không xa, Bắc Kinh có thể sử dụng AI không chỉ để trợ giúp trong thời chiến mà thậm chí là để giám sát mọi hành động trong chiến tranh.
Tất cả các độc giả nên quan tâm đến điều này.
“Nếu việc phóng vũ khí hạt nhân được giao cho một hệ thống tự động,” ông Kallenborn lo ngại rằng vũ khí này “có thể bị phóng đi một cách sai lầm, vô tình dẫn đến một cuộc chiến tranh hạt nhân.”
“Việc tích hợp AI vào hoạt động chỉ huy và kiểm soát hạt nhân,” ông cho hay, “cũng có thể dẫn đến thông tin có hại hoặc sai lệch.”
Ông ấy nói đúng. AI phụ thuộc vào dữ liệu, và đôi khi dữ liệu có thể hoàn toàn không chính xác.
Mặc dù không có một quốc gia cụ thể nào khiến ông Kallenborn phải quá lo lắng, nhưng ông vẫn lo ngại trước “nguy cơ Tổng thống Nga Vladimir Putin sử dụng vũ khí hạt nhân cỡ nhỏ trong cuộc xung đột ở Ukraine.” Thậm chí việc sử dụng hạt nhân ở mức hạn chế “sẽ gây hậu quả xấu trong dài hạn” vì “lệnh cấm hạt nhân” sẽ bị loại bỏ, từ đó “khích lệ các quốc gia khác trở nên dễ dãi hơn trong việc sử dụng vũ khí hạt nhân.”
“Vũ khí hạt nhân,” theo ông Kallenborn, “là mối đe dọa lớn nhất đối với nhân loại.”
Ông nói: “Đó là vũ khí duy nhất hiện hữu có thể gây ra đủ tổn thất đến mức thực sự khiến nhân loại bị tuyệt chủng.”
Như đã đề cập trước đó, việc đưa AI vào trong vấn đề hạt nhân dường như làm tăng nguy cơ tuyệt chủng hàng loạt. Những lời cảnh báo của ông Kallenborn, một nhà nghiên cứu đáng kính, người đã dành nhiều năm đời mình để nghiên cứu về sự phát triển của chiến tranh hạt nhân, có độ tin cậy rất lớn.
Tuệ Minh biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times