‘Bố già AI’ rời Google để cảnh báo về loại công nghệ ‘đáng sợ’ này
Một nhà đổi mới sáng tạo đột phá trong lĩnh vực trí tuệ nhân tạo (AI) đang gióng lên hồi chuông cảnh báo về những mối nguy hiểm do công nghệ mà sản phẩm của ông đặt nền móng gây ra.
Ông Geoffrey Hinton, nhà khoa học máy điện toán người Anh, người được mệnh danh là “Bố già AI”, gần đây đã rời vị trí phó chủ tịch và thành viên kỹ thuật tại Google để có thể tham gia cùng hàng chục chuyên gia khác trong lĩnh vực này lên tiếng về các mối đe dọa và sự nguy hiểm của AI.
“Khó để mà biết làm thế nào quý vị có thể ngăn chặn những kẻ xấu sử dụng công nghệ này cho những mục đích xấu,” ông Hinton, 75 tuổi, nói với The New York Times trong một cuộc phỏng vấn.
Sau khi ra mắt phiên bản chatbot GPT mới nhất của OpenAI hồi tháng Ba, các chuyên gia AI khác đã ký một bức thư ngỏ do tổ chức bất vụ lợi Viện Tương Lai Sự sống (Future of Life Institute) viết, cảnh báo rằng công nghệ này tạo ra “những mối nguy hiểm sâu rộng cho xã hội và nhân loại.”
Ông Hinton, giống như những người ký tên trong bức thư đó, cho biết ông nhận thấy những tiến triển gần đây trong AI là “đáng sợ” và lo lắng về ý nghĩa của chúng đối với tương lai — đặc biệt là hiện giờ Microsoft đã tích hợp công nghệ này vào công cụ tìm kiếm Bing của họ.
Với việc Google hiện đang gấp rút làm điều tương tự, ông Hinton lưu ý rằng cuộc chạy đua giữa các Đại Công ty Công nghệ để phát triển AI mạnh mẽ hơn có thể dễ dàng vượt khỏi tầm kiểm soát.
Một khía cạnh đặc biệt của công nghệ AI khiến nhà khoa học máy điện toán này lo ngại là khả năng tạo ra những hình ảnh, các bức ảnh chụp, và văn bản giả đến mức một người bình thường sẽ “không thể biết đâu là thật nữa.”
Ông cũng cảnh báo rằng, trong tương lai, AI có thể có khả năng thay thế con người tại nơi làm việc và được sử dụng để tạo ra vũ khí tự động hoàn toàn.
“Ý tưởng rằng thứ này thực sự có thể trở nên thông minh hơn con người — một vài người tin vào điều đó,” ông Hinton nói. “Nhưng hầu hết mọi người nghĩ rằng điều đó còn lâu mới xảy ra. Và tôi đã nghĩ rằng nó còn lâu mới xảy ra. Tôi đã nghĩ rằng phải 30 đến 50 năm hoặc thậm chí lâu hơn. Rõ ràng là tôi không còn nghĩ như vậy nữa.”
Sự rời đi của ông Hinton
Ông Hinton chủ yếu được biết đến với vai trò phát triển học sâu, một hình thức học máy giúp huấn luyện máy điện toán xử lý dữ liệu giống như bộ não con người.
Công việc đó là không thể thiếu đối với sự phát triển của AI, nhưng khi nhìn lại, ông Hinton cho biết ông hối tiếc về vai trò của mình trong quá trình đó.
“Tôi tự an ủi mình bằng một cái cớ thông thường: Nếu tôi không làm thì người khác sẽ làm,” ông cho biết.
Tháng trước, ông Hinton đã thông báo cho Google rằng ông sẽ rời công ty sau hơn một thập niên.
Hôm 01/05, ông giải thích rằng lý do ông rời đi chỉ là để tách biệt công ty này với các tuyên bố của ông và không liên quan gì đến cách tiếp cận của Google đối với AI.
“Tôi rời đi để có thể nói về sự nguy hiểm của AI mà không cần cân nhắc điều này ảnh hưởng đến Google như thế nào,” ông viết trong một tweet. “Google đã hành động rất có trách nhiệm.”
Trong một tuyên bố cung cấp cho The New York Times, ông Jeff Dean, phó chủ tịch cao cấp về nghiên cứu và AI của Google, cho biết: “Chúng tôi vẫn cam kết thực hiện một cách tiếp cận có trách nhiệm đối với AI. Chúng tôi sẽ không ngừng học hỏi để hiểu những mối nguy mới xuất hiện đồng thời cũng sẽ đổi mới một cách táo bạo.”
‘Thần kỹ thuật số’
Bất chấp sự bảo đảm của Google, những người khác vẫn chỉ trích các phương pháp của công ty này.
Trong một cuộc phỏng vấn gần đây với Fox News, Giám đốc điều hành Tesla Elon Musk — người cũng từng đồng sáng lập OpenAI — cho biết ông cảm thấy ông Larry Page, người đồng sáng lập Google, đã không coi trọng sự nguy hiểm của AI.
“Có vẻ như ông ấy thực sự muốn siêu trí tuệ kỹ thuật số, về cơ bản là Thần kỹ thuật số, càng sớm càng tốt,” ông Musk nói, đề cập đến các cuộc trò chuyện mà ông đã có với ông Page về vấn đề này.
“Ông ấy đã đưa ra nhiều tuyên bố công khai trong nhiều năm rằng toàn bộ mục tiêu của Google là cái được gọi là AGI, trí tuệ nhân tạo tổng hợp, hay siêu trí tuệ nhân tạo,” ông lưu ý. “Tôi đồng ý với ông ấy rằng có nhiều khả năng có những điều tốt, nhưng cũng có khả năng cho những điều xấu.”
Ông Musk, người đã ký vào bức thư của Viện Tương lai Sự sống, đã thẳng thắn bày tỏ những lo ngại của mình về AI nói chung, cho rằng công nghệ này tạo ra mối nguy hiểm đáng sợ đối với nền văn minh nhân loại.
“AI có lẽ nguy hiểm hơn, chẳng hạn như thiết kế phi cơ được quản lý kém, hoặc bảo trì sản xuất, hoặc sản xuất xe hơi dở tệ, theo nghĩa đó thì là nó có khả năng — dù người ta có thể coi xác suất đó là nhỏ, nhưng nó không tầm thường — nó có khả năng hủy diệt nền văn minh,” ông nói với Fox News.
Một nỗi lo sợ khác mà ông Musk tiết lộ là ông lo lắng rằng AI đang được đào tạo về sự đúng đắn chính trị, điều mà ông khẳng định chỉ là một hình thức lừa dối và “nói những điều không trung thực”.
Bất chấp những lo ngại đó — hoặc có lẽ vì chúng — mà vị tỷ phú công nghệ này cũng bày tỏ sự quan tâm đến việc phát triển AI “tìm kiếm sự thật” của riêng mình, thứ sẽ được đào tạo để quan tâm đến nhân loại.
Bản tin có sự đóng góp của Caden Pearson
Cẩm An biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times