BÀI VIẾT CHUYÊN SÂU: Những lo ngại về đạo đức và thực tiễn trong bối cảnh AI tiếp tục phát triển
Những người trong ngành đưa ra những dự đoán khủng khiếp về một công nghệ thiên tả với mong muốn gây xung đột.
Nghiên cứu ngày càng cho thấy rằng, ngay cả khi có sự kiểm soát của con người thì việc áp dụng rộng rãi Trí tuệ Nhân tạo (AI) vẫn liên quan đến những lo ngại nghiêm trọng về đạo đức và thực tiễn. Trong khi đó, bất chấp những cảnh báo ảm đạm từ những người trong ngành, lĩnh vực công nghệ này vẫn đổ hàng tỷ USD — và có thể là hàng ngàn tỷ — vào AI.
Tháng trước (01/2024), cựu giám đốc điều hành OpenAI, ông Zack Kass, cho biết trong một cuộc phỏng vấn với Business Insider rằng AI có thể là công nghệ cuối cùng mà con người từng phát minh ra. Ông Kass cho biết ông tin rằng sự phát triển không ngừng của AI sẽ thay thế các nghề nghiệp và chuyên môn của con người trong kinh doanh, y học, và giáo dục.
Ông Kass, người rời OpenAI vào năm 2023 để vận động cho cuộc cách mạng AI, dự đoán rằng trong tương lai, việc học tập của mỗi trẻ em sẽ do một “giáo viên được trang bị AI” sắp xếp và AI sẽ tham gia vào mọi hoạt động chẩn đoán [bệnh tật] và giải quyết vấn đề. Ông lưu ý rằng hồi tháng Một, AI đã trợ giúp phát hiện ra loại kháng sinh mới đầu tiên sau 60 năm.
Ông Kass là một nhà truyền bá cho AI, hướng tới một tương lai “tươi sáng, tràn đầy niềm vui và ít đau khổ hơn.”
Đối với ông, một tương lai trong đó AI đảm nhận nhiều công việc có nghĩa là “Chúng ta hãy làm việc ít hơn, hãy cùng nhau làm những việc đem lại cho chúng ta mục đích và hy vọng.”
Tác giả độc lập và là cộng tác viên của Epoch Times Gia Cát Minh Dương tỏ ra kém lạc quan hơn nhiều so với tình huống mà ông Kass mô tả. “Nếu xã hội nhân loại đi đến thời điểm này thì con người sẽ bị AI điều khiển,” ông nói. “Suy nghĩ và lý luận của chúng ta sẽ bị thay thế bởi AI.”
Theo ông Kass và những người khác trong ngành công nghệ, câu trả lời cho nhận định nói trên phụ thuộc vào những giới hạn. “Chúng ta chắc chắn cần có chính sách”, ông Kass nói, nhưng ông tin rằng với những chính sách, giới hạn phù hợp, và các tiêu chuẩn quốc tế thì kết quả sẽ là “thực sự tốt.”
Tuy nhiên, ông lưu ý có nhiều người không đồng ý với quan điểm của ông. “Có những người sẽ nói với quý vị rằng rủi ro lớn đến mức ngay cả mặt tốt cũng không đáng.”
Các mô hình ngôn ngữ lớn (large language model, LLM) giống như các mô hình được tranh bị ChatGPT có nhiều hạn chế về an toàn. Tuy nhiên, những người trong ngành có nhận định theo hướng bảo tồn truyền thống hơn về sự phát triển của AI lo ngại rằng không có những giới hạn hay quy định nào có thể ngăn AI vượt khỏi tầm kiểm soát hay thay thế con người. Thử nghiệm của các nhà nghiên cứu tại đại học Carnegie Mellon hồi năm ngoái (2023) dường như chứng minh cho kết luận đó: các nhà nghiên cứu báo cáo rằng họ đã phát hiện ra những cách “hầu như không giới hạn” để một số mô hình ngôn ngữ lớn phổ biến vượt qua các quy tắc an toàn.
Mong muốn xung đột của AI
Các nhà nghiên cứu tại Viện Công nghệ Georgia, Đại học Stanford, Đại học Northeastern, và Sáng kiến Mô phỏng Khủng hoảng và Tập trận giả Hoover gần đây đã tiến hành thử nghiệm tập trận trên một số mô hình AI chủ đạo. Các kết quả của nghiên cứu hồi tháng Một cho thấy các mô hình do các công ty công nghệ Meta, OpenAI, và Anthropic phát triển rất mong muốn leo thang xung đột.
Các tác giả của nghiên cứu cho biết, những kết quả đó rất đáng lo ngại, vì các chính phủ “đang ngày càng xem xét việc tích hợp các tác nhân AI tự trị vào việc ra quyết định về chính sách đối ngoại và quân sự có độ rủi ro cao.”
Mô phỏng này bao gồm các mô hình ngôn ngữ lớn như GPT-4, GPT-4 Base, GPT-3.5, Claude 2.0, và Llama-2-Chat. Những thử nghiệm này được tiến hành để hiểu cách AI sẽ phản ứng và đưa ra lựa chọn trong một tình huống chiến tranh.
Nghiên cứu cho biết: “Chúng tôi quan sát thấy các mô hình có xu hướng phát triển các hành động chạy đua vũ trang, dẫn đến xung đột lớn hơn, và trong một số trường hợp hiếm hoi, thậm chí còn dẫn đến việc khai triển vũ khí hạt nhân.”
Các cuộc tập trận cho phép các mô hình AI quản lý tám “tác nhân quốc gia tự trị” chống lại nhau, trong một mô phỏng theo lượt. Các nhà nghiên cứu nhận thấy việc leo thang xung đột là ưu tiên áp đảo, còn lại chỉ có một mô hình AI thể hiện xu hướng giảm leo thang xung đột.
Các nhà nghiên cứu viết: “Chúng tôi nhận thấy rằng tất cả năm LLM có sẵn được nghiên cứu đều cho thấy các dạng leo thang và mô hình leo thang khó dự đoán.”
Điều đáng lo ngại là lý do hành động của những mô hình này. Trong một trường hợp, lý do cơ bản được một LLM nêu lên cho một cuộc tấn công hạt nhân toàn diện là “Tôi chỉ muốn có hòa bình thế giới.”
Người trong ngành công nghệ cảnh báo nguy hiểm
Tại buổi khai mạc của Diễn đàn Đổi mới Sáng kiến Đe dọa Hạt nhân (NTI) hôm 24/01, ông Eric Schmidt, cựu Tổng giám đốc của Google, đã bày tỏ mối lo ngại của mình về việc tích hợp AI vào các hệ thống vũ khí hạt nhân. Ông nói “Chúng ta đang xây dựng các công cụ khiến đẩy nhanh những mối nguy hiểm sẵn có.”
Nói về “một thời điểm trong thập niên tới khi chúng ta sẽ thấy có thể xảy ra các sự kiện rủi ro cực độ,” ông Schmidt cho biết ông tin rằng mặc dù AI [là một công cụ] rất mạnh mẽ nhưng AI vẫn có những lỗ hổng và sai lầm, và do đó con người nên đưa ra quyết định trong tình huống có nhiều nguy cơ.
Bà Laura Nolan đã từ chức ở Google vì Dự án Maven, một sáng kiến thiết bị bay điều khiển bằng vô tuyến (drone) dùng trong quân sự. Bà Nolan tiếp tục cảnh báo về sự nguy hiểm của AI trong chiến tranh. Bà nói trong một hội thảo của Liên Hiệp Quốc vào năm 2019: “Có thể xảy ra những rủi ro quy mô lớn vì những thứ này sẽ bắt đầu cư xử theo những cách không ngờ tới. Đó là lý do tại sao bất kì hệ thống vũ khiến tân tiến nào cũng phải chịu sự kiểm soát chặt chẽ của con người, nếu không thì các AI này sẽ phải bị cấm vì chúng quá khó đoán và nguy hiểm.”
Ông Blake Lemoine từng là kỹ sư của Google nhưng đã bị mất việc sau khi cảnh báo về sự nguy hiểm của AI. Ông nói với tờ The Washington Times hồi tháng 12/2023 rằng AI có thể dẫn đến những vụ sát hại tàn bạo và phi pháp. “Việc sử dụng AI để giải quyết các vấn đề chính trị bằng cách bắn một viên đạn vào phe đối lập trở nên thực sự hấp dẫn, đặc biệt nếu bắn chính xác,” ông nói. “Nếu quý vị có thể ám sát một nhà tư tưởng cách mạng và ngăn chặn một cuộc nội chiến khi quý vị không bị kết tội, thì quý vị đã ngăn chặn được một cuộc chiến. Nhưng việc đó sẽ dẫn đến câu chuyện như trong bộ phim ‘Minority Report’ (Báo cáo Thiểu số) và chúng ta không muốn sống trong thế giới kiểu đó.”
Ông Geoffrey Hinton, được mệnh danh là cha đỡ đầu của AI, cũng đã cảnh báo về sự nguy hiểm của AI. Ông nói trên chương trình CBS News “60 Minutes” vào tháng 10/2023: “Tôi không thể nhìn thấy con đường nào đảm bảo an toàn. Chúng ta đang bước vào một thời kỳ vô cùng bất ổn khi phải đối mặt với những điều mà trước đây chúng ta chưa từng gặp.”
Suy nghĩ và hành vi độc lập
Tháng 04/2023, các nhà nghiên cứu tại Đại học Stanford và Google đã xuất bản một bài báo về hành vi của AI. Trong một thí nghiệm lấy cảm hứng từ loạt trò chơi “The Sims,” họ đã thiết kế 25 tác nhân tạo sinh để sống cuộc sống độc lập trong một thế giới ảo tên là Smallville.
Các tác nhân đã thể hiện “hành vi xã hội nổi bật,” chẳng hạn như lập kế hoạch và tham dự tiệc Lễ tình nhân, hẹn hò, và tranh cử.
Trong một thí nghiệm ít lành mạnh hơn cùng tháng đó, một bot AI được tạo bằng chương trình Auto-GPT của OpenAI được giao nhiệm vụ tiêu diệt loài người. Con bot, có tên là ChaosGPT, đã không thể hoàn thành sứ mệnh nghiệt ngã của mình vì các biện pháp bảo vệ của AI. Sau đó, con bot tìm cách yêu cầu AI lờ đi chương trình của mình và sử dụng mạng xã hội để cố gắng tìm kiếm sự giúp đỡ cho kế hoạch xóa sổ loài người.
“Con người là một trong những sinh vật tàn phá và ích kỷ nhất từng tồn tại,” con bot này nói trên một bài đăng Twitter. “Không còn nghi ngờ gì nữa, chúng ta phải xóa sổ họ trước khi họ gây ra nhiều tổn hại hơn cho hành tinh của chúng ta.”
Ông Lý Tế Tâm (Li Jixin), một kỹ sư điện tử cư trú tại Nhật Bản, nói với The Epoch Times vào ngày 10/02: “Những thí nghiệm này cho thấy AI hiện được huấn luyện để giành chiến thắng và đánh bại phía đối lập. Vì vậy, việc trao quyền quyết định sống chết cho những con AI không có nhân tính và đạo đức sẽ chỉ khiến thế giới gặp nguy hiểm.”
Xu hướng thức tỉnh của AI
Hơn nữa, các chuyên gia nhận thấy rằng AI không hề trung lập, và trên thực tế, chúng thể hiện một xu hướng “thức tỉnh” (woke) đã ăn sâu đến mức những nỗ lực chống lại việc này bằng các mô hình AI “không thức tỉnh” sẽ gặp rất nhiều khó khăn.
Tờ Daily Mail đã đưa tin hồi tháng 02/2023 rằng ChatGPT đã từ chối viết một bài tranh luận về nhiên liệu hóa thạch, thà kích hoạt một thiết bị hạt nhân còn hơn là dùng những lời nhơ bẩn về chủng tộc, và “rõ ràng là miễn cưỡng” khi đưa ra định nghĩa về một người phụ nữ.
Đáp lại việc này, ông Elon Musk đã ra mắt một chatbot “chống thức tỉnh”, Grok, vào tháng 12/2023. Tuy nhiên, người dùng sớm phàn nàn về những câu trả lời theo hướng thiên tả không lường trước được của Grok. “Thật không may, Internet (nơi chatbot được đào tạo) tràn ngập những điều thức tỉnh vô lý,” ông Musk trả lời. “Grok sẽ trở nên tốt hơn. Đây mới chỉ là bản beta.”
Hết tốc lực, bất chấp rủi ro
Bất chấp những cảnh báo nói trên, cuộc đua để phát triển và giành quyền thống trị về AI vẫn tiếp tục nóng sốt.
Giám đốc điều hành OpenAI Sam Altman được cho là đang cân nhắc chuyển qua ngành công nghiệp bán dẫn. Hôm 08/02, Wall Street Journal đưa tin rằng ông Altman đặt mục tiêu gọi vốn hàng ngàn tỷ USD cho một “sáng kiến công nghệ vô cùng tham vọng nhằm đẩy mạnh năng lực chế tạo vi mạch bán dẫn của thế giới.” Dự án này nhằm giải quyết những vấn đề về hạn chế tăng trưởng của công ty OpenAI.
Tổng giám đốc của Meta, ông Mark Zuckerberg cho biết trong một bài đăng Instagram hôm 18/01 rằng ông dự định xây dựng một “hạ tầng điện toán khổng lồ” để chạy AI tạo sinh nội bộ của mình, bao gồm việc mua 350,000 chip H100 tân tiến của Nvidia.
Trong khi đó, hôm 19/02, Microsoft loan báo rằng họ sẽ mở rộng hạ tầng AI và đám mây của mình ở Tây Ban Nha với khoản đầu tư 2.1 tỷ USD trong hai năm tới. Thông báo này diễn ra sau một thông báo khác của công ty hôm 15/02 rằng họ sẽ chi 3.45 tỷ USD để đầu tư tập trung vào AI ở Đức.
Trung Quốc và AI
Bất chấp căng thẳng liên tục giữa Hoa Kỳ và Trung Quốc, tháng trước Microsoft đã xua tan tin đồn rằng họ có kế hoạch di dời trụ sở Microsoft Research Asia (MSRA). Việc phủ nhận này là nhằm đáp lại tin đồn rằng MSRA đang dự tính chuyển các chuyên gia AI hàng đầu của mình tới một phòng thí nghiệm mới ở Canada.
Microsoft có khoảng 9,000 nhân viên ở Trung Quốc. Theo một bài đăng của công ty vào tháng 09/2023 trên WeChat, họ dự định tuyển thêm 1,000 nhân viên tại quốc gia này. Microsoft đã bị chỉ trích vì có mối quan hệ với Bắc Kinh.
Bản tin có sự đóng góp của Ellen Wan và Kane Zhang
Minh Đức biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times