Cha đẻ của ChatGPT: ‘Quản lý AI cần giống như quản lý vũ khí hạt nhân’
Theo Giám đốc điều hành của OpenAI, ông Sam Altman, vào cuối thập niên này AI sẽ có mặt trên toàn cầu. Việc quản lý AI là cần thiết để công nghệ này không bị kẻ xấu lợi dụng.
Người sáng lập OpenAI, ông Sam Altman, đã gia nhập một loạt tiếng nói kêu gọi quy định quản lý trí tuệ nhân tạo (AI) vào tuần lễ 01-07/05. Công ty của ông, OpenAI, được cho là đã nhận khoản đầu tư trị giá 13 tỷ USD từ Microsoft, đã cho ra mắt ChatGPT vào cuối tháng Mười Một (2022). Chỉ sau hai tháng đã có tới 100 triệu người dùng sử dụng chức năng phòng trò chuyện hoạt động trên nền tảng AI này.
CEO OpenAI kêu gọi thành lập ‘cơ quan kiểm soát toàn cầu’ cho AI
Thành công của công cụ chatbot này không chỉ dẫn đến cuộc chạy đua trong lĩnh vực AI giữa các các tập đoàn lớn. Các chuyên gia đến từ các công ty công nghệ lớn và các doanh nhân như ông Elon Musk đã bày tỏ lo ngại về việc AI có thể tự phát triển đời sống riêng mà không bị kiểm soát. Công nghệ này có thể trở thành một rủi ro an ninh cũng như công cụ cho tội phạm và khủng bố. Ngoài ra, nó cũng có thể mang đến những thay đổi lớn trong thị trường lao động của con người.
Kết quả nghiên cứu của Goldman Sachs hồi tháng Ba cho thấy AI có thể “khiến khoảng 300 triệu việc làm toàn thời gian bị tự động hóa” trên toàn thế giới. Điều này nghĩa là những công việc đó có thể bị xuống cấp hoặc bị AI thay thế.
Như tờ Handelsblatt đã đưa tin, giám đốc điều hành OpenAI Sam Altman hiện đang kêu gọi thiết lập một quy định chặt chẽ về AI. Cần phải có một “cơ quan giám sát toàn cầu” để quản lý tiềm năng của AI.
Nhiệm vụ phải tương tự như nhiệm vụ của IAEA
Tại hội nghị thường niên của cổng thanh toán Stripe được tổ chức tại San Francisco hôm thứ Tư (03/05), ông Altman kiến nghị: “Tôi muốn thứ gì đó tương tự như cơ quan năng lượng nguyên tử IAEA để quản lý trí tuệ nhân tạo.”
Cơ quan này đã góp phần khiến bom nguyên tử không được sử dụng làm vũ khí kể từ năm 1945. “Hầu như không ai nghĩ rằng điều đó có thể xảy ra vào thời điểm đó,” ông Altman nói.
Một trong những nhiệm vụ thiết yếu của IAEA là thiết lập các tiêu chuẩn an toàn để giải quyết vật liệu hạt nhân. Cơ quan này cũng kiểm tra việc tuân thủ các tiêu chuẩn đó và bảo đảm rằng công nghệ này không được sử dụng cho mục đích quân sự.
Các chuyên gia thận trọng trước ước tính rằng trí tuệ nhân tạo tổng hợp sẽ xuất hiện vào cuối thập niên này
Ông Altman giải thích trong hội nghị rằng trí tuệ nhân tạo tổng hợp (AGI) có thể sẽ xuất hiện vào cuối thập niên này. Điều này có nghĩa là một AI có thể hiểu và làm chủ bất kỳ nhiệm vụ trí tuệ nào mà con người có khả năng thực hiện. Người sáng lập OpenAI giải thích rằng một hệ thống như vậy có thể đẩy nhanh tiến độ khoa học một cách đáng kể.
Mặt khác, các chuyên gia lại thận trọng hơn trong các đánh giá của họ. Giáo sư Kristian Kersting thuộc chuyên ngành Máy học và AI tại Đại học kỹ thuật TU Darmstadt tin rằng các hệ thống AI hiện tại khả năng phần nhiều là “ngu ngốc” hơn là hữu dụng.
Trong các lĩnh vực kiến thức đã được đào tạo thì ChatGPT và các hệ thống tương tự mang lại những kết quả ưu tú, tuy nhiên chúng lại quá tải trong những lĩnh vực mới lạ. Người dùng ChatGPT thường có thể xác nhận đánh giá này: Ở những lĩnh vực thông thường thì chất lượng đầu ra của ChatGPT sẽ tốt hơn nếu như thông tin được đưa vào (hay còn gọi là ‘prompt’) là chính xác hơn. Công ty OpenAI hiện còn cung cấp một khóa học trực tuyến tạm thời miễn phí về Deep Learning.
Tuy nhiên, khi người dùng hỏi chatbot này những câu hỏi không phổ biến hoặc cụ thể, thì ChatGPT sẽ trả lại những thông tin chung chung hoặc thậm chí là bịa đặt.
OpenAI muốn ‘rời xa chatbot thuần túy’ trong tương lai
Như các khu vực khác, hiện tại Liên minh Âu Châu (EU) cũng đang nghiên cứu một quy định về việc sử dụng AI. Bản dự thảo cho quy định này phân loại AI vào mức “rủi ro cao” khi sử dụng trong lĩnh vực tuyển dụng nhân sự hay vận hành các cơ sở hạ tầng trọng yếu. Những người vận hành các hệ thống này cần phải đáp ứng các yêu cầu đặc biệt cao đối với việc giám sát và kiểm soát. Đối với các hệ thống được đánh giá là có mức rủi ro thấp hơn thì yêu cầu này có thể được giảm xuống mức thấp hơn.