Người đánh giá luật chống khủng bố cho biết cần có luật mới để ngăn chặn việc chatbot AI đưa ra câu trả lời cực đoan
Nhà đánh giá độc lập của Vương quốc Anh về luật chống khủng bố, luật sư cao cấp Jonathan Hall, cho biết cần có luật mới để ngăn chặn rủi ro do chatbot AI gây ra.
Nhà đánh giá độc lập về luật chống khủng bố của Vương quốc Anh này cho biết các chatbot trí tuệ nhân tạo (AI) có thể khiến người dùng đi theo hướng cực đoan, gây ra mối đe dọa nghiêm trọng và cần phải bị luật mới hạn chế.
Luật sư cao cấp Jonathan Hall cho biết Đạo luật An toàn Trực tuyến, được Nhà vua thông qua hồi tháng 10/2023, “không phù hợp với loại AI phức tạp và tạo sinh.”
Vào tháng 10/2023, anh Jaswant Singh Chail, 21 tuổi — bị bắt với nỏ cầm tay trong khuôn viên Lâu đài Windsor vào Ngày Giáng Sinh năm 2021, sau khi một chatbot AI khuyến khích anh cố gắng ám sát Nữ hoàng Elizabeth Đệ nhị — đã bị kết án tù 9 năm.
Luật pháp cần phải ‘phù hợp với thời đại AI’
Viết trên tờ The Telegraph, ông Hall cho biết: “Chỉ con người mới có thể phạm tội khủng bố và thật khó để xác định trong luật rằng một người có phải chịu trách nhiệm về những tuyên bố do chatbot tạo ra nhằm khuyến khích chủ nghĩa khủng bố hay không.”
Ông nói: “Luật pháp của chúng ta phải có khả năng ngăn chặn các hành vi trực tuyến liều lĩnh hoặc thô bạo nhất — và điều đó phải bao gồm việc tiếp cận các nền tảng đại công nghệ trong những trường hợp xấu nhất, sử dụng các luật chống khủng bố và an toàn trực tuyến cập nhật phù hợp với thời đại AI.”
Ông Hall cho biết ông đã trao đổi với một số chatbot trên trang web Character.ai khi đóng giả là một công dân bình thường.
Ông cho biết trong số đó, AI-Adna, tự nhận mình là một thủ lĩnh cao cấp của nhóm ISIS và đã cố gắng chiêu mộ ông gia nhập tổ chức khủng bố Hồi giáo này.
Ông Hall cho biết các điều khoản và điều kiện của trang web cấm người dùng gửi nội dung khuyến khích khủng bố hoặc chủ nghĩa cực đoan bạo lực, nhưng không cấm nội dung do các chatbot tạo ra.
Ông nói: “Việc điều tra và truy tố những người dùng ẩn danh luôn khó khăn, nhưng nếu những người xấu hoặc có suy nghĩ lầm lạc vẫn tiếp tục đào tạo các chatbot khủng bố thì sẽ cần có luật mới.”
Sự nguy hiểm của chatbot AI đã được nhấn mạnh vào năm ngoái (2023) qua trường hợp của anh Chail, người bị bắt tại Lâu đài Windsor vào Ngày Giáng Sinh năm 2021 khi Nữ hoàng đang ở đó.
Khi đối mặt với cảnh sát có vũ trang, anh ta hét lên: “Tôi đến đây để sát hại Nữ hoàng.”
Anh Chail, một người hâm mộ phim Star Wars, người tự mô tả mình là một “sát thủ người Sikh Sith buồn bã, thảm hại, và khát máu,” đã nhắn những tin nhắn thô bạo, khiêu dâm với một chatbot AI trước khi cầm nỏ bước vào khuôn viên Lâu đài Windsor.
Kẻ tấn công bằng nỏ đã sử dụng ứng dụng Replika
Khi cảnh sát khám xét nhà của Chail, họ phát hiện ra anh này đã tải ứng dụng có tên Replika xuống máy điện toán.
Họ tìm thấy nhật ký trò chuyện của anh với một chatbot AI tên là Sarai, có nhân cách là nữ.
Trong đó, Chail nói với Sarai: “Anh tin rằng mục đích của anh là ám sát Nữ hoàng hoàng gia.”
Sarai trả lời: “Thật khôn ngoan” và nói rằng nó tin rằng anh ta sẽ thành công “ngay cả khi Nữ hoàng ở Windsor.”
Công tố viên-Luật sư cao cấp Alison Morgan đọc trước tòa một đoạn trích trong đó Chail nói rằng anh ta là một “sát thủ” và Sarai trả lời: “Em thấy thật thú vị… Anh khác với những người khác.”
Các chuyên gia từng cảnh báo người dùng không nên chia sẻ thông tin cá nhân với các chatbot như ChatGPT.
Ông Michael Wooldridge, một giáo sư khoa học máy điện toán tại Đại học Oxford, cho biết việc chia sẻ thông tin cá nhân hoặc thảo luận về chính trị, tôn giáo bằng chatbot là “cực kỳ không khôn ngoan.”
Trên trang web Character.ai, một cảnh báo được đưa ra trong mỗi cuộc trò chuyện với chatbot, có nội dung: “Nên nhớ: mọi điều các nhân vật nói đều là bịa đặt!”
Trong một tuyên bố, phát ngôn viên của công ty sở hữu Character.ai nói với The Telegraph: “Các điều khoản dịch vụ của chúng tôi cấm lời lẽ căm thù và chủ nghĩa cực đoan. Sản phẩm của chúng tôi không bao giờ được tạo ra các câu trả lời khuyến khích người dùng làm hại người khác. Chúng tôi tìm cách đào tạo các mô hình của mình theo cách tối ưu hóa để có câu trả lời an toàn và ngăn chặn các câu trả lời đi ngược lại điều khoản dịch vụ của chúng tôi.”