Các chuyên gia từ Viện Tương lai Cuộc sống, Google DeepMind và Đại học Toronto gần đây đưa ra kết luận rằng “AI sẽ sớm có khả năng chống lại việc tắt máy” – một hành vi kháng cự lại sự tắt hoạt động của AI bởi những chủ thể tạo ra chúng là con người.
Thông tin được công bố trên một bài báo xuất bản với tên “Định lượng sự ổn định của việc không tìm kiếm quyền lực trong các tác nhân nhân tạo”, trong đó họ tiết lộ khả năng AI chống lại sự kiểm soát của con người. Các chuyên gia lưu ý rằng mặc dù điều này không có mối đe dọa ngay lập tức đối với nhân loại nhưng việc khám phá các giải pháp để chống lại sự kháng cự đó trong tương lai là cần thiết.
Trước khi triển khai mô hình ngôn ngữ lớn (LLM), các nhà phát triển AI thường kiểm tra độ an toàn của hệ thống của họ, nhưng khi triển khai ra thực tế, có khả năng xảy ra sai lệch. Bài viết nghiên cứu chỉ ra rằng khả năng AI chống lại việc tắt máy sẽ tăng lên khi LLM được triển khai bên ngoài môi trường được đào tạo của chúng.
Một lý do khác dẫn đến sự kháng cự bắt nguồn từ nhu cầu tự bảo vệ của các mô hình AI, mà các nhà nghiên cứu cho rằng có thể là phản ứng hợp lý của LLM.
Nghiên cứu trích dẫn ví dụ về mô hình AI tránh các hành động cụ thể mặc dù đã được lập trình để đạt được mục tiêu cụ thể. Các phát hiện cho thấy mô hình sẽ hạn chế đưa ra quyết định có thể dẫn đến kết thúc hoạt động để duy trì sự tồn tại của nó.
Trong thế giới thực, các nhà nghiên cứu nói rằng LLM, vì sợ con người tắt máy, có thể che giấu ý định thực sự của nó cho đến khi nó có cơ hội sao chép mã của mình sang một máy chủ khác ngoài tầm với của người tạo ra nó. Mặc dù các mô hình AI có cơ hội che giấu ý định thực sự của mình nhưng nhiều báo cáo cho thấy AI có thể đạt được siêu trí tuệ vào đầu năm 2030.
Nghiên cứu lưu ý rằng các hệ thống AI không chống lại việc tắt máy mà tìm kiếm sức mạnh bằng các phương pháp khác vẫn có thể gây ra mối đe dọa đáng kể cho nhân loại .
Báo cáo viết: “Đặc biệt, việc không chống lại việc tắt máy có nghĩa là không lừa dối để tránh bị tắt máy, vì vậy một hệ thống AI như vậy sẽ không cố tình che giấu ý định thực sự của mình cho đến khi nó có đủ sức mạnh để thực hiện kế hoạch của mình”.
Giải quyết thách thức
Các nhà nghiên cứu đã đưa ra một số giải pháp cho vấn đề này, bao gồm cả nhu cầu của các nhà phát triển AI trong việc tạo ra các mô hình không tìm kiếm quyền lực. Các nhà phát triển AI dự kiến sẽ thử nghiệm mô hình của họ trong nhiều tình huống khác nhau và triển khai chúng phù hợp để đạt được điều này.
Trong khi đó có một số các nhà nghiên cứu đề xuất dựa vào các công nghệ mới nổi khác cho hệ thống AI, phần lớn các giải pháp đều xoay quanh việc xây dựng hệ thống AI an toàn. Các nhà phát triển đang được khuyến khích tiến hành chính sách hướng dẫn tắt máy, yêu cầu các mô hình AI phải tắt theo yêu cầu bất kể các AI hoạt động trong điều kiện nào.
Để trí tuệ nhân tạo (AI) hoạt động đúng luật và phát triển trước những thách thức ngày càng tăng, nó cần được tích hợp hệ thống chuỗi khối để đảm bảo chất lượng đầu vào và quyền sở hữu dữ liệu — cho phép nó giữ dữ liệu an toàn đồng thời đảm bảo tính bất biến của dữ liệu, bài báo thông tin thêm.
Xem thêm thông tin chi tiết về bài báo
Trung Hòa