5/6/2024 (TinAI.vn) – Một nhóm 11 người là nhân viên hiện tại và cựu nhân viên tại các công ty trí tuệ nhân tạo (AI), bao gồm OpenAI do Microsoft hậu thuẫn và Google DeepMind của Alphabet, hôm thứ Ba đã nêu lên mối lo ngại về những rủi ro do AI gây ra.
Một bức thư ngỏ của một nhóm gồm 11 nhân viên hiện tại và cựu nhân viên của OpenAI cùng một nhân viên hiện tại và một cựu nhân viên khác của Google DeepMind cho biết động cơ tài chính của các công ty AI hiện đang cản trở việc giám sát tính hiệu quả và an toàn của công nghệ AI.
Bức thư nói thêm: “Chúng tôi không tin rằng các cấu trúc quản trị doanh nghiệp riêng biệt có thể đủ để thay đổi điều này”.
Bức thư cảnh báo thêm về những rủi ro từ AI không được kiểm soát, từ việc lan truyền thông tin sai lệch đến mất hệ thống AI độc lập và làm sâu sắc thêm sự bất bình đẳng hiện có, có thể dẫn đến “sự tuyệt chủng của loài người”.
Các nhà nghiên cứu đã tìm thấy các ví dụ về trình tạo hình ảnh từ các công ty bao gồm OpenAI và Microsoft tạo ra những bức ảnh có thông tin sai lệch liên quan đến bầu cử, bất chấp các chính sách chống lại nội dung đó.
Bức thư cho biết các công ty AI hiện đang “giới hạn” trong việc chia sẻ thông tin với chính phủ về khả năng và hạn chế của hệ thống của họ, đồng thời nói thêm rằng không thể dựa vào các công ty này để chia sẻ thông tin đó một cách tự nguyện.
Bức thư ngỏ là bức thư mới nhất nêu lên mối lo ngại về an toàn xung quanh công nghệ AI tổng hợp, có thể tạo ra văn bản, hình ảnh và âm thanh giống con người một cách nhanh chóng và rẻ tiền.
Nhóm đã kêu gọi các công ty AI tạo điều kiện thuận lợi cho các nhân viên hiện tại và cựu nhân viên nêu lên những lo ngại liên quan đến rủi ro và không thực thi các thỏa thuận bảo mật cấm chỉ trích.
Cựu nhân viên OpenAI, Daniel Kokotajlo, người đã rời công ty vào đầu năm nay, cho biết trong một tuyên bố bằng văn bản rằng các công ty công nghệ đang “bất chấp những rủi ro và tác động của AI” khi họ chạy đua để phát triển các hệ thống AI tốt hơn con người được gọi là AGI (Artificial General Intelligence).
“Tôi quyết định rời OpenAI vì tôi mất hy vọng rằng họ sẽ hành động có trách nhiệm, đặc biệt khi họ theo đuổi phát triển AGI”, anh viết. “Họ và những người khác đã áp dụng cách tiếp cận ‘di chuyển nhanh và phá vỡ mọi thứ’ và điều đó trái ngược với những gì cần thiết đối với công nghệ mạnh mẽ nhưng lại chưa được hiểu rõ này.”
OpenAI cho biết trong một tuyên bố trả lời bức thư rằng họ đã có các biện pháp để nhân viên bày tỏ mối lo ngại, bao gồm cả đường dây nóng liêm chính ẩn danh.
Tuyên bố của OpenAI cho biết: “Chúng tôi tự hào về thành tích cung cấp các hệ thống AI có khả năng và an toàn nhất, đồng thời tin tưởng vào phương pháp khoa học của chúng tôi để giải quyết rủi ro”. “Chúng tôi đồng ý rằng cuộc tranh luận gay gắt là rất quan trọng vì tầm quan trọng của công nghệ này và chúng tôi sẽ tiếp tục hợp tác với các chính phủ, xã hội dân sự và các cộng đồng khác trên khắp thế giới.”
Bức thư ngỏ trên có sự hỗ trợ của các nhà khoa học AI tiên phong như: Yoshua Bengio và Geoffrey Hinton, những người đã cùng nhau giành được giải thưởng cao nhất về khoa học máy tính và Stuart Russell. Cả ba đều đã cảnh báo về những rủi ro mà các hệ thống AI trong tương lai có thể gây ra cho sự tồn tại của loài người.
Bức thư được đưa ra khi OpenAI cho biết họ đang bắt đầu phát triển thế hệ công nghệ AI tiếp theo đằng sau ChatGPT và thành lập một ủy ban an toàn mới ngay sau khi một nhóm lãnh đạo của công ty này rời đi, bao gồm cả người đồng sáng lập Ilya Sutskever, người từng là thành viên của nhóm tập trung vào phát triển một cách an toàn các hệ thống AI mạnh mẽ nhất. Cộng đồng nghiên cứu AI rộng lớn hơn từ lâu đã đấu tranh về mức độ nghiêm trọng của các rủi ro ngắn hạn và dài hạn của AI cũng như cách giải quyết chúng bằng việc thương mại hóa công nghệ.
(Theo Jaspreet Singh – TheStar)
Phương Uyên