OpenAI làm rõ rằng chính sách sử dụng AI của họ không cho phép sử dụng các công cụ để gây hại, phát triển vũ khí, giám sát thông tin liên lạc hoặc làm bị thương người khác hoặc phá hủy tài sản, nhưng vẫn cho phép sử dụng AI trong các trường hợp an ninh quốc gia phù hợp với sứ mệnh của nó.
OpenAI đã âm thầm thực hiện những thay đổi đối với chính sách sử dụng AI của mình, xóa bỏ lệnh cấm sử dụng công nghệ của mình để “phát triển vũ khí”, “quân sự và chiến tranh”. Trang chính sách được viết lại cho biết rằng những thay đổi đã được thực hiện đối với tài liệu để làm cho nó “rõ ràng hơn” và “dễ đọc hơn”. Kể từ đó, từ “rõ ràng hơn” đã được thay thế bằng “hướng dẫn bổ sung dành riêng cho từng dịch vụ“.
Những thay đổi này lần đầu tiên được công khai thông qua một báo cáo của The Intercept, trong đó lưu ý rằng những thay đổi đối với chính sách sử dụng AI của OpenAI được thực hiện lần đầu tiên vào ngày 10 tháng 1. Báo cáo lưu ý rằng chính sách sử dụng của OpenAI ban đầu bao gồm lệnh cấm sử dụng công nghệ này cho bất kỳ “hoạt động nào”. có nguy cơ gây tổn hại vật chất cao”, bao gồm “phát triển vũ khí” và “quân sự và chiến tranh”.
Tuy nhiên, chính sách OpenAI mới, trong khi vẫn giữ nguyên cụm từ “sử dụng dịch vụ của chúng tôi để làm hại chính bạn hoặc người khác”, đã bãi bỏ lệnh cấm sử dụng công nghệ của nó cho mục đích quân sự và chiến tranh trước đây. Hơn nữa, công ty tiếp tục cấm sử dụng công nghệ của mình để “phát triển vũ khí”.
Trong một tuyên bố về chính sách sử dụng AI của TechCrunch – một công ty khởi nghiệp về trí tuệ nhân tạo cho biết “Chính sách của chúng tôi không cho phép sử dụng các công cụ của chúng tôi để làm hại con người, phát triển vũ khí, giám sát thông tin liên lạc hoặc làm bị thương người khác hoặc phá hủy tài sản. Tuy nhiên, có những trường hợp sử dụng an ninh quốc gia phù hợp với sứ mệnh của chúng tôi. Ví dụ: chúng tôi đang làm việc với Defense Advanced Research Projects Agency – DARPA, là một cơ quan của Bộ Quốc phòng Mỹ, chịu trách nhiệm phát triển các công nghệ tiên tiến mới dùng cho quân đội để thúc đẩy việc tạo ra các công cụ an ninh mạng mới nhằm bảo mật phần mềm nguồn mở mà cơ sở hạ tầng quan trọng và ngành công nghiệp đang cần.”
“Không rõ liệu các trường hợp sử dụng có lợi này có được cho phép theo “quân sự” trong các chính sách trước đây của chúng tôi hay không. Vì vậy, mục tiêu của bản cập nhật chính sách của chúng tôi là mang lại sự rõ ràng và khả năng tiến hành các cuộc thảo luận này.” tuyên bố nói thêm.
Những lo ngại về tác động bất lợi của AI, đặc biệt là trong việc tiến hành chiến tranh và các nguyên nhân liên quan khác, là điểm khiến nhiều chuyên gia trên thế giới quan tâm. Những lo ngại này càng trở nên trầm trọng hơn sau sự ra đời các công nghệ AI tổng quát như ChatGPT của OpenAI , Bard của Google và những công nghệ còn lại đã vượt quá giới hạn mà AI có thể đạt được.
Trong một cuộc phỏng vấn với tạp chí Wired năm ngoái, cựu Giám đốc điều hành Google – Eric Schmidt đã so sánh hệ thống trí tuệ nhân tạo với sự ra đời của vũ khí hạt nhân trước Thế chiến thứ hai. Schmidt nói, “Thỉnh thoảng, một loại vũ khí mới, một công nghệ mới xuất hiện làm thay đổi mọi thứ. Einstein đã viết một lá thư cho Roosevelt vào những năm 1930 nói rằng có một công nghệ mới – vũ khí hạt nhân – có thể thay đổi chiến tranh, điều đó rõ ràng là nó đã làm được. Tôi cho rằng quyền tự chủ và các hệ thống phân tán, phi tập trung được hỗ trợ bởi AI sẽ có sức mạnh mạnh rất ghê ghớm.”
Tố Uyên