30/6/2024 (TinAI.vn) – Một khuôn khổ dựa trên phương pháp “đèn đỏ, đèn vàng, đèn xanh” có thể giúp các doanh nghiệp xây dựng việc quản trị và ra quyết định về cách sử dụng AI an toàn.
Mặc dù dễ bị cuốn vào nhiều lời hứa hẹn của trí tuệ nhân tạo (AI), nhưng vẫn có những lo ngại ngày càng tăng về tính an toàn và thiên vị của nó. Các thuật toán y tế đã thể hiện sự thiên vị tác động đến những nhóm dân số yếu thế , cũng như các công cụ tuyển dụng được hỗ trợ bởi AI hay việc nhận dạng khuôn mặt AI…
Những kịch bản này nêu bật tầm quan trọng của việc thực hiện cách tiếp cận chủ động trong quản trị AI để tạo tiền đề cho kết quả tích cực. Theo Dominique Shelton Leipzig , đối tác tại Mayer Brown, người đứng đầu hoạt động đổi mới dữ liệu toàn cầu của công ty luật, mặc dù một số công nghệ có thể được triển khai và xem xét lại định kỳ, nhưng AI có trách nhiệm đòi hỏi cách tiếp cận quản trị thực tế hơn. Quản trị AI nên bắt đầu ở giai đoạn phát triển sớm nhất và được củng cố bằng việc chăm sóc và đánh giá liên tục.
Shelton Leipzig cho biết tại hội nghị EmTech MIT gần đây , do MIT Technology Review tổ chức: “Việc sớm áp dụng quản trị AI đảm bảo bạn có thể nắm bắt được những thứ vấn đề rủi ro như rò rỉ dữ liệu hay AI có thể mở ra các cuộc tấn công mạng… Bằng cách đó, bạn đã bảo vệ thương hiệu của mình và có cơ hội tạo dựng niềm tin với khách hàng, nhân viên và đối tác kinh doanh.”
Shelton Leipzig, tác giả của cuốn sách “ Trust: Responsible AI, Innovation, Privacy and Data Leadership ”, đã phác thảo một khuôn khổ để đánh giá và giải quyết rủi ro AI dựa trên các bản thảo đầu tiên của luật được đề xuất trên toàn thế giới.
Cột mốc chỉ dẫn đèn đỏ, đèn vàng và đèn xanh
Shelton Leipzig cho biết, chính phủ của 78 quốc gia trên sáu lục địa đã làm việc với các nhà khoa học nghiên cứu và những chuyên gia để xây dựng dự thảo luật nhằm đảm bảo AI an toàn, mặc dù công việc vẫn đang tiến triển. Tuy nhiên, khi các công ty tiến hành các sáng kiến AI và quản trị phù hợp, họ cần phân loại mức độ rủi ro cho các trường hợp sử dụng AI dự định của mình. Cô đề xuất khung đèn đỏ, đèn vàng và đèn xanh, dựa trên luật đề xuất, để giúp các công ty hợp lý hóa việc quản lý và ra quyết định về AI.
Các trường hợp sử dụng đèn đỏ (bị cấm): Khung pháp lý đã xác định 15 trường hợp cần cấm AI. Ví dụ: AI không nên đóng vai trò giám sát liên quan đến việc thực hiện các giá trị dân chủ như bỏ phiếu hoặc giám sát liên tục trong không gian công cộng. Việc giám sát sinh trắc học từ xa cũng bị phản đối, cũng như tính điểm xã hội, chẳng hạn như hoạt động truyền thông xã hội có thể được sử dụng như một phần của việc ra quyết định về khoản vay hoặc bảo hiểm. Shelton Leipzig cho biết: “Chính phủ không muốn các công ty tư nhân làm điều này vì có nguy cơ gây ra quá nhiều thiệt hại”.
Các trường hợp sử dụng được bật đèn xanh (rủi ro thấp): Shelton Leipzig cho biết những trường hợp này, chẳng hạn như việc sử dụng AI trong chatbot, dịch vụ khách hàng nói chung, đề xuất sản phẩm hoặc trò chơi điện tử, thường được coi là trò chơi công bằng và có ít rủi ro thiên vị hoặc các yếu tố an toàn khác. Nhiều ví dụ trong số này đã được sử dụng an toàn trong nhiều năm.
Các trường hợp sử dụng đèn vàng (rủi ro cao): Hầu hết các loại AI đều thuộc loại này. Những trường hợp này là lúc hầu hết các công ty gặp rủi ro và việc quản trị được đưa vào thử thách. Shelton Leipzig cho biết có gần 140 ví dụ về các trường hợp AI vượt đèn vàng, bao gồm sử dụng AI trong các ứng dụng nhân sự, kế hoạch hóa và chăm sóc gia đình, giám sát, dân chủ và sản xuất. Đánh giá mức độ tín nhiệm, quản lý danh mục đầu tư hoặc bảo lãnh phát hành các công cụ tài chính chỉ là một vài ví dụ về việc sử dụng AI có rủi ro cao cho các ứng dụng tài chính.
Cách điều hướng AI có rủi ro cao
Khi một trường hợp sử dụng được xác định thuộc danh mục rủi ro cao/cảnh báo, các công ty nên thực hiện các biện pháp phòng ngừa sau đây, được rút ra từ Đạo luật Trí tuệ nhân tạo của Liên minh Châu Âu và tài liệu kỹ thuật bổ sung của “Kế hoạch cho Dự luật về Quyền của AI” của Nhà Trắng :
Đảm bảo có dữ liệu chính xác, chất lượng cao: Dữ liệu phải chính xác, tổ chức phải có quyền sử dụng dữ liệu và tài liệu phải có sự liên quan.
Chấp nhận thử nghiệm liên tục: Các tổ chức cần cam kết thử nghiệm liên tục trước và sau khi triển khai để phát hiện độ chính xác và sai lệch thuật toán nhằm đảm bảo an toàn, ngăn ngừa vi phạm quyền riêng tư hoặc an ninh mạng và đảm bảo tuân thủ. Shelton Leipzig cho biết: “AI cần được theo dõi vì nó có thể gây ảo giác”. “Bạn không muốn chờ đợi một tiêu đề xuất hiện và công ty của bạn bị ảnh hưởng bởi các nỗ lực của AI. Chúng ta có thể vượt lên trước bằng cách chỉ cần liên tục thử nghiệm, giám sát và kiểm tra”.
Cho phép con người giám sát: Nếu các bước trước đó cho thấy có những sai lệch so với mong đợi, hãy huy động con người để điều chỉnh mô hình và giảm thiểu rủi ro.
Tạo các biện pháp an toàn: Công ty cần phải làm rõ rằng trường hợp sử dụng AI sẽ bị tạm dừng nếu những sai lệch không thể được khắc phục một cách hiệu quả.
Mặc dù luật bảo vệ AI vẫn đang thay đổi, Shelton Leipzig đã cảnh báo các công ty không nên trì hoãn việc áp dụng các bước quản trị quan trọng này. Quản trị AI là một môn thể thao đồng đội, và các bên liên quan và thành viên nhóm phù hợp cần phải tham gia, và hội đồng quản trị, cố vấn chung và giám đốc điều hành phải được thông báo ở mọi bước.
Shelton Leipzig cho biết: “Thay vì chờ đợi cho đến khi luật được hoàn thiện, có thể là trong vài năm nữa, thì không cần phải xây dựng AI mà không có những rào cản này”. Chúng cho phép các công ty có thể nhìn thấy những gì đang diễn ra và đảm bảo rằng những nỗ lực AI của họ đáp ứng được kỳ vọng mà không bị phạt hay gây tổn hại đến thương hiệu hoặc danh tiếng của họ.