14/3/2024 (TinAI.vn) – Nghị viện Châu Âu hôm thứ Tư đã bỏ phiếu thông qua Đạo luật AI (the AI Act) rất được mong đợi, đạo luật toàn diện để quản lý trí tuệ nhân tạo trên toàn Liên minh Châu Âu. Được giới thiệu lần đầu tiên vào năm 2021, Đạo luật AI nhằm mục đích cung cấp cách tiếp cận dựa trên rủi ro để điều chỉnh AI mà không cản trở sự đổi mới trên toàn khối 27 quốc gia.
Sau ba năm và 800 lần sửa đổi, đạo luật mang tính bước ngoặt này đã tạo ra những rào cản mới cho việc phát triển và triển khai các hệ thống AI cũng như các công cụ AI khác nhau. Ngoài các yêu cầu mới về tính minh bạch, các quy tắc còn đề cập đến một loạt mối lo ngại liên quan đến bản quyền, sở hữu trí tuệ, quyền riêng tư về dữ liệu, sức khỏe và an toàn cũng như các vấn đề đạo đức khác. Đạo luật AI cũng đề cập đến các nội dung giả mạo sâu do AI tạo ra và nội dung liên quan đến bầu cử sẽ yêu cầu tiết lộ rõ ràng việc dán nhãn hình ảnh, video và âm thanh là do AI tạo ra.
Theo Dragos Tudorache, một thành viên người Bỉ của Nghị viện châu Âu, các nhà lập pháp đã tìm cách “tạo ra những điều kiện thuận lợi” cho các doanh nghiệp châu Âu đồng thời tăng cường bảo vệ công dân. Tại cuộc họp báo trước cuộc bỏ phiếu, Tudorache – người đồng báo cáo về Đạo luật AI cùng với Thành viên Quốc hội Ý Brando Benifei – lưu ý rằng các nhà lập pháp phải đối mặt với việc vận động hành lang nặng nề chống lại các biện pháp minh bạch đối với các quy tắc xung quanh AI và các tài liệu có bản quyền. Trong khi các công ty cố gắng giữ nguyên các mô hình AI “hộp đen”, họ cho biết các nhà lập pháp biết rằng các quy tắc minh bạch về dữ liệu và nội dung sẽ rất quan trọng.
Tudorache nói: “Đó là cách duy nhất để có hiệu lực đối với quyền của các tác giả ngoài kia hoặc bất kể họ là ai – các nhà khoa học hoặc bác sĩ”. “Làm cách nào khác để họ biết liệu công việc của họ có được sử dụng trong một thuật toán đào tạo mà sau đó có khả năng tái tạo hoặc mô phỏng kiểu sáng tạo đó hay không?”
Đạo luật AI được xây dựng bằng cách sử dụng cách tiếp cận dựa trên rủi ro, áp dụng các tiêu chuẩn ngày càng nghiêm ngặt dựa trên nhiều mức độ rủi ro khác nhau. Việc sử dụng “rủi ro cao” bao gồm các hệ thống AI gây nguy hiểm cho sức khỏe và an toàn, bao gồm cả việc sử dụng AI trong các thiết bị y tế, phương tiện, hệ thống nhận dạng cảm xúc và thực thi pháp luật. Nếu hệ thống AI không có khả năng gây tổn hại đến quyền lợi hoặc sự an toàn của công dân EU thì chúng sẽ được phân loại là “rủi ro thấp”. Trong khi các mục đích sử dụng có rủi ro cao có tiêu chuẩn cao hơn về chất lượng dữ liệu, tính minh bạch của AI, sự giám sát của con người và tài liệu, thì các mục đích sử dụng có rủi ro thấp sẽ yêu cầu các công ty thông báo cho người dùng rằng họ đang tương tác với hệ thống AI. Các công ty có hoạt động sử dụng rủi ro thấp cũng sẽ có tùy chọn tự nguyện cam kết tuân thủ các quy tắc ứng xử.
EU cũng đã vạch ra nhiều cách sử dụng khác nhau trong đó hệ thống AI gây ra “rủi ro không thể chấp nhận được” sẽ bị cấm theo Đạo luật AI: Sử dụng AI để chấm điểm tín nhiệm xã hội, thao túng hành vi, cạo hình ảnh không có mục tiêu để nhận dạng khuôn mặt và khai thác các lỗ hổng của công dân bao gồm tuổi tác và khuyết tật.
Theo Benifei, nhiều người châu Âu vẫn còn hoài nghi về AI, đây có thể là “bất lợi cạnh tranh” cản trở sự đổi mới.
Benifei nói: “Chúng tôi muốn công dân của mình biết rằng nhờ các quy tắc của chúng tôi, chúng tôi có thể bảo vệ họ và họ có thể tin tưởng vào các doanh nghiệp sẽ phát triển AI ở Châu Âu và đây là cách hỗ trợ sự đổi mới”. “Lưu ý đến các giá trị cơ bản của chúng tôi, bảo vệ người tiêu dùng hoặc người lao động của công dân, tính minh bạch cho doanh nghiệp đối với các nhà khai thác hạ nguồn.”
Đạo luật AI được đưa ra 8 năm sau khi các nhà lập pháp châu Âu thông qua đạo luật mang tính bước ngoặt về một chủ đề quan trọng khác: quyền riêng tư dữ liệu. Trong khi GDPR tìm cách trang bị thêm cho hệ sinh thái quảng cáo kỹ thuật số vốn đã cố định thì các quy tắc mới dành cho AI đã xuất hiện khi ngành này vẫn còn ở những ngày đầu thành lập.
Các chuyên gia về quyền riêng tư cho biết Đạo luật AI có khả năng giúp nâng cao tiêu chuẩn trên toàn cầu nếu các công ty AI biến EU thành chuẩn mực cho cách họ áp dụng AI trên toàn thế giới.
Joe Jones, người đứng đầu nghiên cứu tại Hiệp hội các chuyên gia về quyền riêng tư quốc tế cho biết: “Điều khác biệt ở đây là chúng ta đang nói về quy định của các hệ thống công nghệ mới”. “Và nó gây ra tranh luận và bình luận về việc bạn đang đi quá nhanh hay quá chậm khi nói đến việc phát triển công nghệ và tác hại của công nghệ.”
Mặc dù cuộc bỏ phiếu ngày hôm qua là một cột mốc quan trọng nhưng đây là một phần của quá trình kéo dài nhiều năm được triển khai trên toàn khối 27 quốc gia. Sau khi Đạo luật AI trở thành luật – có thể là vào cuối mùa xuân – các quốc gia sẽ có sáu tháng để đặt các hệ thống AI bị EU cấm ra ngoài vòng pháp luật. Các quy tắc dành cho chatbot và các công cụ AI khác sẽ có hiệu lực một năm sau đó và cuối cùng có hiệu lực thi hành vào năm 2026. Vi phạm có thể bị phạt 7% doanh thu toàn cầu của công ty hoặc lên tới 35 triệu euro.
Trong một hội thảo trực tuyến vào chiều thứ Tư, các giám đốc điều hành hàng đầu về quyền riêng tư của OpenAI và IBM cho biết điều quan trọng là các công ty phải “quay lại những vấn đề cơ bản” và đảm bảo rằng họ vạch ra chiến lược nội dung và dữ liệu của mình trước khi Đạo luật AI có hiệu lực.
Emma Redmond, trợ lý tổng cố vấn tại OpenAI cho biết: “Tôi thường sử dụng một phép so sánh, một khái niệm mà bạn gần như phải là bậc thầy về kính hiển vi và kính thiên văn. “Bằng kính hiển vi, ý tôi là thực sự cố gắng đánh giá và xem nó là gì trong một tổ chức cụ thể… Đạo luật AI được áp dụng như thế nào dựa trên những gì bạn đang làm hiện tại? Bạn cũng phải nhìn xa trông rộng về những kế hoạch sắp tới và trong tương lai.”
Phương Uyên