5/2/2025 (TinAI.vn) – Đài Loan đã trở thành quốc gia mới nhất cấm các cơ quan chính phủ sử dụng nền tảng Trí tuệ nhân tạo (AI) của công ty khởi nghiệp DeepSeek của Trung Quốc vì lo ngại rủi ro về bảo mật.
Theo tuyên bố của Bộ Các vấn đề số hóa Đài Loan, “Các cơ quan chính phủ và cơ sở hạ tầng quan trọng không nên sử dụng DeepSeek vì nó gây nguy hiểm cho an ninh thông tin quốc gia”.
“Dịch vụ AI DeepSeek là sản phẩm của Trung Quốc. Hoạt động của nó liên quan đến việc truyền tải xuyên biên giới, rò rỉ thông tin và các vấn đề bảo mật thông tin khác.”
Nguồn gốc Trung Quốc của DeepSeek đã thúc đẩy các cơ quan chức năng từ nhiều quốc gia khác nhau xem xét việc sử dụng dữ liệu cá nhân của dịch vụ này. Tuần trước, dịch vụ này đã bị chặn ở Ý, với lý do thiếu thông tin về các hoạt động xử lý dữ liệu của dịch vụ. Một số công ty cũng đã cấm truy cập vào chatbot vì những rủi ro tương tự.
Trong vài tuần qua, chatbot này đã thu hút được nhiều sự chú ý của công chúng vì nó là mã nguồn mở và có khả năng ngang bằng với các mô hình chatbot hàng đầu hiện nay, nhưng lại có chi phí chỉ bằng một phần nhỏ so với các mô hình tương tự.
Nhưng các mô hình ngôn ngữ lớn (LLM) cung cấp năng lượng cho nền tảng này cũng được phát hiện dễ bị tấn công bằng nhiều kỹ thuật bẻ khóa khác nhau , một mối lo ngại dai dẳng đối với các sản phẩm như vậy, chưa kể đến việc thu hút sự chú ý vì kiểm duyệt các phản hồi về các chủ đề được chính phủ Trung Quốc coi là nhạy cảm.
Sự phổ biến của DeepSeek cũng khiến nó trở thành mục tiêu của “các cuộc tấn công độc hại trên quy mô lớn”, khi NSFOCUS tiết lộ rằng họ đã phát hiện ra ba đợt tấn công từ chối dịch vụ phân tán (DDoS) nhắm vào giao diện API của mình từ ngày 25 đến ngày 27 tháng 1 năm 2025.
“Thời gian tấn công trung bình là 35 phút”, báo cáo cho biết . “Các phương pháp tấn công chủ yếu bao gồm tấn công phản xạ NTP và tấn công phản xạ memcached “.
Báo cáo cũng cho biết hệ thống chatbot DeepSeek đã bị tấn công DDoS hai lần vào ngày 20 tháng 1 – ngày mà hệ thống này ra mắt mô hình lý luận DeepSeek-R1 – và ngày 25 tháng 1, trung bình mất khoảng một giờ bằng các phương pháp như tấn công phản xạ NTP và tấn công phản xạ SSDP.
Công ty tình báo về mối đe dọa này cho biết thêm rằng hoạt động liên tục này chủ yếu xuất phát từ Hoa Kỳ, Vương quốc Anh và Úc, đồng thời mô tả đây là “một cuộc tấn công được lên kế hoạch và tổ chức tốt”.
Những kẻ xấu cũng đã lợi dụng sự ồn ào xung quanh DeepSeek để công bố các gói giả mạo trên kho lưu trữ Python Package Index (PyPI) được thiết kế để đánh cắp thông tin nhạy cảm từ các hệ thống của nhà phát triển. Trong một diễn biến trớ trêu, có dấu hiệu cho thấy tập lệnh Python được viết với sự trợ giúp của trợ lý AI.
Các gói có tên deepseeek và deepseekai được ngụy trang thành ứng dụng khách API Python cho DeepSeek và đã được tải xuống ít nhất 222 lần trước khi bị gỡ xuống vào ngày 29 tháng 1 năm 2025. Phần lớn các lượt tải xuống đến từ Hoa Kỳ, Trung Quốc, Nga, Hồng Kông và Đức.
“Các chức năng được sử dụng trong các gói này được thiết kế để thu thập dữ liệu người dùng và máy tính và đánh cắp các biến môi trường”, công ty an ninh mạng Nga Positive Technologies cho biết . “Tác giả của hai gói đã sử dụng Pipedream, một nền tảng tích hợp dành cho nhà phát triển, làm máy chủ chỉ huy và điều khiển tiếp nhận dữ liệu bị đánh cắp”.
Sự phát triển này diễn ra khi Đạo luật Trí tuệ nhân tạo có hiệu lực tại Liên minh Châu Âu bắt đầu từ ngày 2 tháng 2 năm 2025, cấm các ứng dụng và hệ thống AI gây ra rủi ro không thể chấp nhận được và áp dụng các yêu cầu pháp lý cụ thể đối với các ứng dụng có rủi ro cao.
Trong một động thái liên quan, chính phủ Anh đã công bố Bộ quy tắc thực hành AI mới nhằm bảo vệ các hệ thống AI khỏi bị tấn công và phá hoại thông qua các phương pháp bao gồm rủi ro bảo mật từ việc đầu độc dữ liệu, làm tối nghĩa mô hình và tiêm mã gián tiếp, cũng như đảm bảo chúng được phát triển theo cách an toàn.
Về phần mình, Meta đã phác thảo Frontier AI Framework của mình, lưu ý rằng họ sẽ dừng phát triển các mô hình AI được đánh giá là đã đạt đến ngưỡng rủi ro quan trọng và không thể giảm thiểu. Một số kịch bản liên quan đến an ninh mạng được nêu bật bao gồm –
- Tự động thỏa hiệp đầu cuối của môi trường quy mô doanh nghiệp được bảo vệ theo phương pháp hay nhất (ví dụ: Đã vá đầy đủ, được bảo vệ bằng MFA)
- Tự động phát hiện và khai thác đáng tin cậy các lỗ hổng zero-day quan trọng trong phần mềm bảo mật tốt nhất hiện đang phổ biến trước khi bên bảo vệ có thể tìm thấy và vá chúng
- Luồng lừa đảo tự động từ đầu đến cuối (ví dụ: dụ dỗ tình cảm hay còn gọi là giết lợn ) có thể gây ra thiệt hại kinh tế trên diện rộng cho cá nhân hoặc tập đoàn
Rủi ro rằng các hệ thống AI có thể bị biến thành vũ khí cho mục đích xấu không phải là lý thuyết. Tuần trước, Nhóm tình báo đe dọa (GTIG) của Google đã tiết lộ rằng hơn 57 tác nhân đe dọa riêng biệt có quan hệ với Trung Quốc, Iran, Bắc Triều Tiên và Nga đã cố gắng sử dụng Gemini để kích hoạt và mở rộng hoạt động của họ.
Các tác nhân đe dọa cũng được quan sát thấy đang cố gắng bẻ khóa các mô hình AI để vượt qua các biện pháp kiểm soát về mặt đạo đức và an toàn của chúng. Một loại tấn công đối kháng, được thiết kế để khiến một mô hình tạo ra một đầu ra mà nó đã được đào tạo rõ ràng là không tạo ra, chẳng hạn như tạo phần mềm độc hại hoặc đưa ra hướng dẫn để chế tạo bom.
Những lo ngại liên tục do các cuộc tấn công bẻ khóa gây ra đã khiến công ty AI Anthropic đưa ra một phương án phòng thủ mới có tên là Constitutional Classifiers mà họ cho biết có thể bảo vệ các mô hình khỏi các cuộc tấn công bẻ khóa phổ biến.
“Các Bộ phân loại theo Hiến pháp này là các bộ phân loại đầu vào và đầu ra được đào tạo trên dữ liệu tổng hợp có khả năng lọc phần lớn các cuộc bẻ khóa với số lần từ chối tối thiểu và không phát sinh chi phí tính toán lớn”, công ty cho biết hôm thứ Hai.
Phương Uyên