11/8/2024 (TinAI.vn) – Sự tích hợp của AI vào các hoạt động tội phạm đã có nhiều sự tiến bộ. Công nghệ Deepfake, được hỗ trợ bởi các mạng đối nghịch tạo sinh (GAN), được sử dụng để tạo ra các bản sao siêu thực về giọng nói và hình ảnh của cá nhân, tạo điều kiện cho việc thông tin sai lệch và thao túng trong các sự kiện có rủi ro cao như bầu cử. AI tăng cường các cuộc tấn công lừa đảo và kỹ thuật xã hội bằng cách phân tích khối lượng lớn dữ liệu để tạo ra nội dung có tính cá nhân hóa và thuyết phục cao, tăng tỷ lệ thành công của các cuộc tấn công này.
Khả năng xử lý và phân tích các tập dữ liệu mở rộng của AI cho phép tội phạm mạng xác định các lỗ hổng hệ thống và mục tiêu có giá trị cao, cho phép thực hiện các cuộc tấn công mạng chính xác và gây thiệt hại. Khả năng này thường được các tổ chức tội phạm lớn và các tác nhân được nhà nước bảo trợ sử dụng, triển khai AI để tự động hóa các giai đoạn do thám và đánh giá lỗ hổng của các hoạt động mạng. Phần mềm độc hại và phần mềm tống tiền do AI điều khiển phát triển động bằng các kỹ thuật như mã đa hình và mã biến hình để tránh các phương pháp phát hiện dựa trên chữ ký truyền thống.
Các thuật toán AI tiên tiến cho phép phần mềm độc hại sửa đổi cấu trúc mã của nó trong khi vẫn giữ nguyên chức năng của nó, do đó tránh bị phát hiện bởi các công cụ phân tích tĩnh. Ngoài ra, các công nghệ sao chép giọng nói khai thác các mô hình học sâu để sao chép các sắc thái giọng nói, cho phép kẻ gian mạo danh giám đốc điều hành và cho phép các giao dịch tài chính trái phép, ví dụ như trường hợp giọng nói của một giám đốc điều hành được sao chép đã dẫn đến vụ trộm 240.000 đô la.
Sự xuất hiện của Tội phạm trí tuệ nhân tạo (AIC) là mối đe dọa đáng kể đối với các chính phủ trên toàn cầu. Trong khi một phân tích hời hợt về thiết kế của một Tác nhân nhân tạo (AA) có thể gợi ý một loại hành vi cụ thể, thì khi triển khai, các tác nhân này thường thể hiện những hành vi phức tạp và không lường trước được hơn, đặc biệt là trong một hệ thống đa tác nhân (MAS). Ví dụ, một đàn rô-bốt có thể phát triển các phương pháp mới để phối hợp các nhiệm vụ dựa trên các quy tắc được lập trình đơn giản. Mặc dù hành vi mới nổi như vậy có thể mang lại kết quả có lợi, nhưng nó cũng ẩn chứa những hàm ý tội phạm tiềm ẩn nếu nó đi chệch khỏi thiết kế và mục đích ban đầu.
Tính không thể đoán trước và tính tự chủ vốn có trong AA mang lại một mức độ trách nhiệm và sự phức tạp nhất định về lòng tin, làm dấy lên mối lo ngại đáng kể về khả năng bị sử dụng sai mục đích trong các hoạt động tội phạm. Trong MAS, sự tương tác giữa nhiều AA có thể dẫn đến hành vi mới nổi không được lập trình rõ ràng. Hiện tượng này được ghi chép đầy đủ trong nhiều nghiên cứu, chứng minh cách các tương tác dựa trên quy tắc đơn giản có thể tạo ra các hành vi phức tạp và không lường trước được trong các bầy robot và các hệ thống AI khác.
Ví dụ, một nghiên cứu của Dorigo và cộng sự (2000) về các thuật toán tối ưu hóa đàn kiến giải thích cách các tác nhân riêng lẻ, tuân theo các quy tắc đơn giản, có thể cùng nhau giải quyết các vấn đề phức tạp. Các thuật toán này, lấy cảm hứng từ hành vi kiếm ăn của loài kiến, chứng minh rằng các hệ thống tự tổ chức, phi tập trung có thể đạt được hiệu quả đáng kể và khả năng giải quyết vấn đề mà không cần kiểm soát tập trung. Tuy nhiên, khi các nguyên tắc này được chuyển sang các tình huống thực tế, hành vi mới nổi có thể đi chệch khỏi các ứng dụng dự định của nó.
Sự sai lệch này gây ra những rủi ro đáng kể, vì nó có thể bị khai thác cho mục đích xấu. Ví dụ, các cơ chế cho phép tối ưu hóa trong hậu cần hoặc định tuyến mạng có thể được những kẻ xấu sử dụng để phối hợp các cuộc tấn công mạng hoặc thực hiện gian lận tự động. Bản chất tự tổ chức của các hệ thống này khiến chúng có khả năng phục hồi và thích ứng, những đặc điểm không may có thể bị lợi dụng để tạo ra các hoạt động tội phạm tinh vi và khó phát hiện, làm nổi bật một lĩnh vực quan trọng mà lợi ích của hành vi mới nổi phải được cân nhắc cẩn thận so với khả năng bị sử dụng sai mục đích.
Trách nhiệm pháp lý là mối quan tâm đáng kể trong bối cảnh AI trong các hoạt động tội phạm, đặc biệt là khi bản chất tự chủ của các hệ thống AI làm suy yếu các mô hình trách nhiệm pháp lý truyền thống và đe dọa đến sức mạnh ngăn chặn và khắc phục của luật pháp. Việc đưa AI vào làm phức tạp việc thiết lập actus reus (hành vi phạm tội) và mens rea (tâm lý tội lỗi) rõ ràng, các thành phần cơ bản của trách nhiệm pháp lý hình sự truyền thống. Các khuôn khổ pháp lý truyền thống được thiết kế xung quanh các tác nhân là con người có hành động và ý định có thể được quan sát, đánh giá và xét xử. Tuy nhiên, các khuôn khổ này phải đối mặt với những thách thức đáng kể khi các hệ thống AI ngày càng được tích hợp nhiều hơn vào các hoạt động tội phạm.
Một khó khăn chính nằm ở việc quy trách nhiệm cho các hệ thống AI. Các quyết định tự chủ do AI đưa ra làm phức tạp việc xác định actus reus tự nguyện, vì những hành động này là kết quả của các thuật toán phức tạp và thường không rõ ràng thay vì sự can thiệp trực tiếp của con người. Sự phức tạp của các thuật toán này có thể che khuất chuỗi hành động nhân quả, khiến việc xác định trách nhiệm trở nên khó khăn. Ngoài ra, yếu tố mens rea là vấn đề vì các hệ thống AI hoạt động mà không có ý thức và ý định giống con người. Các khái niệm truyền thống về tội lỗi và khả năng phạm tội bắt nguồn từ tâm lý và chủ ý của con người, mà các hệ thống AI vốn không có.
Sự thiếu chủ đích này đặt ra những câu hỏi quan trọng về cách các hệ thống pháp luật sẽ thích ứng với hành vi phạm tội mới liên quan đến AI. Sự mơ hồ trong trách nhiệm pháp lý đòi hỏi phải đánh giá lại toàn diện các luật hiện hành và phát triển các nguyên tắc pháp lý mới. Các học giả pháp lý và nhà hoạch định chính sách phải xem xét liệu các hệ thống AI có thể chịu trách nhiệm hay trách nhiệm nên được mở rộng cho các nhà phát triển, nhà điều hành hoặc người dùng các hệ thống này. Hơn nữa, trách nhiệm pháp lý nghiêm ngặt, trong đó trách nhiệm được giao bất kể ý định, có thể cần được khám phá trong bối cảnh các hành vi phạm tội liên quan đến AI.
Những thách thức về mặt kỹ thuật được kết hợp bởi tốc độ phát triển nhanh chóng của AI, thường vượt xa khả năng thích ứng của các khuôn khổ pháp lý. Đảm bảo rằng luật pháp ngăn chặn và giải quyết hiệu quả các hoạt động tội phạm liên quan đến AI đòi hỏi một cách tiếp cận đa ngành, kết hợp các hiểu biết từ khoa học máy tính, đạo đức và luật pháp. Người ta cũng nên lưu ý rằng các quy định trước cho một hệ thống mà người ta biết rất ít về nó sẽ trở nên khó khăn.
Hơn nữa, việc giám sát AIC liên quan đến những thách thức đáng kể liên quan đến việc quy kết, tính khả thi và hành động liên hệ thống. Bản chất độc lập và tự chủ của AI làm mờ ranh giới trách nhiệm, khiến việc truy tìm hành động ngược về thủ phạm là con người trở nên khó khăn. Tốc độ và mức độ phức tạp mà AA hoạt động thường vượt quá khả năng của các giám sát viên tuân thủ. Việc tích hợp chúng vào các hệ thống nhân tạo-con người hỗn hợp làm phức tạp thêm các nỗ lực phát hiện.
Nghiên cứu của Brundage và cộng sự (2018) giải thích sự khó khăn trong việc quy kết hành động cho các AI cụ thể trong môi trường mạng. Nghiên cứu nhấn mạnh rằng AI có thể hoạt động tự động trên nhiều hệ thống khác nhau, khiến việc xác định nguồn gốc của hành vi phạm tội trở nên khó khăn. Những tiến bộ nhanh chóng cản trở tính khả thi của việc giám sát các hệ thống như vậy trong công nghệ AI, vượt xa sự phát triển của các công cụ giám sát tương ứng.
Các hệ thống AI ngày càng được sử dụng nhiều hơn trong an ninh mạng để phát hiện và ứng phó với các mối đe dọa. Tuy nhiên, khi AI phòng thủ phát triển, thì AI tấn công do kẻ tấn công sử dụng cũng vậy. Tội phạm có thể tận dụng AI để trốn tránh phát hiện, tạo phần mềm độc hại tinh vi và tự động hóa các cuộc tấn công ở quy mô và tốc độ chưa từng có. Động thái này tạo ra một cuộc chạy đua vũ trang liên tục, với mỗi bên liên tục thích ứng với những tiến bộ của bên kia.
Học máy cho phép AI tăng cường hiệu suất theo từng bước bằng cách tận dụng dữ liệu và kinh nghiệm lịch sử. Khả năng học thích ứng này ngụ ý rằng một AI tham gia vào các hoạt động bất hợp pháp có thể cải thiện dần dần các phương pháp luận của mình bằng cách phân tích các hành động trong quá khứ. Ví dụ, một hệ thống AI được thiết kế để thực hiện gian lận tài chính có thể sử dụng các thuật toán học không giám sát để xác định chiến lược nào trốn tránh các cơ chế phát hiện, chẳng hạn như hệ thống gắn cờ và thuật toán phát hiện bất thường được các tổ chức tài chính sử dụng.
Bằng cách liên tục tinh chỉnh cách tiếp cận của mình thông qua học tăng cường, AI này có thể điều chỉnh hành vi của mình để khai thác các lỗ hổng hệ thống hiệu quả hơn, do đó ngày càng trở nên tinh vi và khó nắm bắt hơn theo thời gian. Điều này đặt ra một thách thức đáng kể cho các chuyên gia an ninh mạng, những người phải dự đoán và chống lại bối cảnh mối đe dọa không ngừng phát triển do các đối thủ AI tự tối ưu hóa thúc đẩy.
Bản chất liên kết của các hệ thống AI hiện đại, thường giao tiếp với nhiều hệ thống AI và không phải AI khác, làm phức tạp thêm việc phát hiện và giảm thiểu các hoạt động độc hại. Các hành động có vẻ vô hại trong một bối cảnh hệ thống có thể góp phần tạo nên chuỗi sự kiện độc hại lớn hơn khi kết hợp với các hành động khác trong các hệ thống khác nhau. Ví dụ, một AI được giao nhiệm vụ tối ưu hóa mức tiêu thụ năng lượng trong một tòa nhà thông minh có thể bị chiếm đoạt thông qua các cuộc tấn công đối kháng để tạo ra các sự cố liên hoàn trong lưới điện. Thách thức nằm ở việc phát triển các công cụ giám sát toàn diện có khả năng theo dõi các tương tác phức tạp giữa các hệ thống này để xác định và giảm thiểu các mối đe dọa tiềm ẩn.
Các kỹ thuật tiên tiến, chẳng hạn như phân tích hệ thống đa tác nhân và phát hiện dị thường dựa trên đồ thị, là điều cần thiết để lập bản đồ mạng lưới phức tạp của các mối phụ thuộc và tương tác. Tuy nhiên, tính không rõ ràng vốn có của nhiều quy trình ra quyết định AI, được gọi là vấn đề “hộp đen”, làm trầm trọng thêm vấn đề này bằng cách che khuất lý do đằng sau các hành động của AI, khiến việc xác định nguồn gốc của hành vi độc hại và phân công trách nhiệm một cách phù hợp trở nên khó khăn.
Để giải quyết những thách thức do AI gây ra trong các hoạt động tội phạm, cần có một cách tiếp cận đa diện, kết hợp các chiến lược pháp lý, đạo đức và kỹ thuật. Đầu tiên, hợp tác quốc tế là rất quan trọng. Các quốc gia phải hợp tác để thiết lập các chuẩn mực và quy định chung cho việc phát triển và sử dụng AI. Điều này bao gồm việc tạo ra các tiêu chuẩn toàn cầu về tính minh bạch, trách nhiệm giải trình và thiết kế đạo đức. Các tiêu chuẩn như vậy sẽ đảm bảo các hệ thống AI được xây dựng với các biện pháp bảo vệ để ngăn chặn việc sử dụng sai mục đích và các cơ chế để theo dõi và vô hiệu hóa AI tham gia vào các hoạt động tội phạm. Việc thành lập một cơ quan giám sát hoặc quản lý toàn cầu có thể giúp thực thi các tiêu chuẩn này và phối hợp các phản ứng đối với các mối đe dọa liên quan đến AI.
Ngoài ra, cần có một khuôn khổ pháp lý được sửa đổi để xử lý sự phức tạp của các tội phạm liên quan đến AI. Khuôn khổ này nên xem xét những thách thức độc đáo của việc quy trách nhiệm trong các tội phạm liên quan đến AI, hướng tới các mô hình xem xét vai trò của tất cả các bên liên quan trong vòng đời AI, từ nhà thiết kế và lập trình viên đến người dùng cuối. Điều này có thể bao gồm các loại trách nhiệm mới đối với những người thiết kế hoặc triển khai AI có khả năng hoạt động tội phạm một cách cẩu thả. Các hệ thống pháp lý phải đủ linh hoạt để thích ứng với bản chất phát triển nhanh chóng của các công nghệ AI, có thể kết hợp AI để giúp giám sát và thực thi luật pháp. Việc xây dựng các hướng dẫn rõ ràng về trách nhiệm giải trình và trách nhiệm sẽ rất quan trọng trong việc giảm thiểu khả năng sử dụng sai mục đích của AI.
Về mặt kỹ thuật, đầu tư vào nghiên cứu và phát triển các hệ thống AI có thể phát hiện, giảm thiểu và chống lại các hoạt động AI tội phạm là rất quan trọng. Điều này bao gồm phát triển các công cụ giám sát tiên tiến có thể hiểu và dự đoán hành vi AI và các hệ thống có thể tự động chống lại các hành động AI độc hại theo thời gian thực. Giáo dục và nhận thức cũng là chìa khóa; các bên liên quan ở mọi cấp độ, từ nhà phát triển đến công chúng nói chung, phải được thông báo về tiềm năng và rủi ro của AI.
Cuối cùng, việc thúc đẩy văn hóa AI có đạo đức là điều cần thiết. Khuyến khích các nhà phát triển và người dùng tuân thủ các nguyên tắc đạo đức và xem xét tác động xã hội của AI có thể giúp ngăn chặn việc sử dụng sai mục đích. Bằng cách kết hợp các chiến lược pháp lý, kỹ thuật và đạo đức này, cộng đồng toàn cầu có thể hướng tới một tương lai mà AI được sử dụng một cách có trách nhiệm và có lợi, giảm thiểu khả năng sử dụng cho mục đích tội phạm.
Phương Uyên