Nghịch lý AI: Công cụ tiên tiến của tương lai có thể trở thành mối đe dọa an ninh mạng
AI đang thay đổi cách các doanh nghiệp hoạt động. Mặc dù phần lớn sự thay đổi này là tích cực, nhưng nó cũng mang đến một số lo ngại về an ninh mạng độc đáo. Các ứng dụng AI thế hệ tiếp theo như AI tác nhân đặt ra một rủi ro đặc biệt đáng chú ý đối với tình hình an ninh của các tổ chức.
AI tác nhân là gì?
AI tác nhân đề cập đến các mô hình AI có thể hoạt động tự chủ, thường tự động hóa toàn bộ vai trò mà ít hoặc không cần sự can thiệp của con người. Các chatbot nâng cao là một trong những ví dụ nổi bật nhất, nhưng các tác nhân AI cũng có thể xuất hiện trong các ứng dụng như trí tuệ doanh nghiệp, chẩn đoán y tế và điều chỉnh bảo hiểm.
Trong tất cả các trường hợp sử dụng, công nghệ này kết hợp các mô hình tạo sinh, xử lý ngôn ngữ tự nhiên (NLP) và các chức năng học máy (ML) khác để thực hiện các tác vụ đa bước một cách độc lập. Rõ ràng có thể thấy giá trị của một giải pháp như vậy. Có thể hiểu được, Gartner dự đoán rằng một phần ba tổng số tương tác AI tạo sinh sẽ sử dụng các tác nhân này vào năm 2028.
Các rủi ro an ninh độc đáo của AI tác nhân
Việc ứng dụng AI tác nhân sẽ tăng vọt khi các doanh nghiệp tìm cách hoàn thành một loạt các tác vụ lớn hơn mà không cần lực lượng lao động lớn hơn. Tuy hứa hẹn là vậy, nhưng việc trao cho một mô hình AI quá nhiều quyền lực lại có những hệ lụy nghiêm trọng về an ninh mạng.
Các tác nhân AI thường yêu cầu quyền truy cập vào lượng lớn dữ liệu. Do đó, chúng là mục tiêu hàng đầu của tội phạm mạng, vì kẻ tấn công có thể tập trung nỗ lực vào một ứng dụng duy nhất để phơi bày một lượng thông tin đáng kể. Nó sẽ có tác động tương tự như tấn công cá voi — dẫn đến thiệt hại 12,5 tỷ đô la chỉ riêng trong năm 2021 — nhưng có thể dễ dàng hơn, vì các mô hình AI có thể dễ bị tổn thương hơn so với các chuyên gia giàu kinh nghiệm.
Tính tự chủ của AI tác nhân là một mối lo ngại khác. Mặc dù tất cả các thuật toán ML đều có một số rủi ro, nhưng các trường hợp sử dụng thông thường yêu cầu sự cho phép của con người để làm bất cứ điều gì với dữ liệu của chúng. Mặt khác, các tác nhân có thể hành động mà không cần sự cho phép. Do đó, bất kỳ sự phơi bày quyền riêng tư vô tình hoặc sai sót như ảo giác AI có thể lọt qua mà không ai nhận thấy.
Sự thiếu giám sát này khiến các mối đe dọa AI hiện có như làm nhiễm độc dữ liệu trở nên nguy hiểm hơn. Kẻ tấn công có thể làm hỏng một mô hình chỉ bằng cách thay đổi 0,01% tập dữ liệu huấn luyện của nó, và việc đó có thể thực hiện được với mức đầu tư tối thiểu. Điều đó gây tổn hại trong bất kỳ bối cảnh nào, nhưng các kết luận sai của một tác nhân bị nhiễm độc sẽ lan xa hơn nhiều so với một tác nhân mà con người xem xét kết quả đầu ra trước.
Làm thế nào để cải thiện an ninh mạng cho tác nhân AI
Trước những mối đe dọa này, các chiến lược an ninh mạng cần phải thích ứng trước khi các doanh nghiệp triển khai các ứng dụng AI tác nhân. Dưới đây là bốn bước quan trọng để đạt được mục tiêu đó.
1. Tối đa hóa khả năng hiển thị
Bước đầu tiên là đảm bảo các nhóm bảo mật và vận hành có khả năng hiển thị đầy đủ quy trình làm việc của một tác nhân AI. Mọi tác vụ mà mô hình hoàn thành, mỗi thiết bị hoặc ứng dụng mà nó kết nối và tất cả dữ liệu mà nó có thể truy cập đều phải rõ ràng. Việc tiết lộ các yếu tố này sẽ giúp dễ dàng phát hiện ra các lỗ hổng tiềm ẩn.
Có thể cần các công cụ ánh xạ mạng tự động ở đây. Chỉ 23% lãnh đạo CNTT cho biết họ có khả năng hiển thị đầy đủ vào môi trường đám mây của mình và 61% sử dụng nhiều công cụ phát hiện, dẫn đến các bản ghi trùng lặp. Quản trị viên phải giải quyết những vấn đề này trước để có được cái nhìn cần thiết về những gì các tác nhân AI của họ có thể truy cập.
Áp dụng nguyên tắc đặc quyền tối thiểu
Khi đã rõ tác nhân có thể tương tác với những gì, các doanh nghiệp phải hạn chế các đặc quyền đó. Nguyên tắc đặc quyền tối thiểu — quy định rằng bất kỳ thực thể nào chỉ có thể xem và sử dụng những gì nó hoàn toàn cần — là rất cần thiết.
Bất kỳ cơ sở dữ liệu hoặc ứng dụng nào mà một tác nhân AI có thể tương tác đều là một rủi ro tiềm ẩn. Do đó, các tổ chức có thể giảm thiểu các bề mặt tấn công liên quan và ngăn chặn sự di chuyển ngang bằng cách hạn chế các quyền này càng nhiều càng tốt. Bất cứ điều gì không đóng góp trực tiếp vào mục đích tạo ra giá trị của AI đều không được phép.
Hạn chế thông tin nhạy cảm
Tương tự, quản trị viên mạng có thể ngăn chặn các vi phạm quyền riêng tư bằng cách xóa các chi tiết nhạy cảm khỏi các tập dữ liệu mà AI tác nhân của họ có thể truy cập. Nhiều công việc của các tác nhân AI liên quan đến dữ liệu riêng tư một cách tự nhiên. Hơn 50% chi tiêu cho AI tạo sinh sẽ dành cho chatbot, có thể thu thập thông tin về khách hàng. Tuy nhiên, không phải tất cả các chi tiết này đều cần thiết.
Mặc dù một tác nhân nên học hỏi từ các tương tác khách hàng trước đây, nhưng nó không cần lưu trữ tên, địa chỉ hoặc chi tiết thanh toán. Lập trình hệ thống để loại bỏ thông tin nhận dạng cá nhân không cần thiết khỏi dữ liệu có thể truy cập bằng AI sẽ giảm thiểu thiệt hại trong trường hợp xảy ra vi phạm.
Theo dõi hành vi đáng ngờ
Các doanh nghiệp cũng cần cẩn thận khi lập trình AI tác nhân. Áp dụng nó vào một trường hợp sử dụng nhỏ, đơn lẻ trước và sử dụng một nhóm đa dạng để xem xét mô hình về các dấu hiệu của sự thiên vị hoặc ảo giác trong quá trình đào tạo. Khi đến lúc triển khai tác nhân, hãy triển khai nó từ từ và theo dõi nó để phát hiện các hành vi đáng ngờ.
Khả năng phản hồi theo thời gian thực là rất quan trọng trong việc giám sát này, vì những rủi ro của AI tác nhân có nghĩa là bất kỳ vi phạm nào cũng có thể gây ra hậu quả nghiêm trọng. May mắn thay, các giải pháp phát hiện và phản hồi tự động có hiệu quả cao, tiết kiệm trung bình 2,22 triệu đô la chi phí vi phạm dữ liệu. Các tổ chức có thể mở rộng các tác nhân AI của mình từ từ sau một thử nghiệm thành công, nhưng họ phải tiếp tục giám sát tất cả các ứng dụng.
Khi an ninh mạng tiến bộ, các chiến lược an ninh mạng cũng phải tiến bộ
Sự tiến bộ nhanh chóng của AI mang lại nhiều hứa hẹn cho các doanh nghiệp hiện đại, nhưng rủi ro an ninh mạng của nó cũng đang tăng lên nhanh chóng. Các biện pháp phòng thủ trên mạng của các doanh nghiệp phải tăng cường và phát triển cùng với các trường hợp sử dụng AI tạo sinh. Việc không theo kịp những thay đổi này có thể gây ra thiệt hại lớn hơn lợi ích của công nghệ.
AI tác nhân sẽ đưa ML lên một tầm cao mới, nhưng điều tương tự cũng áp dụng cho các lỗ hổng liên quan. Mặc dù điều đó không làm cho công nghệ này quá nguy hiểm để đầu tư, nhưng nó cần thận trọng hơn. Các doanh nghiệp phải tuân theo các bước bảo mật cần thiết này khi triển khai các ứng dụng AI mới.
Zac Amos là biên tập viên tính năng tại ReHack.
DataDecisionMakers
Chào mừng bạn đến với cộng đồng VentureBeat!
DataDecisionMakers là nơi các chuyên gia, bao gồm cả những người kỹ thuật thực hiện công việc liên quan đến dữ liệu, có thể chia sẻ những hiểu biết sâu sắc và đổi mới liên quan đến dữ liệu.
Nếu bạn muốn đọc về những ý tưởng tiên tiến và thông tin cập nhật, các phương pháp hay nhất cũng như tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia cùng chúng tôi tại DataDecisionMakers.
Bạn có thấy hữu ích không? Hãy cho chúng tôi +1 nhé
Đăng ký nhận bản tin từ Website TXL
Tìm kiếm tức thì các thông tin tại website: tranxuanloc.com
Mẹo tìm kiếm: "Từ khóa cần tìm kiếm" site:tranxuanloc.com để tìm được kết quả chính xác trên công cụ tìm kiếm của googleGỢI Ý: Khóa học sales OTAOTA là gìđăng ký kênh OTAEmail theo tên miềnCRMWP Content Crawlerchuyển VPSACF
