Sự phát triển nhanh chóng của các công cụ trí tuệ nhân tạo (AI) mới sẽ làm gia tăng các cuộc tấn công mạng khi những vấn đề liên quan đến dữ liệu đầu vào của AI có thể tạo kẽ hở để những kẻ tấn công mạng ít kỹ năng có thể dễ dàng tấn công và gây thiệt hại.
Đó là cảnh báo mà Trung tâm An ninh mạng quốc gia (NCSC) thuộc Cơ quan tình báo của Chính phủ Anh (GCHQ) đưa ra ngày 24/1.
Trong báo cáo của mình, NCSC cho rằng sự bùng nổ của các mô hình AI mới gần như chắc chắn sẽ làm tăng số lượng và mức độ tác động mà các cuộc tấn công mạng gây ra trong hai năm tới. Trong đó, tác động lớn nhất là việc tin tặc lợi dụng sự phát triển của các mô hình AI mới để tăng cường khả năng tấn công mạng mà không cần sử dụng những kỹ năng cần thiết. Theo trung tâm này, việc giảm bớt rào cản đối với quá trình nhập dữ liệu đầu vào cho các công cụ AI mới có thể tạo kẽ hở để tin tặc gia tăng các cuộc tấn công bằng mã độc tống tiền (ransomware) trên phạm vi toàn cầu.
Ở cấp độ thấp nhất, các công cụ AI tạo sinh, chẳng hạn các công cụ trò chuyện (chatbot) được hỗ trợ AI, có thể tạo ra thư điện tử hoặc tài liệu có tính thuyết phục hơn và những tài liệu này lại được dùng trong các chiến dịch lừa đảo trực tuyến.
Ở cấp độ cao hơn, tin tặc có năng lực cao hơn và thường được chính phủ hậu thuẫn có thể tận dụng tiềm năng của AI để tiến hành các cuộc tấn công mạng nhằm vào các hệ thống của cơ quan, tổ chức và cá nhân.
Sự phát triển mạnh mẽ của các mô hình ngôn ngữ lớn (LLM) chẳng hạn như công cụ trò chuyện ChatGPT của OpenAI đang làm dấy lên quan ngại về sự gia tăng những vấn đề an ninh tiềm ẩn liên quan đến mô hình công nghệ mới này. Nhờ thuật toán và dữ liệu đầu vào khổng lồ, những mô hình này có thể tạo văn bản và thực hiện các tác vụ xử lý ngôn ngữ khác nhau giống như con người tạo ra.
Hiện cơ quan an ninh của nhiều nước trên thế giới đang tìm cách ứng phó trước những nguy cơ an ninh tiềm ẩn mà những mô hình AI mới có thể gây ra. Các cơ quan chức năng của Anh, Mỹ và Canada cho biết đã ghi nhận các trường hợp tin tặc lợi dụng công nghệ AI mới nói trên.
(Theo Baotintuc.vn)