(NLĐO) – Khi AI trở nên ngày càng dễ tiếp cận, ngày càng có nhiều người dùng cá nhân và doanh nghiệp sử dụng AI thông qua các công cụ phổ thông. AI có khả năng đáp ứng nhiều tác vụ trong các lĩnh vực khác nhau, bao gồm sáng tạo nội dung cho đến lập trình bằng ngôn ngữ tự nhiên. Trên thực tế, việc AI trở nên dễ tiếp cận đã “mở cửa” cho các cuộc tấn công mạng tinh vi. Tin tặc có thể tự động hóa các cuộc tấn công, đẩy nhanh quy trình vận hành, triển khai nhiều chiến dịch phức tạp hơn để đạt được mục đích phi pháp.
AI – Công cụ đầy tiềm năng
Sau đây là những hình thức tấn công mà Kaspersky đã quan sát được:
1. ChatGPT có thể được sử dụng để phát triển các phần mềm độc hại và tự động triển khai các cuộc tấn công đến nhiều nạn nhân.
2. Chương trình AI xâm nhập dữ liệu của người dùng trên điện thoại thông minh. Thông qua quá trình phân tích dữ liệu nhạy cảm, kẻ xấu hoàn toàn có thể “đọc trộm” tin nhắn, mật khẩu và mã ngân hàng của nạn nhân.
3. Thuật toán tối ưu bầy đàn (Swarm intelligence) giúp các mạng lưới máy tính tự động (bonet) khôi phục những mạng lưới độc hại đã bị giải pháp an ninh loại trừ.
Nghiên cứu toàn diện của Kaspersky về việc sử dụng AI để bẻ khóa mật khẩu chỉ ra rằng hầu hết các mật khẩu đều được mã hoá thông qua các thuật toán hàm băm như MD5 và SHA. Chỉ cần một thao tác đơn giản là có thể biến đổi mật khẩu thành một dòng văn bản mã hóa, nhưng đảo ngược cả quy trình lại là một thử thách lớn. Dù vậy, tình trạng mật khẩu bị rò rỉ từ những cơ sở dữ liệu diễn ra thường xuyên, gây ảnh hưởng đến nhiều doanh nghiệp non trẻ lẫn những doanh nghiệp đi đầu trong lĩnh vực công nghệ.
Vào tháng 7/2024, bảng tổng hợp mật khẩu lớn nhất lịch sử đã bị phát tán trực tuyến, bao gồm 10 tỷ mật khẩu dưới dạng văn bản và 8,2 tỷ mật khẩu chứa ký tự đặc biệt.
Ông Alexey Antonov – Trưởng nhóm Khoa học Dữ liệu tại Kaspersky, cho biết: “Chúng tôi đã tiến hành phân tích sự cố rò rỉ và phát hiện 32% mật khẩu người dùng không đủ mạnh. Đáng chú ý, dù đã được mã hóa ở dạng hàm băm mật mã (hash form), nhưng những mật khẩu này vẫn có thể khôi phục về dạng văn bản thuần túy. Bằng thuật toán brute-force đơn giản và 4090 GPU hiện đại, công đoạn khôi phục chỉ mất khoảng 60 phút. Ông Alexey nói thêm, “Chúng tôi đào tạo mô hình ngôn ngữ (language model), bằng cách tận dụng cơ sở dữ liệu mật khẩu làm dữ liệu đầu vào, để kiểm tra mức độ bảo mật của mật khẩu. Kết quả là, có đến 78% mật khẩu có khả năng bị bẻ khóa theo cách kể trên, nhanh gấp 3 lần so với thuật toán brute-force. Chỉ có 7% mật khẩu đủ mạnh để phòng chống các cuộc tấn công lâu dài.
Dùng AI để tấn công phi kỹ thuật (Social Engineering)
Thông qua AI, kẻ xấu có thể khai thác các nội dung lừa đảo, bao gồm văn bản, hình ảnh, âm thanh và video để triển khai tấn công phi kỹ thuật. Những mô hình ngôn ngữ lớn (large language model) như ChatGPT-4o được tận dụng để tạo ra kịch bản và tin nhắn lừa đảo vô cùng tinh vi. Vượt qua rào cản ngôn ngữ, AI có thể viết ra một email chân thật, chỉ cần dựa vào thông tin trên mạng xã hội. Thậm chí, AI có thể bắt chước văn phong của nạn nhân. Điều này càng khiến hành vi lừa đảo khó phát hiện hơn.
Song song, Deepfakes hiện hữu như một “vấn nạn” trong an ninh mạng, dù trước đó được xem là sản phẩm nghiên cứu khoa học. Mạo danh người nổi tiếng để trục lợi tài chính là cách thức phổ biến nhất, tiếp đến kẻ lừa đảo còn sử dụng Deepfakes để đánh cắp tài khoản, gọi điện mạo danh tới bạn bè và người thân của nạn nhân nhằm chiếm đoạt tài sản.
Chiêu trò lừa đảo ngày càng tinh vi hơn khi tội phạm mạng lợi dụng các trang web hẹn hò để trục lợi tài chính. Tiếp cận mục tiêu trên những trang web này, kẻ xấu tạo hồ sơ giả mạo, xây dựng mối quan hệ tình cảm để nạn nhân tuân theo những yêu cầu trục lợi. Vào tháng 2 năm 2024, một cuộc gọi video lừa đảo đã diễn ra tại Hồng Kông. Mô phỏng cuộc họp trực tuyến, kẻ lừa đảo sử dụng Deepfake đóng giả giám đốc điều hành, thuyết phục nhân viên tài chính chuyển 25 triệu USD.
Lỗ hổng an ninh của AI
Bên cạnh lợi dụng công nghệ AI vào những hoạt động phi pháp, kẻ xấu còn có thể tấn công những thuật toán AI. Cụ thể là những cách bên dưới:
1. Tấn công “tiêm lệnh” (Prompt Injection attacks): nhập những câu lệnh độc hại vào các mô hình ngôn ngữ lớn, thậm chí đi ngược những quy tắc đã bị hạn chế trước đó.
2. Tấn công đối kháng (Adversarial attacks): thêm những trường thông tin ẩn vào hình ảnh, hoặc âm thanh, để gây ảnh hưởng đến khả năng phân loại hình ảnh của hệ thống học máy.
AI dần được tích hợp vào mọi khía cạnh trong đời sống con người, từ Apple Intelligence, Google Gemini cho đến Microsoft Copilot. Vì vậy, việc giải quyết những lỗ hổng AI nên là ưu tiên hàng đầu.
2 Comments