Khi thế giới ngày càng làm quen với các trợ lý AI, chúng ta đang khám phá vô số khả năng thú vị mà chúng có thể mang lại, dù tốt hay xấu. Một ví dụ điển hình thuộc về khía cạnh tiêu cực là mối đe dọa tấn công lý thuyết có thể buộc ChatGPT thực hiện tấn công từ chối dịch vụ phân tán (DDoS) vào một trang web cụ thể, mặc dù đây chưa phải là một nguy cơ “thực sự” ở thời điểm hiện tại.
ChatGPT Có Khả Năng Thực Hiện Không Giới Hạn Kết Nối Siêu Liên Kết Trong Một Yêu Cầu
Theo báo cáo từ Silicon Angle, nhà nghiên cứu Benjamin Flesch đã phát hiện ra rằng ChatGPT không có giới hạn về số lượng liên kết mà nó truy cập khi tạo phản hồi. Không chỉ vậy, dịch vụ này còn không kiểm tra xem các URL mà nó đang truy cập có phải là bản sao của những trang web đã được kiểm tra trước đó hay không. Kết quả cuối cùng là một hình thức tấn công lý thuyết mà kẻ xấu có thể lợi dụng để buộc ChatGPT kết nối đến cùng một trang web hàng ngàn lần chỉ trong một truy vấn.
Các biểu tượng chatbot AI trên màn hình điện thoại thông minh, minh họa cho công nghệ AI và nguy cơ lỗ hổng bảo mật
Lỗ hổng này có thể bị khai thác để làm quá tải bất kỳ trang web nào mà người dùng độc hại muốn nhắm mục tiêu. Bằng cách chèn hàng ngàn siêu liên kết vào một yêu cầu duy nhất, kẻ tấn công có thể khiến máy chủ OpenAI tạo ra một lượng lớn yêu cầu HTTP đến trang web nạn nhân. Các kết nối đồng thời này có thể làm căng thẳng hoặc thậm chí vô hiệu hóa cơ sở hạ tầng của trang web mục tiêu, từ đó thực hiện một cuộc tấn công DDoS hiệu quả.
Benjamin Flesch tin rằng lỗ hổng này xuất phát từ “các phương pháp lập trình kém” và nếu OpenAI bổ sung một số hạn chế về cách ChatGPT thu thập dữ liệu trên internet, nó sẽ không có khả năng thực hiện một cuộc tấn công DDoS “vô ý” vào các máy chủ.
Elad Schulman, người sáng lập và CEO của Lasso Security Inc., một công ty bảo mật AI tạo sinh, đã đồng ý với kết luận của Benjamin Flesch, đồng thời bổ sung một khả năng khai thác tiềm tàng khác cho các cuộc tấn công này. Elad tin rằng nếu một hacker quản lý để xâm nhập tài khoản OpenAI của ai đó, họ có thể “dễ dàng tiêu hết ngân sách hàng tháng của một chatbot dựa trên mô hình ngôn ngữ lớn chỉ trong một ngày,” điều này sẽ gây thiệt hại tài chính nghiêm trọng nếu không có các biện pháp bảo vệ ngăn chặn những hành vi như vậy.
Kết Luận: Tăng Cường Bảo Mật Để Ngăn Chặn Lạm Dụng AI
Những phát hiện về lỗ hổng tiềm tàng trong ChatGPT nêu bật tầm quan trọng của việc các công ty phát triển AI cần liên tục bổ sung và tăng cường các hạn chế bảo mật để ngăn chặn những kẻ xấu lạm dụng dịch vụ của họ. Khi công nghệ AI tiếp tục phát triển, việc đảm bảo an toàn và tính toàn vẹn của các hệ thống này là điều tối quan trọng. Đã có nhiều trường hợp hacker lợi dụng AI tạo sinh trong các cuộc tấn công, và sự gia tăng đáng lo ngại của các cuộc gọi lừa đảo video AI khi công nghệ cải thiện chất lượng cũng là một minh chứng rõ ràng. Hãy theo dõi thuthuatmobile.net để cập nhật những thông tin mới nhất về bảo mật AI và công nghệ!