Biểu tượng GPT-4 của Công ty OpenAI. Ảnh: OpenAI/TTXVN
Ông Chad Skipper - chuyên gia về công
nghệ bảo mật toàn cầu tại công ty phần mềm VMWare ở Australia - cho biết
các email lừa đảo (phishing email) được sử dụng ChatGPT hoặc các mô
hình “máy học” ngôn ngữ tự nhiên tương tự để bắt chước ngôn ngữ và giọng
điệu của các email chính thức trong các tổ chức và rất khó để phân biệt
chúng với các email thật.
Ông Chad Skipper cho rằng đây là một cuộc chiến mới giữa tin tặc và
ngành công nghiệp an ninh mạng và cuộc chiến này sẽ tiếp diễn “không
ngừng nghỉ”. Ông chia sẻ: “Chúng tôi sử dụng trí tuệ nhân tạo (AI) theo
cách của chúng tôi, chúng sử dụng trí tuệ nhân tạo theo cách của chúng.
Và đây là một cuộc “chạy đua vũ trang” về trí tuệ nhân tạo.
Theo ông Chad Skipper, tội phạm mạng đang sử dụng trí tuệ nhân tạo để
xác định những lỗ hổng trong các công ty, tổ chức và chúng đang sử dụng
ChatGPT để tiến hành các cuộc tấn công giả mạo tinh vi nhằm xâm nhập vào
các tổ chức này.
Tấn công giả mạo (Phishing) là hình thức tấn công mạng mà kẻ tấn công sử
dụng các email hoặc các hình thức nhắn tin giả mạo khác để “bẫy” người
dùng nhấp vào các tài liệu có vẻ vô hại hoặc các đường link dẫn đến một
trang web, nơi chúng phát tán phần mềm độc hại (Malware) lên các thiết
bị người dùng.
Ước tính có khoảng 90% các vụ xâm nhập mạng khởi đầu bằng một cuộc tấn
công giả mạo đã được thực hiện thành công trước đó. Vụ tấn công mạng
nghiêm trọng vào công ty bảo hiểm tư nhân lớn nhất của Australia là
Medibank hồi tháng 10.2022, bắt nguồn sau khi máy tính của một nhân viên
bị nhiễm phần mềm độc hại, cũng có thể nằm trong số đó.
Ông Darren Reid, Giám đốc kinh doanh tại VMware Australia, cho biết
trong thời gian ngắn kể từ khi được phát hành vào năm ngoái, ChatGPT đã
vượt qua một trong những tuyến phòng thủ chống lại các cuộc tấn công như
vậy một cách hữu hiệu.
Ông cho biết: “Nếu bạn là một hacker người Nga, tiếng Anh có lẽ là rào
cản đối với bạn. Và hầu hết các tổ chức đều rà soát cách sử dụng ngữ
pháp và từ ngữ một cách bất thường để lọc bỏ các email lừa đảo. Tuy
nhiên, ChatGPT đã khắc phục điều này, làm cho thông điệp của những
hacker chân thực hơn và do đó có khiến cuộc tấn công có khả năng thành
công cao hơn”.
Ông Skipper cho biết, một khi tội phạm mạng đã xâm nhập được vào hệ
thống máy tính của một tổ chức, chúng sẽ sử dụng trí tuệ nhân tạo để
tránh bị phát hiện và tiếp tục mở rộng cuộc tấn công của mình.
Trong một cuộc khảo sát mới nhất về mức độ thiệt hại đối với các vụ tấn
công mạng, IBM nhận thấy phải mất trung bình 277 ngày, tương đương 9
tháng, để một công ty bị tấn công mạng có thể xác định và ngăn chặn cuộc
tấn công đó.
Đây là quãng thời gian những kẻ tin tặc đã nằm sâu trong công ty, có
thời gian để thu thập thêm nhiều dữ liệu để sử dụng dữ liệu này làm cơ
sở cho một cuộc tấn công sử dụng công nghệ deep-fake (công nghệ sử dụng
AI để lấy hình ảnh, giọng nói của một người ghép vào video của người
khác), sử dụng trí tuệ nhân tạo để bắt chước gần giống phong cách viết
hoặc thậm chí là giọng nói của một đồng nghiệp để làm cơ sở tấn công vào
các bộ phận khác của doanh nghiệp.
Ông Skipper cho biết, tội phạm mạng thậm chí đang sử dụng ChatGPT để
điều chỉnh bộ mã của những phần mềm độc hại để chúng có thể lẩn tránh
phần mềm diệt virus, đồng thời chúng cũng “nhúng trí tuệ nhân tạo” vào
phần mềm độc hại để những phần mềm độc hại này có thể tự điều chỉnh hành
vi của mình sau khi bị phát hiện.
Theo TTXVN