Menu
  1. Chính trị
  2. Văn hóa
  3. Nghệ thuật
  4. Giải trí
  5. Du lịch
  6. Thể thao
  7. Gia đình
  8. Kinh tế
  9. Ẩm thực
  10. Đời sống
  11. Nhịp sống số
  12. Pháp luật
  13. Thế giới

03 Tháng Ba 2024

Chuyên gia cảnh báo ChatGPT trở thành vũ khí lừa đảo mới của tin tặc

Thứ Ba 21/03/2023 | 11:12 GMT+7

VHO- Chuyên gia bảo mật cho biết các email lừa đảo sử dụng ChatGPT hoặc các mô hình “máy học” để bắt chước ngôn ngữ và giọng điệu của các email chính thức trong các tổ chức, do đó rất khó phân biệt.

Công cụ ChatGPT có thể được tin tặc sử dụng để tạo ra các email lừa đảo. (Nguồn: CNET)

Các chuyên gia an ninh mạng Australia mới đây cảnh báo tin tặc đang sử dụng ChatGPT - ứng dụng chatbot của Công ty OpenAI (Mỹ) - để tạo ra các email lừa đảo “thật” đến mức ngay cả những nhân viên được đào tạo bài bản về bảo mật của một công ty cũng bị “mắc bẫy.”

Ông Chad Skipper - chuyên gia về công nghệ bảo mật toàn cầu tại công ty phần mềm VMWare ở Australia - cho biết các email lừa đảo (phishing email) sử dụng ChatGPT hoặc các mô hình “máy học” ngôn ngữ tự nhiên tương tự để bắt chước ngôn ngữ và giọng điệu của các email chính thức trong các tổ chức, do đó rất khó để phân biệt với các email thật.

Ông Chad Skipper cho rằng đây là một cuộc chiến mới giữa tin tặc và ngành an ninh mạng và cuộc chiến này sẽ còn kéo dài.

Theo ông Chad Skipper, tội phạm mạng đang sử dụng trí tuệ nhân tạo (AI) để xác định những lỗ hổng trong các công ty, tổ chức và ChatGPT, từ đó tiến hành các cuộc tấn công giả mạo tinh vi nhằm xâm nhập vào các tổ chức này.

Tấn công giả mạo (Phishing) là hình thức tấn công mạng mà tin tặc sử dụng các email hoặc các hình thức nhắn tin giả mạo khác để lừa người dùng nhấp vào các tài liệu có vẻ vô hại hoặc các đường link dẫn đến một trang web, từ đó phát tán phần mềm độc hại (Malware) lên các thiết bị người dùng.

Ước tính có khoảng 90% các vụ xâm nhập mạng khởi đầu bằng một cuộc tấn công giả mạo đã được thực hiện thành công trước đó.

Vụ tấn công mạng nghiêm trọng vào Medibank - công ty bảo hiểm tư nhân lớn nhất của Australia - vào tháng 10.2022, cũng có thể nằm trong số này.

Giám đốc kinh doanh tại VMware Australia, ông Darren Reid cho hay trong thời gian ngắn kể từ khi được phát hành vào năm ngoái, ChatGPT đã vượt qua được một trong những tuyến phòng thủ chống lại các cuộc tấn công giả mạo như vậy.

ChatGPT đã vượt qua được rào cản ngôn ngữ, làm cho tin nhắn của tin tặc trở nên chân thực hơn và giúp cuộc tấn công có khả năng thành công cao hơn.

Chuyên gia nhấn mạnh một khi tội phạm mạng đã xâm nhập được vào hệ thống máy tính của một tổ chức, chúng sẽ sử dụng AI để tránh bị phát hiện và tiếp tục mở rộng tấn công.

Trong cuộc khảo sát mới nhất về mức độ thiệt hại từ các vụ tấn công mạng, IBM nhận thấy phải mất trung bình khoảng 9 tháng để một công ty bị tấn công mạng có thể xác định và ngăn chặn cuộc tấn công đó.

Đây là quãng thời gian tin tặc có thể lợi dụng để thu thập thêm nhiều dữ liệu làm cơ sở cho một cuộc tấn công sử dụng công nghệ deep-fake (công nghệ sử dụng AI để lấy hình ảnh, giọng nói của một người ghép vào video của người khác), sử dụng AI để bắt chước gần giống phong cách viết hoặc thậm chí là giọng nói của một đồng nghiệp để đấn công vào các bộ phận khác của doanh nghiệp.

Chuyên gia Chad Skipper cảnh báo tội phạm mạng thậm chí đang sử dụng ChatGPT để điều chỉnh bộ mã của những phần mềm độc hại, giúp chúng lẩn tránh phần mềm diệt virus, đồng thời đưa công nghệ AI vào phần mềm độc hại để những phần mềm này có thể tự điều chỉnh hoạt động sau khi bị phát hiện.

TTXVN

Print

© BÁO VĂN HÓA ĐIỆN TỬ
Cơ quan chủ quản: Bộ Văn hóa, Thể thao và Du lịch
Giấy phép Báo điện tử số: 422/GP-BTTTT cấp ngày 19.8.2016
Bản quyền thuộc về Báo Văn hóa. Mọi hành động sử dụng nội dung đăng tải trên Báo điện tử Văn hóa tại địa chỉ www.baovanhoa.vn phải có sự đồng ý bằng văn bản của Báo điện tử Văn hóa.
Liên hệ quảng cáo: 024.8220036

Tổng Biên tập: NGUYỄN ANH VŨ

Phó tổng Biên tập: PHAN THANH NAM

Phó tổng Biên tập: NGUYỄN VĂN MƯỜI

Tòa soạn: 124 Nguyễn Du, Quận Hai Bà Trưng, Hà Nội

Điện thoại: 024.38220036 - FAX: 024.38229302

Email: baovanhoa@fpt.vn

Close 2024 Bản quyền thuộc về Báo Văn hóa
Back To Top