Cục An toàn thông tin cảnh báo các hình thức lừa đảo trực tuyến

Cục An an toàn thông tin, Bộ Thông tin và Truyền thông cho biết, trên không gian mạng đã xuất hiện các hình thức sử dụng trí tuệ nhân tạo (AI) để lừa đảo trên nền tảng YouTube.

Trong nội dung "Điểm tin tuần" từ ngày 20/5 đến 26/5, Cục An toàn thông tin cập nhật 6 thông tin nổi bật về nguy cơ mất an toàn thông tin, lừa đảo trực tuyến. 

"Lừa đảo trực tuyến đang gia tăng nhanh chóng, với các hình thức, thủ đoạn luôn có sự thay đổi, đan xen cũ - mới và ngày càng tinh vi hơn. Nhiều nhóm lừa đảo còn tận dụng các tiện ích, công nghệ hiện đại để tạo ra những hệ thống lừa đảo hiệu quả, giống thật, khiến người dùng khó nhận diện", Cục An toàn thông tin nhận định.

Theo Cục An toàn thông tin, một trong số các thủ đoạn mới đó là hình thức sử dụng trí tuệ nhân tạo (AI) để lừa đảo trên nền tảng YouTube.

Cục An toàn thông tin cảnh báo các hình thức lừa đảo trực tuyến- Ảnh 1.

Tội phạm mạng gia tăng lợi dụng YouTube để lừa đảo. Ảnh: Cục An toàn thông tin

Thông tin từ Avast Threat Intelligence đã cho thấy, lừa đảo trên nền tảng mạng xã hội YouTube đang ngày một phổ biến với những thủ đoạn tinh vi. Trong đó, thủ đoạn được dùng nhiều trên YouTube là tạo dựng những nội dung giả mạo. Nội dung lừa đảo đáng chú ý gần đây là những video Deepfake để mạo danh người nổi tiếng và có tầm ảnh hưởng. Đối tượng dùng AI để giả mạo giọng nói, quảng bá và dẫn dụ mọi người sử dụng những dịch vụ chứa mã độc.

Hệ thống tự động quảng cáo với những nội dung được tạo ra bởi AI đã trở thành yếu tố để những tên tội phạm mạng vượt qua được hàng rào bảo mật cũng như những chính sách mà YouTube đặt ra, khiến cho nền tảng này trở thành không gian hoạt động hoàn hảo của những tên lừa đảo.

Cơ quan chức năng khuyến cáo, người dân sử dụng thiết bị công nghệ thông tin nên sử dụng những phần mềm diệt virus chính thống, nâng cao bảo mật cho thiết bị cá nhân. Luôn bật tường lửa trong quá trình sử dụng thiết bị không kết nối vào các Wi-Fi lạ tại nơi công cộng.

Trong đó, thủ thuật được các đối tượng lừa đảo sử dụng phổ biến trên nền tảng YouTube là tạo dựng các nội dung giả mạo. Bất kể là những đoạn video có thật hoặc được tạo ra bởi AI, đối tượng lừa đảo đều có thể sử dụng nhằm thu hút và điều hướng người dùng vào nhiều mục đích khác nhau.

Nội dung video lừa đảo đáng chú ý trong thời gian gần đây là những đoạn video đã được chỉnh sửa bởi công nghệ Deepfake nhằm mạo danh một ai đó nổi tiếng và có tầm ảnh hưởng để lừa đảo chiếm đoạt tiền, tài sản.

Đối tượng sử dụng công nghệ AI để giả mạo giọng nói, quảng bá và dẫn dụ người dùng sử dụng những dịch vụ có chứa mã độc. Với sự phát triển của công nghệ, những video kể trên đều rất công phu, khiến cho những đối tượng như người già và trẻ em khó có thể phát hiện được.

Trước thông tin trên, Cục An toàn thông tin khuyến cáo người dùng mạng xã hội nói chung và người dùng YouTube nói riêng, nên tuyệt đối tỉnh táo trước các nội dung mang tính chào mời tham gia các loại hình dịch vụ hoặc tải về những ứng dụng không rõ nguồn gốc; cẩn trọng và thực hiện xác thực thông tin của những nội dung trên mạng xã hội.

Tuyệt đối không làm theo hướng dẫn của các đối tượng lạ; không cung cấp thông tin cá nhân để tránh bị đánh cắp phục vụ vào mục đích phi pháp; tuyệt đối không truy cập vào những đường dẫn không rõ nguồn gốc, các đường dẫn quảng cáo, hạn chế tối đa tải xuống những ứng dụng lạ, tránh bị đối tượng tấn công mã độc chiếm quyền điều khiển thiết bị và chiếm đoạt tài sản.

Nhật Mai
Ý kiến của bạn
Bước nhảy vọt của hàng Việt: Vươn tầm thế giới, chinh phục mọi thị trường Bước nhảy vọt của hàng Việt: Vươn tầm thế giới, chinh phục mọi thị trường

Trong không khí náo nhiệt của Tuần lễ Thương mại điện tử quốc gia và Ngày mua sắm trực tuyến Việt Nam - Online Friday 2024 sẽ diễn ra từ ngày 25/11 đến 1/12, hàng triệu người tiêu dùng cả nước sắp chứng kiến một không gian độc đáo hoành tráng - nơi hội tụ tinh hoa hàng Việt, trưng bày các sản phẩm Việt Nam chất lượng cao, lan tỏa niềm tự hào dân tộc và khẳng định cam kết của Bộ Công Thương trong việc đưa hàng Việt chinh phục mọi thị trường.