Hotline: 02763.822322
|
Đọc báo in
Tải ứng dụng
Tư tưởng Hồ Chí Minh Quân đội
Tư tưởng Hồ Chí Minh Quân đội
Chuyên gia bảo mật chỉ cách tránh bẫy lừa đảo bằng Deepfake
Thứ tư: 09:27 ngày 29/03/2023

Theo dõi Báo Tây Ninh trên
google news
Theo các chuyên gia bảo mật, lừa đảo sử dụng công nghệ Deepfake rất nguy hiểm, tuy nhiên có những cách để người dùng nhận biết video sử dụng công nghệ ứng dụng trí tuệ nhân tạo này, từ đó tránh bị các đối tượng xấu lừa.

Nguy cơ xuất hiện làn sóng lừa đảo dùng công nghệ Deepfake

Trong cảnh báo phát ra ngày 24/3 vừa qua, Công an tỉnh Tuyên Quang cho hay, gần đây, trên không gian mạng đã xuất hiện phương thức lừa đảo chiếm đoạt tài sản rất tinh vi. Đó là các đối tượng lừa đảo sử dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo - AI tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao) để thực hiện cuộc gọi video giả mạo người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…

Những ngày gần đây, công an một số địa phương khác như Hà Nội, Thái Nguyên cũng đã tiếp tục có cảnh báo về chiêu thức lừa đảo chiếm đoạt tài sản trên không gian mạng lợi dụng công nghệ Deepfake.

Công an một số tỉnh, thành phố đã phát cảnh báo về hình thức lừa đảo sử dụng công nghệ Deepfake. (Ảnh minh họa: Internet)

Trong chia sẻ tại hội thảo chủ đề “An ninh mạng trên không gian số - Xu hướng và cơ hội” được Học viện Công nghệ Bưu chính Viễn thông (PTIT) tổ chức ngày 27/3, chuyên gia Ngô Minh Hiếu , đồng sáng lập dự án ChongLuaDao.vn và Threat Hunter, Trung tâm Giám sát an toàn không gian mạng quốc gia cho biết, video Deepfake mới xuất hiện tại Việt Nam nhưng trên thực tế chiêu thức lừa đảo, giả mạo sử dụng công nghệ ứng dụng AI này đã được các nhóm tội phạm quốc tế áp dụng từ khoảng 2 – 3 năm gần đây.

Chuyên gia Ngô Minh Hiếu cũng phân tích, trên không gian mạng đang có nhiều công cụ hỗ trợ các đối tượng tạo ra các video Deepfake. Tới đây, khi tội phạm mạng tại Việt Nam biết nhiều hơn các cách đánh cắp video và hình ảnh, cắt ghép sau đó dùng những công cụ được hướng dẫn trên mạng để tạo Deepfake - thì lúc đó sẽ diễn ra một làn sóng lừa đảo thế hệ 4.0 khiến nhiều người lâu nay rất khó bị lừa cũng trở thành nạn nhân.

“Những người tầm trung niên trở lên là đối tượng dễ bị lừa nhất vì họ thiếu nhận thức về an toàn thông tin, công nghệ và khó nhận biết kiểu lừa đảo tinh vi này” , chuyên gia Ngô Minh Hiếu chia sẻ thêm.

Chuyên gia Ngô Minh Hiếu chia sẻ với các sinh viên PTIT về các hình thức lừa đảo, trong đó có lừa đảo sử dụng Deepfake.

Bàn về vấn đề này, Giám đốc Kỹ thuật Công ty NCS Vũ Ngọc Sơn cho hay, các ứng dụng Deepfake đang ngày càng phổ biến, thậm chí gây lo ngại về việc mất kiểm soát. Lúc đầu các ứng dụng này được tạo ra với mục đích “hoán đổi khuôn mặt” giúp người sử dụng có thể dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng. Có thể coi là bước tiếp theo của trào lưu chế ảnh, lồng tiếng hài hước cho clip từng gây sốt trong thời gian trước đây.

Tuy nhiên, những kẻ lừa đảo đã lợi dụng các ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ. Việc công nghệ này lại được sử dụng vào những mục đích xấu nhiều hơn, nên gần đây khi nhắc đến Deepfake là mọi người thường nghĩ đến công cụ xấu.

Cách phòng tránh lừa đảo dùng công nghệ Deepfake

Đề cập đến cách phòng tránh, chuyên gia Vũ Ngọc Sơn phân tích, do năng lực tính toán của các ứng dụng Deepfake chưa thực sự trở nên hoàn hảo nên các clip chế từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Dễ nhận thấy nhất là khuôn mặt khá cứng và ít cảm xúc hơn. Hình thể của nhân vật trong Deepfake cũng sẽ ít di chuyển hơn, đặc biệt là ít quay ngang ngửa mặt hoặc cúi mặt so với các clip thông thường, càng không có các hành động đưa tay dụi mặt hay che mặt vì AI sẽ xử lý lỗi khi khuôn mặt bị che đi một phần. Do đó, nếu để ý kỹ có thể phát hiện ra được.

“Người dùng không nên tin vào các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, khuôn mặt không quay ngang ngửa, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ” , chuyên gia Vũ Ngọc Sơn khuyến nghị.

Vị chuyên gia đến từ Công ty NCS cũng cho hay, điều quan trọng nhất là người dùng cần nâng cao cảnh giác. Cụ thể là, không tin tưởng nếu nhận được các clip hoặc video call ngắn, chất lượng hình ảnh hoặc âm thanh không tốt; kiểm tra lại bằng cách gọi điện trực tiếp bằng điện thoại thông thường; yêu cầu người gọi đưa tay lên mặt hoặc quay trái, quay phải; trao đổi càng nhiều càng tốt với người gọi để đảm bảo cuộc gọi là thật chứ không phải là đang nói chuyện với một video được ghi hình sẵn. Đặc biệt là, người dùng không chuyển tiền, gửi thông tin vào các địa chỉ, tài khoản lạ.

Đồng quan điểm, chuyên gia Ngô Minh Hiếu khuyến nghị, để tránh bị lừa thì tốt nhất là người dùng cần tỉnh táo, nâng cao cảnh giác. khi có một ai đó trên mạng xã hội, trong danh sách bạn bè của mình mà tự nhiên hỏi mượn tiền hay gửi link lạ thì không nên vội, mà hãy bình tĩnh, kiểm chứng và nên xác thực lại.

“Người dùng có thể chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút, sau đó giả vờ đặt ra những câu hỏi cá nhân mà chỉ có bạn và người kia mới biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao” , chuyên gia Ngô Minh Hiếu đưa ra lời khuyên.

Nguồn VNN

Tin cùng chuyên mục