Câu nói "Công nghệ là con dao hai lưỡi" gần đây lại có thêm chú giải mới – kẻ lừa đảo dùng AI để thay đổi khuôn mặt nhằm lừa tiền, còn nạn nhân cũng có thể tự cứu mình nhờ AI.
Khu vực vịnh San Francisco, Mỹ vừa lộ ra một vụ việc khó tin. Một phụ nữ quen bạn trai trên mạng xã hội, đối phương tự xây dựng hình tượng chuyên gia đầu tư tiền mã hóa, sau vài tháng trò chuyện thân thiết thì bắt đầu giới thiệu cái gọi là "nền tảng đầu tư nội bộ". Hàng loạt ảnh chụp màn hình lãi giả mạo được gửi tới, người phụ nữ xiêu lòng. Đầu tiên thử nước với 15.000 USD, sau đó rút 490.000 USD tiền hưu trí, cuối cùng còn thế chấp cả căn nhà lấy thêm 300.000 USD. Tiền được chuyển từng đợt vào tài khoản ở Malaysia, sau đó nền tảng bắt đầu "biến mất" – muốn rút tiền? Phải đóng phí; tài khoản bị lỗi? Phải nộp thêm tiền để mở khóa. Kịch bản điển hình của "bẫy tình - lừa đảo tài chính", tổng cộng chiếm đoạt gần 1 triệu USD.
Bước ngoặt đến. Dù bị mắc kẹt, người phụ nữ vẫn chưa hoàn toàn mất hy vọng. Cô gom toàn bộ lịch sử trò chuyện với "bạn trai", ảnh chụp màn hình nền tảng, rồi gửi cho ChatGPT, hỏi: "Chuyện này đáng tin không?"
Phản hồi của AI đánh trúng trọng tâm: điển hình của kiểu lừa đảo "tình cảm + đầu tư tiền mã hóa". Kẻ lừa đảo xây dựng sự phụ thuộc về cảm xúc, tận dụng tính ẩn danh và khả năng chuyển tiền xuyên biên giới của tiền mã hóa, cuối cùng tạo ra nền tảng giả để tạo ảo giác sinh lời. ChatGPT không chỉ bóc tách chiêu trò, mà còn liệt kê một số dấu hiệu nghi vấn then chốt – tên miền nền tảng mới đăng ký, kịch bản chăm sóc khách hàng rập khuôn, quy tắc rút tiền liên tục thay đổi.
Điều trớ trêu của vụ này là: kẻ lừa đảo có thể dùng AI để tạo kịch bản, còn nạn nhân cũng nhờ AI mà vạch trần được trò lừa. Dù không lấy lại được tiền, nhưng ít nhất đã kịp dừng lại, không tiếp tục lao vào hố lửa.
Suy cho cùng, công nghệ vốn không có lập trường. Dao có thể dùng để cắt rau cũng có thể gây thương tích, AI có thể giúp kẻ xấu làm trò, nhưng cũng giúp người bình thường tránh bẫy. Lần sau nếu gặp "cơ hội đầu tư chắc thắng", hãy thử hỏi ChatGPT trước, còn đáng tin hơn hỏi bạn thân nhiều.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Câu nói "Công nghệ là con dao hai lưỡi" gần đây lại có thêm chú giải mới – kẻ lừa đảo dùng AI để thay đổi khuôn mặt nhằm lừa tiền, còn nạn nhân cũng có thể tự cứu mình nhờ AI.
Khu vực vịnh San Francisco, Mỹ vừa lộ ra một vụ việc khó tin. Một phụ nữ quen bạn trai trên mạng xã hội, đối phương tự xây dựng hình tượng chuyên gia đầu tư tiền mã hóa, sau vài tháng trò chuyện thân thiết thì bắt đầu giới thiệu cái gọi là "nền tảng đầu tư nội bộ". Hàng loạt ảnh chụp màn hình lãi giả mạo được gửi tới, người phụ nữ xiêu lòng. Đầu tiên thử nước với 15.000 USD, sau đó rút 490.000 USD tiền hưu trí, cuối cùng còn thế chấp cả căn nhà lấy thêm 300.000 USD. Tiền được chuyển từng đợt vào tài khoản ở Malaysia, sau đó nền tảng bắt đầu "biến mất" – muốn rút tiền? Phải đóng phí; tài khoản bị lỗi? Phải nộp thêm tiền để mở khóa. Kịch bản điển hình của "bẫy tình - lừa đảo tài chính", tổng cộng chiếm đoạt gần 1 triệu USD.
Bước ngoặt đến. Dù bị mắc kẹt, người phụ nữ vẫn chưa hoàn toàn mất hy vọng. Cô gom toàn bộ lịch sử trò chuyện với "bạn trai", ảnh chụp màn hình nền tảng, rồi gửi cho ChatGPT, hỏi: "Chuyện này đáng tin không?"
Phản hồi của AI đánh trúng trọng tâm: điển hình của kiểu lừa đảo "tình cảm + đầu tư tiền mã hóa". Kẻ lừa đảo xây dựng sự phụ thuộc về cảm xúc, tận dụng tính ẩn danh và khả năng chuyển tiền xuyên biên giới của tiền mã hóa, cuối cùng tạo ra nền tảng giả để tạo ảo giác sinh lời. ChatGPT không chỉ bóc tách chiêu trò, mà còn liệt kê một số dấu hiệu nghi vấn then chốt – tên miền nền tảng mới đăng ký, kịch bản chăm sóc khách hàng rập khuôn, quy tắc rút tiền liên tục thay đổi.
Điều trớ trêu của vụ này là: kẻ lừa đảo có thể dùng AI để tạo kịch bản, còn nạn nhân cũng nhờ AI mà vạch trần được trò lừa. Dù không lấy lại được tiền, nhưng ít nhất đã kịp dừng lại, không tiếp tục lao vào hố lửa.
Suy cho cùng, công nghệ vốn không có lập trường. Dao có thể dùng để cắt rau cũng có thể gây thương tích, AI có thể giúp kẻ xấu làm trò, nhưng cũng giúp người bình thường tránh bẫy. Lần sau nếu gặp "cơ hội đầu tư chắc thắng", hãy thử hỏi ChatGPT trước, còn đáng tin hơn hỏi bạn thân nhiều.