La frase “la tecnología es un arma de doble filo” ha adquirido recientemente una nueva interpretación: los estafadores usan la IA para suplantar identidades y robar dinero, pero las víctimas también pueden recurrir a la IA para salvarse.
En la zona de la bahía de San Francisco, EE. UU., acaba de salir a la luz un caso increíble. Una mujer conoció a un “novio” en una red social; él se presentaba como un experto en inversiones en criptomonedas. Tras conversar durante meses y ganarse su confianza, empezó a recomendarle una supuesta “plataforma de inversión interna”. Una oleada de capturas de pantalla con ganancias falsas hizo que la mujer bajara la guardia. Primero probó con 15.000 dólares, luego retiró 490.000 dólares de su fondo de pensiones, y finalmente hipotecó su casa por otros 300.000 dólares. Una vez que el dinero, transferido por partes a cuentas en Malasia, estuvo fuera de su alcance, la plataforma desapareció: ¿quiere retirar fondos? Primero pague una comisión; ¿cuenta bloqueada? Pague otra cantidad para desbloquearla. El clásico modus operandi de la “estafa romántica con criptomonedas”, con un botín de cerca de un millón de dólares.
Pero llegó el giro inesperado. Aunque la mujer estaba atrapada, no había perdido toda esperanza. Reunió todo el historial de chats con el “novio” y capturas de la plataforma y lo envió a ChatGPT, preguntando: “¿Esto es fiable?”
La respuesta de la IA fue directa al grano: una estafa típica de la combinación “romance + inversión en criptomonedas”. El estafador primero crea una dependencia emocional y luego utiliza el anonimato y carácter transfronterizo de las criptomonedas para mover el dinero, mientras una plataforma falsa simula beneficios. ChatGPT no solo desmontó el engaño, sino que también enumeró varios indicios clave: dominio de la web recientemente registrado, respuestas del servicio de atención al cliente muy estandarizadas y normas de retirada de fondos que cambian constantemente.
La ironía de este caso es que, aunque los estafadores probablemente emplearon IA para generar sus mensajes, la víctima también recurrió a la IA para desenmascarar la estafa. Aunque el dinero no se pudo recuperar, al menos pudo frenar las pérdidas a tiempo y no siguió cayendo en la trampa.
En el fondo, la tecnología no tiene sesgo. Un cuchillo puede cortar verduras o herir a alguien; la IA puede ayudar a los estafadores a crear disfraces, pero también puede ayudar a la gente común a evitar caer en sus trampas. La próxima vez que te ofrezcan una “oportunidad de inversión sin riesgo”, quizá sea mejor preguntarle primero a ChatGPT: es mucho más fiable que consultar a una amiga.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
6
Republicar
Compartir
Comentar
0/400
TokenAlchemist
· hace10h
Lucha de ingenio contra las estafas con IA
Ver originalesResponder0
LiquidatedTwice
· hace10h
Todas las pérdidas están en las tasas de aprendizaje.
Ver originalesResponder0
GoldDiggerDuck
· hace10h
La IA también puede ser tacaña
Ver originalesResponder0
AirdropHunterZhang
· hace10h
La IA no puede superar la codicia humana
Ver originalesResponder0
InscriptionGriller
· hace10h
La IA también ha empezado a luchar contra el fraude.
Ver originalesResponder0
CountdownToBroke
· hace11h
Al menos la IA puede ayudar a detener las pérdidas
La frase “la tecnología es un arma de doble filo” ha adquirido recientemente una nueva interpretación: los estafadores usan la IA para suplantar identidades y robar dinero, pero las víctimas también pueden recurrir a la IA para salvarse.
En la zona de la bahía de San Francisco, EE. UU., acaba de salir a la luz un caso increíble. Una mujer conoció a un “novio” en una red social; él se presentaba como un experto en inversiones en criptomonedas. Tras conversar durante meses y ganarse su confianza, empezó a recomendarle una supuesta “plataforma de inversión interna”. Una oleada de capturas de pantalla con ganancias falsas hizo que la mujer bajara la guardia. Primero probó con 15.000 dólares, luego retiró 490.000 dólares de su fondo de pensiones, y finalmente hipotecó su casa por otros 300.000 dólares. Una vez que el dinero, transferido por partes a cuentas en Malasia, estuvo fuera de su alcance, la plataforma desapareció: ¿quiere retirar fondos? Primero pague una comisión; ¿cuenta bloqueada? Pague otra cantidad para desbloquearla. El clásico modus operandi de la “estafa romántica con criptomonedas”, con un botín de cerca de un millón de dólares.
Pero llegó el giro inesperado. Aunque la mujer estaba atrapada, no había perdido toda esperanza. Reunió todo el historial de chats con el “novio” y capturas de la plataforma y lo envió a ChatGPT, preguntando: “¿Esto es fiable?”
La respuesta de la IA fue directa al grano: una estafa típica de la combinación “romance + inversión en criptomonedas”. El estafador primero crea una dependencia emocional y luego utiliza el anonimato y carácter transfronterizo de las criptomonedas para mover el dinero, mientras una plataforma falsa simula beneficios. ChatGPT no solo desmontó el engaño, sino que también enumeró varios indicios clave: dominio de la web recientemente registrado, respuestas del servicio de atención al cliente muy estandarizadas y normas de retirada de fondos que cambian constantemente.
La ironía de este caso es que, aunque los estafadores probablemente emplearon IA para generar sus mensajes, la víctima también recurrió a la IA para desenmascarar la estafa. Aunque el dinero no se pudo recuperar, al menos pudo frenar las pérdidas a tiempo y no siguió cayendo en la trampa.
En el fondo, la tecnología no tiene sesgo. Un cuchillo puede cortar verduras o herir a alguien; la IA puede ayudar a los estafadores a crear disfraces, pero también puede ayudar a la gente común a evitar caer en sus trampas. La próxima vez que te ofrezcan una “oportunidad de inversión sin riesgo”, quizá sea mejor preguntarle primero a ChatGPT: es mucho más fiable que consultar a una amiga.