Home Tecnología Estafas impulsadas por IA y qué puedes hacer al respecto

Estafas impulsadas por IA y qué puedes hacer al respecto

by internauta
0 comment


La IA está aquí para ayudarte, ya sea que estés redactando un correo electrónico, creando un arte conceptual o estafando a personas vulnerables haciéndoles creer que eres un amigo o un familiar en apuros. ¡La IA es muy versátil! Pero como algunas personas prefieren no ser estafadas, hablemos un poco sobre qué hay que tener en cuenta.

En los últimos años se ha visto un gran aumento no sólo en la calidad de los medios generados, desde texto hasta audio, imágenes y video, sino también en la forma económica y sencilla de crear esos medios. El mismo tipo de herramienta que ayuda a un artista conceptual a crear algunos monstruos o naves espaciales de fantasía, o que permite a un hablante no nativo mejorar su inglés comercial, también puede utilizarse con fines maliciosos.

No espere que Terminator llame a su puerta y le venda un esquema Ponzi: estas son las mismas viejas estafas que hemos estado enfrentando durante años, pero con un toque generativo de IA que las hace más fáciles, más baratas o más convincentes.

Esta no es una lista completa, solo algunos de los trucos más obvios que la IA puede potenciar. Nos aseguraremos de agregar los nuevos trucos a medida que aparezcan o cualquier medida adicional que pueda tomar para protegerse.

Clonación de voz de familiares y amigos.

Las voces sintéticas existen desde hace décadas, pero recién en el último par de años los avances tecnológicos han permitido generar una nueva voz a partir de apenas unos segundos de audio. Eso significa que cualquier persona cuya voz haya sido transmitida públicamente (por ejemplo, en un reportaje de noticias, un video de YouTube o en las redes sociales) es vulnerable a que le clonen la voz.

Los estafadores pueden y han utilizado esta tecnología para producir versiones falsas convincentes de sus seres queridos o amigos. Se les puede hacer decir cualquier cosa, por supuesto, pero al servicio de una estafa, lo más probable es que hagan un clip de voz pidiendo ayuda.

Por ejemplo, un padre puede recibir un mensaje de voz de un número desconocido que suena como el de su hijo, diciendo que le robaron sus cosas mientras viajaba, que una persona le permitió usar su teléfono y que mamá o papá podrían enviar algo de dinero a esta dirección, destinatario de Venmo. , negocios, etc. Se pueden imaginar fácilmente variantes con problemas con el coche (“no me entregarán el coche hasta que alguien les pague”), problemas médicos (“este tratamiento no lo cubre el seguro”), etc.

¡Este tipo de estafa ya se ha hecho usando la voz del presidente Biden! Atraparon a los que estaban detrás de eso, pero los estafadores del futuro tendrán más cuidado.

¿Cómo se puede luchar contra la clonación de voces?

Primero, no te molestes en intentar detectar una voz falsa. Mejoran cada día y hay muchas formas de disimular cualquier problema de calidad. ¡Incluso los expertos se dejan engañar!

Cualquier mensaje que provenga de un número, una dirección de correo electrónico o una cuenta desconocida debe considerarse automáticamente sospechoso. Si alguien dice que es tu amigo o un ser querido, sigue adelante y ponte en contacto con esa persona como lo harías normalmente. Probablemente te dirá que está bien y que es (como ya habrás adivinado) una estafa.

Los estafadores tienden a no hacer un seguimiento si se les ignora, mientras que un miembro de la familia probablemente lo hará. Está bien dejar un mensaje sospechoso en la lista de leídos mientras piensas en ello.

Phishing y spam personalizados a través de correo electrónico y mensajería

Todos recibimos spam de vez en cuando, pero la inteligencia artificial que genera texto permite enviar correos electrónicos masivos personalizados para cada individuo. Las filtraciones de datos ocurren con regularidad, por lo que muchos de sus datos personales quedan expuestos.

Una cosa es recibir uno de esos correos electrónicos fraudulentos del tipo “¡Haga clic aquí para ver su factura!” con archivos adjuntos obviamente aterradores que parecen no haber requerido mucho esfuerzo. Pero con un poco de contexto, de repente se vuelven bastante creíbles, y utilizan ubicaciones, compras y hábitos recientes para que parezcan una persona real o un problema real. Armado con algunos datos personales, un modelo de lenguaje puede personalizar un genérico de estos correos electrónicos para miles de destinatarios en cuestión de segundos.

Entonces, lo que antes era “Estimado cliente, encuentre su factura adjunta” se convierte en algo como “¡Hola Doris! Estoy con el equipo de promociones de Etsy. ¡Un artículo que estabas mirando recientemente ahora tiene un 50 % de descuento! Y el envío a su dirección en Bellingham es gratuito si utiliza este enlace para reclamar el descuento”. Un ejemplo simple, pero aún así. Con un nombre real, hábito de compra (fácil de descubrir), ubicación general (ídem), etc., de repente el mensaje es mucho menos obvio.

Al final, estos siguen siendo sólo spam. Pero este tipo de spam personalizado alguna vez tuvo que ser realizado por personas mal pagadas en granjas de contenido en países extranjeros. ¡Ahora puede hacerlo a escala un LLM con mejores habilidades en prosa que muchos escritores profesionales!

¿Cómo puedes luchar contra el spam de correo electrónico?

Al igual que con el spam tradicional, la vigilancia es su mejor arma. Pero no espere poder distinguir el texto generado del texto escrito por humanos en la vida real. Hay pocos que puedan hacerlo, y ciertamente no otro modelo de IA (a pesar de las afirmaciones de algunas empresas y servicios).

Por muy mejorado que esté el texto, este tipo de estafa todavía tiene el desafío fundamental de lograr que usted abra archivos adjuntos o enlaces incompletos. Como siempre, a menos que esté 100% seguro de la autenticidad y la identidad del remitente, no haga clic ni abra nada. Si no estás seguro, aunque sea un poco, y es una buena idea cultivarlo, no hagas clic, y si tienes a alguien con conocimientos a quien reenviarlo para que lo revise un segundo par de ojos, hazlo.

Fraude de identificación y verificación ‘falso’

Debido a la cantidad de filtraciones de datos en los últimos años (¡gracias, Equifax!), es seguro decir que casi todos tenemos una buena cantidad de datos personales flotando en la web oscura. Si sigues buenas prácticas de seguridad en línea, gran parte del peligro se mitiga porque cambiaste tus contraseñas, habilitaste la autenticación multifactor, etc. Pero la IA generativa podría presentar una nueva y grave amenaza en este ámbito.

Con tanta información sobre alguien disponible en línea y, para muchos, incluso un fragmento o dos de su voz, es cada vez más fácil crear un personaje de IA que suene como una persona objetivo y tenga acceso a gran parte de los datos utilizados para verificar la identidad.

Piénselo así. Si tuviera problemas para iniciar sesión, no pudiera configurar correctamente su aplicación de autenticación o perdiera su teléfono, ¿qué haría? Probablemente llame al servicio de atención al cliente y ellos “verificarán” su identidad utilizando algunos datos triviales como su fecha de nacimiento, número de teléfono o número de Seguro Social. Incluso métodos más avanzados como “tomar una selfie” son cada vez más fáciles de utilizar.

El agente de servicio al cliente: por lo que sabemos, ¡también una IA! – Es muy posible que obligue a este falso usted y le otorgue todos los privilegios que tendría si realmente llamara. Lo que pueden hacer desde esa posición varía ampliamente, ¡pero nada de eso es bueno!

Al igual que con los demás en esta lista, el peligro no es tanto cuán realista sería esta falsificación, sino que es fácil para los estafadores realizar este tipo de ataque de manera amplia y repetida. No hace mucho, este tipo de ataque de suplantación de identidad era costoso y requería mucho tiempo y, como consecuencia, se limitaría a objetivos de alto valor, como personas ricas y directores ejecutivos. Hoy en día, se podría crear un flujo de trabajo que creara miles de agentes de suplantación de identidad con una supervisión mínima, y ​​estos agentes podrían llamar de forma autónoma a los números de servicio al cliente en todas las cuentas conocidas de una persona, ¡o incluso crear otras nuevas! Sólo unos pocos necesitan tener éxito para justificar el coste del ataque.

¿Cómo puedes luchar contra el fraude de identidad?

Tal como era antes de que las IA llegaran para reforzar los esfuerzos de los estafadores, “Ciberseguridad 101” es su mejor opción. Sus datos ya están ahí; no puede volver a poner la pasta de dientes en el tubo. poder Asegúrese de que sus cuentas estén adecuadamente protegidas contra los ataques más obvios.

La autenticación multifactor es fácilmente el paso más importante que cualquiera puede dar aquí. Cualquier tipo de actividad grave en la cuenta va directamente a su teléfono y los inicios de sesión sospechosos o los intentos de cambiar contraseñas aparecerán en el correo electrónico. No descuides estas advertencias ni las marques como spam, incluso (¡especialmente!) si recibes muchas.

Deepfakes generados por IA y chantaje

Tal vez la forma más aterradora de estafa de inteligencia artificial naciente sea la posibilidad de chantaje mediante imágenes falsas de usted o de un ser querido. ¡Puede agradecer al mundo de rápido movimiento de los modelos de imágenes abiertas por esta perspectiva futurista y aterradora! Las personas interesadas en ciertos aspectos de la generación de imágenes de vanguardia han creado flujos de trabajo no solo para renderizar cuerpos desnudos, sino para adjuntarlos a cualquier rostro del que puedan obtener una fotografía. No necesito explicar en detalle cómo ya se está utilizando.

Pero una consecuencia no deseada es una extensión de la estafa comúnmente llamada “porno de venganza”, pero que se describe con más precisión como distribución no consentida de imágenes íntimas (aunque, al igual que “deepfake”, puede ser difícil reemplazar el término original). Cuando las imágenes privadas de alguien se divulgan, ya sea a través de hackers o de un ex vengativo, pueden ser utilizadas como chantaje por un tercero que amenaza con publicarlas ampliamente a menos que se pague una suma.

¡La IA mejora esta estafa al hacer que, en primer lugar, no sea necesario que existan imágenes íntimas reales! Se puede agregar la cara de cualquier persona a un cuerpo generado por IA, y aunque los resultados no siempre son convincentes, probablemente sea suficiente para engañarte a ti o a otros si está pixelado, tiene baja resolución o está parcialmente ofuscado. Y eso es todo lo que se necesita para asustar a alguien y obligarlo a pagar para mantenerlo en secreto; aunque, como en la mayoría de las estafas de chantaje, es poco probable que el primer pago sea el último.

¿Cómo se puede luchar contra los deepfakes generados por IA?

Desafortunadamente, el mundo hacia el que nos dirigimos es uno donde las imágenes falsas de desnudos de casi cualquier persona estarán disponibles a pedido. Es aterrador, extraño y asqueroso, pero lamentablemente el gato está fuera de lugar aquí.

Nadie está contento con esta situación, excepto los malos. Pero hay un par de cosas que favorecen a todas las víctimas potenciales. Puede que no sea un gran consuelo, pero estas imágenes no son realmente tuyas, y no hacen falta fotos reales de desnudos para demostrarlo. Estos modelos de imágenes pueden producir cuerpos realistas en algunos aspectos, pero, como otras IA generativas, solo saben lo que han aprendido. Por lo tanto, las imágenes falsas carecerán de marcas distintivas, por ejemplo, y es probable que sean obviamente erróneas en otros aspectos.

Y aunque es probable que la amenaza nunca disminuya por completo, cada vez hay más recursos a disposición de las víctimas, que pueden obligar legalmente a los proveedores de imágenes a que eliminen las fotos o prohibir a los estafadores acceder a los sitios donde las publican. A medida que el problema crezca, también lo harán los medios legales y privados para combatirlo.

TechCrunch no es un abogado. Pero si eres víctima de esto, díselo a la policía. No se trata solo de una estafa, sino de acoso, y aunque no se puede esperar que la policía haga el tipo de trabajo de investigación en Internet que se necesita para rastrear a alguien, estos casos a veces se resuelven o los estafadores se asustan con las solicitudes enviadas a su proveedor de servicios de Internet o al anfitrión del foro.

You may also like

Exploramos la red para colectar la información más importante que pueda ser compartida para los intereses de los internautas.

El Blog del Internauta 2022

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00