Noticias

Después de Elon Musk, ¡ahora Tim Cook! El deepfake del CEO de Apple promueve la estafa de criptomonedas

Published

on

 

Recientemente, YouTube se vio inundada de vídeos deepfake en los que aparecía el director ejecutivo de Apple, Tim Cook, coincidiendo con el evento “Glowtime” de la empresa. Estos vídeos, diseñados para engañar a los usuarios para que invirtieran en criptomonedas, se crearon utilizando herramientas avanzadas de inteligencia artificial que replicaban la imagen y la voz de Cook.

Las transmisiones en vivo aparecieron en un canal de YouTube que parecía casi idéntico al canal oficial de Apple, con una insignia de verificación falsa incluida. Esto hizo que a los espectadores les resultara difícil distinguirlas del contenido genuino. Tras una avalancha de informes de usuarios preocupados, YouTube eliminó rápidamente los videos.

Según los informes, durante la transmisión en vivo, Tim Cook, generado por inteligencia artificial, parecía estar promocionando un plan para «enriquecerse rápidamente». Dijo:

“Una vez que complete su depósito, el sistema lo procesará automáticamente y le enviará el doble de la cantidad de criptomonedas que depositó”.

Tim Cook se suma al movimiento de Elon Musk

Sin embargo, este no es el primer caso en el que la tecnología deepfake se utiliza de forma indebida para promover estafas con criptomonedas. Por ejemplo, los vídeos de Elon Musk generados por IA se han utilizado anteriormente de forma similar, explotando su imagen pública para convencer a espectadores desprevenidos de que inviertan en esquemas fraudulentos de criptomonedas.

En este sentido, cabe señalar que el CEO de Tesla no es ajeno a este tipo de preocupaciones. Hace poco, fue parte en una demanda en la que se afirmaba que Musk había inflado artificialmente el valor de Dogecoin, la moneda meme más grande del mercado. Si bien esta demanda fue desestimada bastante pronto, el uso de Musk generado por IA significa que su imagen se usa a menudo para estafas reales.

En ese momento, el informe de AMBCrypto citó a los abogados de Musk diciendo:

“No hay nada ilegal en tuitear palabras de apoyo o imágenes divertidas sobre una criptomoneda legítima”.

¿Qué están haciendo las plataformas de redes sociales?

Las plataformas de redes sociales como YouTube y Twitter han estado trabajando activamente para combatir este tipo de estafas. YouTube emplea una combinación de algoritmos de aprendizaje automático y revisiones manuales para detectar y eliminar contenido falso, mientras que Twitter utiliza inteligencia artificial avanzada para identificar actividades sospechosas y eliminar cuentas que promuevan esquemas fraudulentos.

Además, implementan sistemas de detección automatizados y se basan en los informes de los usuarios para identificar contenido fraudulento.

El aumento de las estafas deepfake pone de relieve la urgente necesidad de mejorar la alfabetización digital y las medidas de seguridad. A medida que estas tácticas fraudulentas se vuelven más sofisticadas, los usuarios deben permanecer alerta y las plataformas deben seguir desarrollando mejores herramientas de detección para proteger a sus comunidades de los daños financieros.

Al mismo tiempo, los gobiernos y los organismos reguladores de todo el mundo también están considerando nuevas políticas y tecnologías para abordar los crecientes riesgos asociados con los medios de comunicación deepfake y las estafas con criptomonedas. La lucha en curso contra este tipo de fraude requiere un esfuerzo coordinado de las empresas tecnológicas, los usuarios y los reguladores para mantenerse por delante de los ciberdelincuentes que adaptan continuamente sus tácticas para explotar nuevas vulnerabilidades.

Esta es una traducción automática de nuestra versión en inglés.

Salir de la versión móvil