50% DE DESCUENTO EN PLANES ANUALES
CYBER MONDAY
AHORA HASTA DICIEMBRE 5th
Ahmar Naseer
8/23/2024
Si no conoces la IA, debes estar viviendo bajo una roca porque ¡la inteligencia artificial ha conquistado el mundo! La IA se está desarrollando a la velocidad de la luz, y la última tecnología innovadora de aprendizaje profundo que está llamando la atención (literalmente) es IA falsa y profunda.
La IA se puede utilizar tanto para bien como para mal, pero ¿cómo ha impactado el deep fake al mundo virtual? ¿Cuál es el núcleo de esta tecnología y cómo esta forma avanzada de IA altera la realidad?
Continúe leyendo para aprender todo sobre esta tecnología de punta y sus implicaciones.
¿Has visto alguna vez una película en la que se intercambia la cara de un actor por la de otra persona? Esto es precisamente lo que hace la IA falsa y profunda. Es una forma de inteligencia artificial que utiliza algoritmos de aprendizaje profundo para resolver problemas utilizando grandes conjuntos de datos. ¡Incluso el nombre "deep fake" se deriva de la combinación del aprendizaje profundo y los resultados falsos que crea!
El deep fake se utiliza para intercambiar caras, cuerpos y voces, creando vídeos y audios convincentes pero falsos. De hecho, Gartner, una firma líder en investigación tecnológica, predice que para 2026, el 30% de todas las empresas considerarán inútiles la identificación y verificación debido al aumento de los deepfakes de IA.
La IA profundamente falsa se utiliza a menudo para cambiar vídeos y audio para decir o hacer cosas que la gente no ha hecho o dicho. Sin embargo, también se puede utilizar para crear contenido original.
Entonces, ¿cómo funciona esta fascinante tecnología? A menudo llamado la 'IA que engaña', el contenido profundamente falso se crea cuando se utilizan juntos dos algoritmos complejos que compiten. Esto crea la **Red Generativa Adversaria (GAN).
Los dos algoritmos en competencia son:
Estos dos algoritmos se combinan para formar GAN, que utiliza el aprendizaje profundo para estudiar e identificar diferentes patrones en imágenes para crear falsificaciones refinadas.
Al crear imágenes falsas, el sistema GAN ve la imagen desde diferentes ángulos para ensamblar falsificaciones perfectas.
Al crear videos profundamente falsos, GAN estudia el video, los movimientos y los patrones de comportamiento desde diferentes ángulos para crear un video falso.
Los vídeos deep fake pueden ser de dos tipos:
En este método, un autocodificador analiza las expresiones faciales, los gestos, los movimientos y los patrones del objetivo a partir de un vídeo original. Luego, el codificador automático impone las expresiones y movimientos específicos del objetivo en el video que se va a modificar.
Otra forma en que se crean videos deep fake es utilizando la técnica de intercambio de caras, donde la cara del objetivo se intercambia con el cuerpo de otra persona, obligándolo a hacer o decir cosas que en realidad no dijeron.
Las falsificaciones de audio se están volviendo muy comunes y se utiliza Procesamiento del lenguaje natural para crearlas. Los algoritmos de PNL clonan la voz objetivo identificando patrones y características sobresalientes.
Luego, estos patrones se utilizan para clonar la voz y los programadores pueden hacer que diga lo que quieran. Los patrones se identifican utilizando muestras de la voz objetivo. Cuantas más muestras se utilicen para crear el clon, más preciso será el audio falso. Todo el proceso se llama clonación de voz.
Las falsificaciones de audio se utilizan en el nicho de los juegos, la industria de la radio y para fines de streaming.
La sincronización de labios es una de las formas más comunes de utilizar falsos profundos. Utiliza grabaciones de voz junto con imágenes para dar la impresión de hablar. Puede ser muy engañoso, especialmente si el audio también es muy falso.
Cada vez es más fácil para el hombre común utilizar la última tecnología para desarrollar deepfakes de vídeo, audio y fotografías. Echemos un vistazo a las diversas plataformas en línea y la tecnología necesarias para realizar falsificaciones profundas:
Como se mencionó anteriormente, GAN combina dos algoritmos únicos para crear falsificaciones profundas. La GAN es crucial para las IA deepfake y se utiliza en cada deepfake creado.
Las CNN se utilizan para el reconocimiento facial y para analizar diversos patrones de movimiento.
Los codificadores automáticos identifican las características específicas del objetivo, como un patrón de comportamiento, un movimiento específico o expresiones faciales. Luego los fusionan en el video profundamente falso.
Como se mencionó anteriormente, los PNL identifican los atributos del discurso del objetivo y los utilizan para crear texto original.
La informática de alto rendimiento, o HCP, se refiere a las supercomputadoras que ejecutan algoritmos de inteligencia artificial necesarios para crear falsificaciones profundas.
La IA profundamente falsa se ha hecho un hueco en el mundo digital que avanza rápidamente. A continuación se detallan algunos campos en los que se utilizan deepfakes:
La IA ha dejado una huella imborrable en la industria del entretenimiento. Se utiliza ampliamente para clonar actores y sus voces, para producir escenas que son difíciles de filmar durante la posproducción si un actor no está disponible o simplemente para ahorrar tiempo de producción.
También se utiliza en la industria musical para crear música nueva con las voces de cantantes existentes. Ha habido varios deepfakes de actores famosos como Morgan Freeman, Tom Cruise e incluso la cantante Taylor Swift.
Uno de esos vídeos del actor Morgan Freeman en YouTube parece casi real. Ha obtenido millones de visitas.
Varias empresas utilizan IA de audio para crear voces para tareas sencillas relacionadas con el servicio al cliente, la gestión de cuentas, la resolución de problemas y la presentación de quejas para bancos y otras empresas.
Las falsificaciones de audio se utilizan ampliamente en la industria de atención al cliente para ayudar a responder preguntas, solucionar problemas y aumentar la satisfacción y retención del cliente.
También puede ayudar a aumentar los clientes comunicándose en diferentes idiomas. Por ejemplo, Synthesia, la aplicación de entrenamiento de teclado de piano en Play Store está disponible en más de 40 idiomas diferentes.
Un uso desafortunado de la IA profundamente falsa es el chantaje. A menudo se utiliza para difamar y acusar falsamente al objetivo de extorsión. El ejemplo más común es cuando se pone al objetivo en situaciones explícitas e inapropiadas.
Algunos ejemplos destacados de chantaje mediante deepfake:
También se han utilizado deepfakes para cometer robo de identidad y fraude bancario.
Desafortunadamente, la IA profundamente falsa también se ha utilizado para la suplantación. Se han cometido varias estafas y delitos utilizando esta tecnología cuando personas se han hecho pasar por otra persona y les han robado grandes sumas de dinero.
Un ejemplo reciente de este tipo de fraude es el de una empresa multinacional de Hong Kong que reclamó una pérdida de 25 millones de dólares. Sucedió debido a un video muy falso que se hacía pasar por el director financiero de la compañía a través de una videoconferencia. El vídeo engañó a los empleados para que transfirieran dinero a la cuenta bancaria del estafador.
También se sabe que muchas personas con mentalidad criminal utilizan deepfakes para crear pruebas falsas y presentarlas en los tribunales.
Por ejemplo, la IA profunda se puede utilizar para estudiar y clonar las expresiones faciales y las acciones de un delincuente. Luego, puede fabricar una coartada y crear vídeos falsos, mostrándolos presentes en otro lugar, lejos de la escena del crimen.
Muchas veces, se pueden crear falsificaciones de políticos u otro personal confiable, que se utilizan para difundir desinformación entre el público. Esto conduce a la difusión de noticias falsas que son una forma de engañar al público.
Por ejemplo, una imagen del Pentágono apareció en las redes sociales a principios de 2023 y mostraba que se había producido una explosión cerca de el edificio. Esta era una imagen hecha con IA y era falsa. Provoca una caída del mercado de valores debido a la difusión de noticias falsas.
La difamación es otra forma de difundir información falsa sobre alguien, ya sea escrita o verbal. La IA profundamente falsa se ha utilizado descuidadamente a este respecto.
Un ejemplo reciente de este fraude involucró a la destacada periodista inglesa Martine Lewis, quien presentó una demanda contra Facebook por promover anuncios en línea con su nombre para inversiones relacionadas con bitcoins que nunca respaldó. Aunque un tercero publicó estos anuncios, Facebook tuvo que pagar para resolver la disputa.
Aunque la IA ultrafalsa es legal, aún puede representar una grave amenaza para la sociedad. Los deepfakes sólo son ilegales si infringen leyes como la difamación, la pornografía infantil o el discurso de odio. Entonces, mientras se pisa la delgada línea entre lo legal y lo ilegal, ¿cómo causan daño los deepfakes?
En general, los deepfakes no son del todo malos, pero sus malos usos son preocupantes. Y en esta etapa, los malos usos superan a los buenos, por lo que debemos tener cuidado al evaluar información tan falsa.
Echemos un vistazo a cómo se utiliza el deep fake para mejorar varios sectores de la vida:
Entonces, dado que las falsificaciones profundas son tan frecuentes en línea, ¿cómo puede protegerse para no convertirse en una víctima? Hay varias prácticas que puedes adoptar para detectar la IA; aquí están algunos de ellos:
Entonces, ¿puede la IA detectar deepfakes? La popularidad y el aumento de las falsificaciones profundas han empujado a varias empresas tecnológicas multinacionales a invertir en tecnología y herramientas que puedan detectar la IA.
Isgen está a la vanguardia en la promoción del uso seguro de la IA. Actualmente estamos trabajando en el desarrollo de tecnología para identificar audio y deep fake. Será un gran hito para garantizar el uso ético de la tecnología deep fake.
¿Nos dirigimos hacia una pandemia en línea? El uso de IA profundamente falsa de manera fraudulenta con fines de chantaje o robo de identidad está aumentando. En las manos equivocadas, cualquier tecnología puede utilizarse para dañar a las personas y a la sociedad en general. Deep Fake es un excelente ejemplo de dicha tecnología.
Debemos asegurarnos de que el público sea consciente del daño que la IA puede causar y de que se desarrollen herramientas baratas de detección de IA para combatir a las personas que la usan de manera negativa. Muchas empresas tecnológicas líderes están trabajando en el desarrollo de herramientas avanzadas para combatir la IA. Pero por ahora, parece que los humanos pueden estar perdiendo la batalla ante la IA.