2 de febrero de 2020 00:00

'Deepfake': La inteligencia artificial batalla contra sí misma

El desarrollo de ‘deepfakes’ está al alcance de cualquier persona y los programas que facilitan su creación -muchos de ellos son de uso abierto- son cada vez más avanzados. Foto: captura de pantalla

El desarrollo de ‘deepfakes’ está al alcance de cualquier persona y los programas que facilitan su creación -muchos de ellos son de uso abierto- son cada vez más avanzados. Foto: captura de pantalla

valore
Descrición
Indignado 0
Triste 0
Indiferente 0
Sorprendido 0
Contento 0
Carla Sandoval
Redactora (O)

LEA TAMBIÉN

LEA TAMBIÉN

Aún no han podido controlar la difusión de noticias falsas, y los gigantes tecnológicos ya enfrentan un nuevo reto. Se trata de los ‘deepfakes’: videos o audios generados por computadoras que pueden crear imágenes muy realistas de algo que, realmente, nunca ocurrió.

También llamados ‘ultrafalsos’, los ‘deepfakes’ han estado en el radar desde mediados del 2019, pero saltaron a la web mucho antes. Desde el 2018 se pueden encontrar videos pornográficos de celebridades como Gal Gadot o Daisy Ridley, pero en los clips no aparecen las intérpretes sino que se trata de imágenes creadas por máquinas.

Los ‘deepfakes’ utilizan inteligencia artificial (IA) para cambiar o modificar digitalmente rostros, voces o locaciones. Es por ello que se han convertido en el nuevo centro de la guerra contra la desinformación. Y si bien programas que permiten crear contenidos falsos han estado presentes desde hace algún tiempo, el ‘deepfake’ es potencialmente más peligroso por el uso que hace de la IA.

La misma tecnología utilizada para crear los contenidos ultrafalsos es la que se está usando para combatirlos. Para un humano, una alteración en un video o un audio puede no ser evidente, a menos que se trate de un trabajo amateur, pero la IA puede analizar todos los datos de inicio a fin y determinar si el contenido es real.

El desarrollo de ‘deepfakes’ está al alcance de cualquier persona y los programas que facilitan su creación -muchos de ellos son de uso abierto- son cada vez más avanzados. A mediados del 2019 saltó un video en el que el propietario de Facebook, Mark Zuckerberg, se jactaba de controlar millones de datos robados a usuarios de la red.

Fue creado por el artista británico Bill Posters para promocionar su proyecto Spectre, que, según ha asegurado, no busca engañar a la gente -los clips difundidos en Instagram son acompañados de la etiqueta #deepfake-, sino mostrar que estos podrían ser utilizados para manipular.

Estos clips son un ejemplo de cómo la tecnología -que tiene infinitas posibilidades para mejorar la calidad de vida de las personas- puede ser utilizada de forma malintencionada. Mañana, usted puede recibir un video del presidente de EE.UU., Donald Trump, ‘anunciando’ que ordenó un nuevo ataque contra Irán, o del presidente de China, Xi Jinping, ‘confesando’ que su país no puede contener el nuevo coronavirus y que este acabará con la humanidad.

Todo es falso y puede generar tensiones y pánico. Así que el uso malintencionado de esta tecnología con fines políticos no puede quedar descartado, sobre todo en un año en el que Estados Unidos irá a las urnas. En mayo del 2019 circuló un video en el que se alteró la voz de la presidenta de la Cámara de Representantes de EE.UU., Nancy Pelosi, con el fin de hacer creer que había comparecido ante la prensa bajo los efectos del alcohol. El clip sumó más de 2,5 millones de reproducciones en Facebook. Trump lo difundió en Twitter.

Un año atrás, Jordan Peele, el director de la cinta ‘Get Out’, se ‘transformó’ digitalmente en el expresidente de EE.UU., Barack Obama, y llamó al actual Primer Mandatario del país un “total y completo idiota”. Lo hizo utilizando dos programas, Adobe After Effects y la aplicación FakeApp, para alertar del mal uso que se le puede dar a esta tecnología.

Sus alcances son mucho más grandes y pueden involucrar a cualquier ciudadano común. La Comisión Federal de Comercio de EE.UU. (FTC) advirtió que la clonación de voz también está teniendo un avance vertiginoso, lo que hará cada vez más difícil distinguir si se habla con una persona o con una máquina.

Esto facilitaría la ejecución de estafas por vía telefónica. Solo se requiere de una grabación corta de la voz de una persona para generar una conversación que puede hacer que otra entregue información o haga una transferencia, como ocurrió con una empresa europea en el 2019. En esa ocasión, cibercriminales utilizaron inteligencia artificial para imitar la voz del director de la firma y solicitar a un empleado una transferencia de
USD 243 000 a una cuenta en Hungría. Todo se trató de una estafa.

Pese a que gigantes tecnológicos como Google o Facebook han hecho avances significativos para dar de baja los contenidos creados con la intención de desinformar, manipular o estafar, la realidad es que la tecnología detrás de los ‘deepfakes’ está en un punto en el que puede ser creada y compartida en cuestión de minutos. Por ello, los filtros de inteligencia artificial que se desarrollen deben estar siempre activos para detectar y detener la difusión de estos contenidos malintencionados lo más pronto posible.

Por ahora, como advirtió Peele en su video, no hay mejor cosa que hacer que dudar de todo lo que se lee, se escucha o se observa en Internet. Es una época en la que las fuentes confiables deben primar al momento de compartir una publicación y en la que el contraste y la verificación son más importantes que nunca.

Descrición
¿Te sirvió esta noticia?:
Si (1)
No (0)