Opinión
Ver día anteriorMartes 8 de noviembre de 2022Ver día siguienteEdiciones anteriores
Servicio Sindicado RSS
Dixio
 
¿Deepfakes?: su increíble peligrosidad
E

n marzo pasado Bruce Willis anunció su retiro de las pantallas, sin embargo, hace poco la noticia de la venta de los derechos de su imagen a una empresa de deepfakes trajo a debate tanto el increíble potencial como la posibilidad de uso con fines delictivos de la Inteligencia Artificial (IA).

El término deepfake hace referencia a un video en el que se muestran imágenes falsas, montadas sobre el rostro de otra persona, los cuales a simple vista parecen ser reales, pero que han sido creadas a través de técnicas de machine learning, denominadas deep learning, las cuales a su vez utilizan algoritmos de redes neuronales. De hecho, el nombre viene del acrónimo formado por deep (profundo) y fake (falso).

En la historia reciente, el impulso tecnológico y la globalización han hecho que en los últimos cinco años esta tecnología haya ido en constante crecimiento, su aparición se remonta a 2014, cuando Ian Goodfellow, comenzó sus investigaciones sobre la generación de imágenes con un enfoque de redes neuronales generativas adversas (GAN, por sus siglas en inglés).

Los seres humanos somos paradójicos y, así como las investigaciones apuntan a mejores maneras de impulsar el desarrollo humano y el crecimiento social y personal, también hay quien suele inclinarse hacia un lado más deshonesto y criminal; la investigación de Good­fellow no fue la excepción, ya que en 2017 fue usada para realizar un montaje falso con los rostros de dos famosas actrices en un video pornográfico, que inmediatamente fue desmentido.

Este fue sólo uno de los casos más sonados, sin embargo, su aplicación ha sido clave en una de las áreas más importantes: la política; líderes como Boris Johnson, Michelle y Barack Obama, Ali Bongo, Vladimir Putin, Nancy Pelosi, Kim Jong y Donald Trump, por mencionar algunos, han sido afectados por los denominados deepfakes, apareciendo en videos donde critican y, usan lenguaje altisonante, cantan canciones o incluso como en el caso de la presidenta de la Cámara de Representantes de Estados Unidos, ralentizando un video para que pareciera que arrastra las letras y se encuentra en estado de ebriedad.

Esta nueva tecnología tiene serias repercusiones políticas, ya que, en un clima político cada vez más fragmentado, sabotear a los líderes mostrándolos en situaciones ficticias podría ser personalmente devastador. Por su parte, la corporación Rand en su artículo “Inteligencia artificial, deepfakes y desinformación”, menciona al menos cuatros riesgos importantes: 1) la manipulación de elecciones; 2) la exacerbación de las divisiones sociales; 3) la disminución de la confianza en las instituciones y las autoridades, y 4) socavar el periodismo y las fuentes de información fiables.

Y aunque para muchos pareciera que el tema podría quedar en simples bromas de los cada vez más preparados y arriesgados internautas, día con día la tecnología avanza y se convierte en una tarea para especialistas el poder identificar un falso profundo de uno real, lo que a su vez tiene efectos económicos a diversas escalas.

La preocupación es cada vez más palpable, de acuerdo con un análisis interesante y detallado emitido por el Centro de Seguridad y Tecnología Emergente, titulado “ Deepfakes: una evaluación de la amenaza con fundamento” esta tecnología técnicamente sofisticada y a la medida presenta una amenaza significativa; incluso es creada para momentos clave, como elecciones y situaciones de crisis con la finalidad de maximizar el impacto.

El panorama se ha transformado en un asunto de importante peligrosidad, tanto que incluso la Oficina Federal de Investigaciones (FBI, por sus siglas en inglés), lan­zó un comunicado en marzo de 2021 donde advierte que en los próximos 18 meses se vería un incremento de deepfakes para la suplantación de identidad y la ingeniería social en una evolución de las operaciones cibernéticas.

El tema es amplio y aunque mucho se ha mencionado, hay que reconocer que aún queda demasiado por descubrir; por ejemplo, la clonación de voz, la cual sería bueno abordar de forma individual en una próxima edición.

Estoy convencido de que a la tecnología no podemos etiquetarla bajo los adjetivos de mala o buena, sino que es usada de acuerdo con distintos objetivos; es así que las deepfakes pueden tener aplicaciones tanto inadecuadas como apropiadas sobre todo en campos como la medicina, la investigación, la política o el cine; sólo los seres humanos somos los responsables de su uso.

* Analista en temas de seguridad, justicia, política y educación