
En un correo reciente de Peter Diamandis, quien suele difundir contenido confiable, comenta que el fraude basado en deepfakes(videos falsos generados con inteligencia artificial) ha crecido un 3.000% recientemente, con pérdidas proyectadas de $40.000 millones para el año 2027.
El poder de la tecnología ha pasado en los últimos dos o tres años de generar una imagen en 30 segundos a generar cientos de imágenes por segundo, produciendo videos que parecen reales con voces reales que nunca dijeron lo que aparentan estar diciendo.
Entonces, si ya no podemos creer en lo que vemos ni lo que oímos, ¿qué vamos a hacer?
Yo, personalmente, considero que es en buena hora que nos demos cuenta de lo que está sucediendo y veamos todo con duda juiciosa. Dudar y verificar, no creer en nada que no venga de buena providencia y, aun entonces, verificar. Los principales usos de esta tecnología parecen ser el fraude financiero y la manipulación de elecciones. Si bien ya no podemos “ver para creer”, sí podemos esperar que “en guerra avisada no muera soldado”.
Claro está que las redes sociales con sus cuentas anónimas no ayudan. Muy pocos parecen estar dispuestos a seguir mi consejo de no utilizar dichas redes. Los usuarios anónimos (que no siempre son obviamente anónimos) me parecen sumamente sospechosos y no merecedores de la menor atención, sin importar qué quieran decir. Desafortunadamente, la mayoría no está de acuerdo conmigo y prefiere desperdiciar tiempo y atención leyendo, oyendo y viendo cosas inconsecuentes, en el mejor de los casos, y totalmente falsos en muchos otros.
Diamandis propone ideas valiosas para proteger a familiares: crear códigos secretos para autenticarnos; así cuando un “hijo” llama pidiendo dinero, aunque suene igual que quien dice ser, le pedimos el código para autenticar. Obviamente, debemos cuestionar cualquier solicitud inusual, o urgente, solicitando dinero o información personal. Siempre tener en mente que las solicitudes legítimas no temen el escrutinio de la verificación y el tiempo.
Algunos videos falsos se delatan por alguna pequeña inconsistencia, incluso en ocasiones, por la falta de imperfecciones. Si insistimos en ver videos de dudosa procedencia, conviene verlos de manera muy sospechosa.
En tiempos electorales, el panorama se complica: el tráfico de contenido aumenta, las granjas de troles se están automatizando, los troles modernos solo consumen energía, no duermen ni se cansan. La generación de contenido en forma de texto tiende a reducirse, mientras que el audio y el video aumentan.
La llamada alfabetización tecnológica no se trata de aprender a utilizar los dispositivos digitales; se trata de aprender a no confiar en los contenidos que circulan a altas velocidades, frecuentemente reforzando nuestros sesgos (que delatamos sin pudor en las redes sociales).
Ahora bien, la tecnología de deepfakes no es inherentemente maligna; es buena tecnología que puede ser mal utilizada con facilidad. Poder producir videos que parecen reales a muy bajo costo es una herramienta valiosa de publicidad y mercadeo. Incluso se utiliza para difundir buenas ideas y valores loables. Claro que no pretenden ser reales, son sintéticos; no tiene nada de malo ser generado en vez de creado. Igual que las imágenes animadas: no tienen nada de malo, solo que ahora ya no es obvio cuál es cuál.
Un uso legítimo de esta tecnología es crear avatares que puedan interactuar con usuarios, avatares que parecen humanos con conocimientos específicos y pueden servir para ayudar, dar indicaciones, para conversar o, simplemente, para acompañar. Estos avatares pueden ser totalmente ficticios o pueden poseer aspecto y voz real, incluso el conocimiento y experiencias que utilizan pueden ser reales.
Así, si los roquitos de mi generación nos grabamos con audio y video, digamos varias horas con un teléfono contando nuestro cuento con anécdotas graciosas, nuestros nietos y bisnietos podrán interactuar con nosotros dentro de varias décadas, enterarse cómo era la vida en el siglo pasado y, tal vez, entender un poquito de dónde vienen.