“Es más difícil identificar qué es realidad y qué es IA”

En un mundo donde la inteligencia artificial (IA) avanza aceleradamente, la frontera entre lo real y lo digital se desdibuja cada vez más. Para profundizar en esta inquietante realidad, El Universal entrevistó a María Isabel Manjarrez, una destacada investigadora de Ciberseguridad e Inteligencia Artificial de Kaspersky. La experta ofrece su visión sobre los desafíos que plantea la IA en un entorno donde es cada vez más difícil discernir entre lo que es genuino y lo que es generado por algoritmos.

“La Inteligencia Artificial ha tenido un boom durante los últimos años pero así como los usuarios la han usado para su beneficio, también los atacantes la han usado, y ahora vemos estos ejemplos del deepfake y deepvoice, que son lados oscuros de la IA. Podemos esperar más ataques utilizando Inteligencia Artificial con uso malicioso”, asegura la investigadora de Kaspersky.

-¿Cómo ha sido la evolución de la clonación de voz con IA?

-Ha evolucionado en cuestión de calidad. Al principio, veíamos esto entrecortado pero ha evolucionado y cada vez es más real. Cada vez es más difícil identificar qué es realidad y qué es Inteligencia Artificial.

-¿Cuáles son los principales riesgos que enfrentan los usuarios debido a la clonación de voz?

-El principal riesgo de la clonación de voz con IA es la suplantación de identidad, pero también esto lleva mucho a la estafa con fin financiero. Hay muchas pérdidas financieras. Muchas aplicaciones ya utilizan la autenticación biométrica. Principalmente con biometría facial, y también con las huellas dactilares. Esto no es infalible y no es suficiente, deberíamos tener un doble factor de autentificación, un tipo de doble candado porque estamos accediendo a algo importante como nuestro dinero o nuestros datos.

-¿Cómo afecta la clonación de voz a la privacidad individual y a la protección de datos personales?

-Pensamos que a lo mejor nuestra voz es infalible y nadie puede tomarla. Pero entre más información tengamos disponible, nos hacemos también más propensos a suplantación de identidad. Entonces debemos tener mucho cuidado con lo que subimos a redes sociales porque es muy fácil tomar una historia de una red social pública. Los videos también tienen audio y ya es posible extraer el audio del video y, a partir de ahí, modificarlo. Nos puede afectar de manera personal. Así como hay amenaza empresarial, de millones de dólares, también puede afectar a nuestros familiares. Incluso, con los deepvoices más personales.

-¿Qué desafíos se plantean en términos de legislación y regulación de este tipo de acciones delictivas?
-La tecnología avanza un ritmo mucho más acelerado que las regulaciones y existe un gap entre el avance de la tecnología y las regulaciones. También esto tiene que ir en contexto en cuanto a la región, el país, y las amenazas que ya existen y que van a seguir evolucionando. Para iniciar necesitaríamos regulaciones dedicadas a la tecnología, específicamente regulaciones de ciberseguridad. También regulaciones que abarquen la Inteligencia Artificial y si se puede englobar ambas, mejor.

-¿Cuáles son los principales dilemas éticos que surgen con el uso de la Inteligencia Artificial para deepvoice?

-En general, el procesamiento de datos porque son datos sensibles, datos personales. Y ahora estamos hablando de datos biométricos, en donde esta manipulación se saca de contexto y nos puede afectar mucho. Puede descontextualizarse completamente.

-¿Existen tecnologías o algún método efectivo para proteger a los usuarios en contra de la clonación de voz?

-Más que otra aplicación o algo que lo detenga, es más la seguridad dentro de las propias aplicaciones. Por ejemplo, si subimos una historia con nuestra voz y nuestro video, ¿qué tan público es nuestro perfil? ¿Qué tan pública es nuestra configuración? A lo mejor esta historia ya llegó a personas a donde no debía llegar. También está del lado del usuario, poner esta configuración privada y al alcance de un botón nos evitamos esa suplantación de identidad.

-¿Cuáles son los nuevos desafíos con estos avances en la clonación de voz?

-La distinción entre cosas que son hechas con Inteligencia Artificial y la realidad, ya que eventualmente esto se va a hacer de mejor calidad y va a ser más creíble. Nos va a costar mucho trabajo identificar qué es verdad y qué no. Todavía tenemos algunas pistas pero a medida que la tecnología va avanzando, será más difícil. Por eso hay que validar la información siempre, y verificarla con los canales oficiales.

Consejos prácticos de la experta de Kaspersky:

Cuidado con lo que se sube a redes sociales y a internet en general, porque puede caer en manos equivocadas o salir de contexto.

Cuidado con las configuraciones de todas nuestras redes sociales, porque documentamos muchas partes de nuestras vidas y no sabemos a qué público puede llegar. A

Fuente: el universal