Raymond Orta, director del Instituto Venezolano de Derecho Tecnológico, sugiere tener suspicacia y estar alertas con cada audio o video que llega. Recalca la importancia de corroborar la fuente de donde provienen y así evitar ser víctimas de esta modalidad de audios o videos creados con inteligencia artificial.
Caracas. A través de redes sociales y distintas plataformas digitales circulan videos que simulan a la perfección los rostros y voces de figuras públicas del mundo político, celebridades y religiosos que se logran a través del deepfake, una tecnología de emulación de realidad en la que se pueden crear estas falsificaciones.
“Es creado por tecnología digital, que no pertenece al mundo real, pero que se ve como real, tanto la fisionomía de las personas, como su voz”, expone Raymond Orta, abogado especialista en tecnología, perito en Informática Forense y director del Instituto Venezolano de Derecho Tecnológico.
Aunque se emplea como una forma de entretenimiento también sirve como una nueva estrategia delincuencial.
Orta añade que si el deepfake es creado por el mismo usuario no implica un delito. Sin embargo, cuando un tercero le falsifica la imagen y la voz a otra persona entra en la tipificación de la falsificación electrónica de la Ley especial contra delitos en Venezuela.

Deepfake en Venezuela
Desde su cuenta de Instagram la División de Investigaciones de Delitos Informáticos del Cuerpo de Investigaciones Penales y Criminalísticas (Cicpc) advirtió sobre la detección de una nueva modalidad delictiva en el país, a través de estrategias asociadas a esta técnica de la tecnología digital.
“Es algo novedoso que se utiliza a través de una herramienta, que es la inteligencia artificial, para poder modificar aquellos audios y videos originales, para quizás difundir alguna noticia falsa, o expresar algún tipo de oferta o servicio por parte de una persona que lo está haciendo”, expuso el coordinador de Logística y Supervisión de la División de Delitos Informáticos del Cicpc, Comisario Jefe Eusebio Radamés.
Resaltó que la modalidad se dio a conocer en centros educativos, en el que los estudiantes usaban la imagen de una compañera de clases y la modificaban a través de herramientas gratuitas y difundían con el propósito de generar burlas.
“Posteriormente nos dimos cuenta a través de diferentes denuncias, que utilizan la imagen o videos de personas adultas para ofertar criptomonedas, para que la persona tenga confianza y haga planes de inversión a través de estos criptoactivos. Son ofertas engañosas que se utilizan a través de las redes sociales“, dijo en la cuenta de Instagram.

Cómo evitarlo
El abogado y especialista, Raymond Orta, dice que para detectar el deepfake se requieren usos de tecnologías en inteligencia artificial, especialistas en video y audio forense.
“El problema es que al oído es muy convincente la tecnología de falsificación de audio y también con el video si se trata de productos de calidad, los resultados van a ser más convincentes, pero existen maneras de evaluar cuadro a cuadro estas falsificaciones electrónicas”,
explica
Por eso, sugiere tener suspicacia y estar “alertas” con cada audio o video que llega. En este sentido, recalca la importancia de corroborar la fuente de donde proviene.
“Una de las sugerencias es la comunicación en vivo o síncrona con una persona. Muchas veces los estafadores y defraudadores mandan un mensaje, luego se tardan un rato para preparar la falsificación de voz y lo vuelven a mandar”.
De igual forma, pide a las personas tener “palabras clave” que solo conozca su entorno que sirvan para el chequeo en este tipo de comunicaciones.
Lea también:
Jóvenes emprendedores diseñan software que promete reducir la burocracia en las aduanas