TECNO | Deepfake | realidad | videollamadas

¿Cómo saber si una videollamada es real o un deepfake?

Martín Ambort, CISO de Cloud Legion, advirtió en LV12 sobre el avance de los deepfakes y explicó cómo distinguir una videollamada real de una falsa

El avance de la inteligencia artificial puso en jaque uno de los sistemas que hasta hace poco parecía infalible: la biometría. Reconocimiento facial, huella digital y validaciones por video ya no son garantía absoluta de seguridad.

Por LV12 pasó Martín Ambort, Chief Information Security Officer (CISO) de Cloud Legion, quien analizó la crisis de la verificación de identidad digital y alertó sobre el impacto de los deepfakes.

“La realidad es que el reemplazo de las contraseñas es relativo. Hoy la inteligencia artificial puede simular datos biométricos. Eso hace que el dato biométrico ya no sea suficiente”, explicó.

Durante años se habló del “fin de las contraseñas” con la llegada del reconocimiento facial y la huella digital. Sin embargo, el especialista sostuvo que el escenario cambió. “Así como antes las contraseñas no eran suficientes y tuvimos que agregar un factor adicional, hoy tenemos que seguir sumando capas de seguridad”, indicó.

Ambort remarcó que las grandes empresas combinan múltiples validaciones: contraseña, notificación al teléfono, biometría y verificación contextual. “Es lo que llamamos seguridad por capas. Con los deepfakes eso es fundamental”, afirmó.

¿Pueden clonar tu huella o tu cara?

La respuesta es sí. “Hoy pueden emular tu huella digital, tu cara y hasta tus gestos. Nuestra identidad digital está completa en internet: nombre, gustos, compras, navegación. Todo eso está disponible”, advirtió.

No obstante, aclaró que todavía existen fallos en la inteligencia artificial que permiten detectar una suplantación.

Cómo distinguir una videollamada real de un deepfake

El CISO detalló tres claves para identificar una videollamada falsa:

1. Desincronización entre labios y audio

Si el movimiento de los labios no coincide exactamente con lo que se está escuchando, puede ser una señal de manipulación. La IA a veces presenta pequeños retrasos o desajustes entre imagen y sonido.

2. Parpadeo poco natural

Las personas parpadeamos con frecuencia. En muchos deepfakes, el parpadeo es escaso, mecánico o directamente inexistente. Es un detalle sutil, pero importante.

3. Análisis del contexto y verificación externa

Este es el punto clave que él remarcó con más fuerza. Más allá de lo técnico, hay que prestar atención a qué nos están pidiendo y en qué contexto.

“Se acabó la confianza total. Hoy es confianza cero. Hay que verificar absolutamente todo, sobre todo cuando alguien llama con urgencia pidiendo una transferencia o datos sensibles”, subrayó.

También recomendó confirmar por otro canal cualquier pedido urgente, ya que muchas estafas apelan a la emocionalidad.

El desafío de la computación cuántica

Ambort advirtió que el escenario puede complejizarse aún más con la llegada de la computación cuántica.

“La computación cuántica procesa información miles de veces más rápido que los sistemas actuales. Eso puede potenciar la inteligencia artificial y hacer que estos fallos que hoy detectamos desaparezcan”, explicó.

Regulación: una deuda pendiente

En materia legal, el especialista señaló que Argentina aún debe actualizar su marco normativo. “Tenemos una ley de protección de datos personales del año 2000. Nos estamos saltando escalones si queremos regular inteligencia artificial sin actualizar lo básico”, sostuvo.

Para Ambort, la regulación es necesaria, pero debe incluir un componente tecnológico real. “Si no, queda en una expresión de buenos deseos”, concluyó.

Dejá tu comentario