Motion Tracker
¿Qué es el trackeado de movimiento?
El trackeado de movimiento - también conocido como ,match moving’ o ,camera tracking’ - es la reconstrucción de la cámara en una grabación original (posición, orientación, longitud focal) basado en un vídeo, es decir, los objetos 3D son colocados en un footage (vídeo) en vivo coincidiendo con la posición, orientación, escala y movimiento del footage original.
Por ejemplo, si tienes footage original en el que deseas colocar un objeto para renderizado, el footage debe ser analizado correctamente y el escenario 3D (la cámara de grabación en sí, así como puntos distintivos con sus posiciones en el espacio tridimensional) debe ser reconstruido, por lo que la perspectiva y todos los movimientos de cámara se ajustan con precisión.
La función Objeto Tracker puede ser visto como una función Motion Tracker. Información detallada se puede encontrar en Objeto Tracker.
Este es un proceso complejo y, por tanto, debe ser completado en varios pasos:
En resumen: ¿Cómo funciona Motion Tracker?
Motion Tracker se basa en el análisis y trackeado de los puntos marcados (Tracks) en el footge original. Las posiciones en el espacio 3D se pueden calcular en base a las diferentes velocidades con las que estos Tracks se mueven en función de su distancia a cámara (este efecto se conoce como parallax scrolling (desplazamiento de paralaje)).
Observa la diferencia entre el footage 1 y 2 en la imagen de arriba. La cámara se mueve horizontalmente de izquierda a derecha. El florero rojo en la parte trasera parece moverse una distancia más corta (longitud de la flecha) que el jarrón azul. Estas diferencias entre los paralajes se pueden utilizar para definir una ubicación correspondiente en el espacio 3D (de aquí en adelante referido como Track) con respecto a la cámara.
Lógicamente, el Motion Tracking se hace más fácil si el footage contiene varios paralajes, es decir, regiones con diferentes velocidades de desplazamiento de paralaje debido a su distancia de la cámara.
Imagina que tienes footage de un vuelo sobre una ciudad con una gran cantidad de rascacielos: un escenario perfecto para Motion Tracking en Cinema 4D con edificios claramente separados, calles en una cuadrícula y contornos claramente definidos.
Los espacios abiertos o panoramas nodales (la cámara gira en el lugar), por el contrario, son mucho más difíciles de analizar debido a que el primero carece de puntos distintivos de referencia y este último no ofrece paralajes. A continuación, debes seleccionar un Modo Resolver específico en la pestaña Reconstrucción para definir qué tipo de Motion Tracking debería tener lugar.
Flujo de trabajo de Motion Tracking para trackeado de cámara
Proceder como sigue si quieres reconstruir la cámara usando una secuencia de video:
Esta es una representación simplificada del flujo de trabajo. Por supuesto que reconstrucciones erróneas pueden darse si seleccionas mal el Modo Resolver o si se define una incorrecta Longitud Focal / Ancho de Apertura en el objeto Motion Tracker (pestaña Reconstrucción). Sin embargo, lo más importante, y también la que consume más tiempo, es el trabajo de retocado de los Tracks 2D.
Sólo hay una manera de comprobar si el proceso se ha realizado correctamente. Y es al final, cuando veas o no que los objetos 3D añadidos al footage parecen realistas, es decir, si no saltan o se mueven de forma poco natural.
Si este no es el caso, es muy probable que tengas que ajustar o crear los Tracks 2D de nuevo. Puedes modificar algunas opciones de configuración, pero el Motion Tracking depende en gran medida de la calidad de los Tracks. El Motion Tracker ofrece toda la ayuda posible con su función Auto Track, pero al final tú tendrás que juzgar por ti mismo qué Tracks son buenos y cuáles son malos - y la cantidad de los nuevos Tracks que tendrás que crear tú mismo (véase también ¿Qué Tracks son buenos y cuáles malos?).
Ejemplo de configuración de Proyecto
Después de crear con éxito una reconstrucción de cámara, los objetos tendrán que ser colocados correctamente y estar equipados con las etiquetas correctas.
En este ejemplo, un Emisor lanza esferas sobre una mesa que ruedan sobre el borde de la mesa, chocan con el altavoz y caen al suelo. Esta escena utiliza objetos proxy (invisibles!) que sirven como objetos de colisión Dinámicos y, en el caso del monitor, ocultar las esferas detrás de él:
Cada plano ha sido orientado usando la función Crear Plano de la etiqueta Limitador Planar (sin embargo, el Lápiz Polígonos es perfectamente adecuado para esto; activa la función Fijación y habilita Fijación 3D
Fijación Ejes
Como resultado de estos ajustes, los objetos proxy no son visibles para el renderizado, a excepción de las sombras (por supuesto las fuentes de luz tienen que ser creadas y posicionadas correctamente para las sombras).