El montaje en la era digital Tecnologías de edición y post-producción

Documentos relacionados
Formatos y Compatibilidad. Años anteriores al 2005 los formatos analógicos más comunes eran:

Barrido progresivo y HDTV

PRINCIPIOS SOBRE FORMATOS DIGITALES Y HD

Barrido progresivo frente al barrido entrelazado

Sistemas de almacenamiento informático

Taller de Producción Audiovisual I Ficha de cátedra Nº 3. La edición en video. Tecnologías y procedimientos. Federico Vazza

Encuadre. Existen diferentes tipos de encuadres:

CÓMO GRABAR VIDEO DESDE EL DISPOSITIVO MÓVIL TUTORIALES TRANSMEDIA

CAPITULO 2 CARACTERÍSTICAS ESPECIALES

Alta definición: El primer paso a la Televisión del futuro

Paso 1 de 13. Paso 2 de 13. Guía de aprendizaje de Flash CS5 Tutorial 3. Creación de un logotipo textual.

PARTES FUNDAMENTALES DE UNA CÁMARA FOTOGRÁFICA

1. CARACTERÍSTICAS DEL VÍDEO DIGITAL

Roberto Quejido Cañamero

Curso de fotografía Técnica fotográfica. Control de la luz Ricardo Sánchez Alférez

1. Como funciona el programa de edición?

Guía Rápida de Deco Grabador HD

Unidad 1. La información

CURSO RÁPIDO DE PHOTOSHOP APLICADO AL SLOT

OBJETIVOS Conocer el concepto de vídeo digital. Digitalizar vídeo digital. Distinguir los formatos de vídeo. Editar vídeo.

EXPOSICIÓN DE LA PELÍCULA

Qué es la tecnología digital?

Edición de vídeo con movie maker Autor: Jhon Gilberto Sánchez

LA CAMARA FOTOGRAFICA DIGITAL (II)

DVR. Guía Rápida de. Grabador Digital de Video

Ventajas y desventajas. Entre las cámaras analogas y las cámaras digitales

Índice Objetivo... 2 Definición y utilidad de Movie Maker... 3 Cómo iniciar Movie Maker?... 3 Elementos de la ventana de Movie Maker...

Captura de vídeo digital con Guadalinex Edu

1. Sistemas de televisión extendidas:

StopMotion, manual de usuario*

Laboratorio de Física Universitaria II. FISI 3014 Primer semestre del año académico Departamento de Física y Electrónica de la UPR-H

Grabación de sonido. Realizado por: Alejandro Martín Daza Manuel Romero Aranda

Edición de Video con software libre Aplicación OpenShot

Capítulo 9. Archivos de sintaxis

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)

Trabajar con diapositivas

En este capítulo se describe la forma de cómo se implementó el sistema de video

Así de fácil. Cortar, descargar y convertir vídeos o sonidos. Controles avanzados del reproductor multimedia VLC

Un par de ideas sobre la cámara fotográfica

Tecnología IP para videovigilancia... Los últimos avances han hecho posible conectar cámaras directamente a una red de ordenadores basada en el

TALLERES TIC. por Diego Fontecha

CONCEPTOS INFORMÁTICOS BÁSICOS

15 CORREO WEB CORREO WEB

WebCams USB Cámaras digitales de video FireWire Cámaras digitales de fotos, USB

MANUAL WINDOWS MOVIE MAKER. Concurso de Gipuzkoa

Guía curso Integrando las TICS en Segundo Ciclo Básico Guía de uso para crear videos en Windows Movie Maker

UTILIZACIÓN DE UNA CUENTA DE CORREO ELECTRÓNICO (NUEVO) Acceso al correo electrónico

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX

RELACIÓN DE PRÁCTICAS DEL TEMA 2

CÓMO CREAR NUESTRO CATÁLOGO

Accesibilidad web GUÍA FUNCIONAL

LA CÁMARA FOTOGRÁFICA DIGITAL (y III)

Actividades con GeoGebra

Resoluciones de Pantalla.

Francisco J. Hernández López

Guía de uso del Cloud Datacenter de acens

Guía de aprendizaje Audacity: guía de edición de sonido

La pestaña Inicio contiene las operaciones más comunes sobre copiar, cortar y pegar, además de las operaciones de Fuente, Párrafo, Estilo y Edición.

CONECTORES DE AUDIO Y VIDEO. Conectores que podemos encontrarnos en los dispositivos audiovisuales

Universidad Metropolitana de Ciencias de la Educación Departamento de Medios Educativos

Ministerio de Educación. Diseño de Presentaciones en la Enseñanza. Módulo 9: Imprimir

MANUAL DE MOVIE MAKER

INSTITUTO DE INVESTIGACIÓN Y DESARROLLO DE TELECOMUNICACIONES

App para realizar consultas al Sistema de Información Estadística de Castilla y León

CONCEPTOS BASICOS. Febrero 2003 Página - 1/10

Vídeo digital. Figura 1

GENERACIÓN DE TRANSFERENCIAS

CAPÍTULO 1 PRIMEROS PASOS

DESCARGA DE CARPETAS DE MENSAJES DE CORREO DESDE EL WEBMAIL A PC S LOCALES

Cómo editar los vídeos para utilizarlos con el programa ATD. Raúl Arellano Colomina. Análisis, Evaluación y Entrenamiento de la Técnica Deportiva

TEMA 1: SISTEMAS INFORMÁTICOS. Parte 2: representación de la información

Resumen de fotos editadas por alumnos/as del 3º ciclo de Educación Primaria. / 12

GENERACIÓN DE ANTICIPOS DE CRÉDITO

La composición de una imagen, reglas

I.E. FRANCISCO ANTONIO DE ZELA MANUAL DE MOVIE MAKER

Curso virtual de Audacity. Bienvenidos al curso de Audacity, bajo la modalidad virtual, propuesto por Uruguay Educa.

PUERTOS DE COMUNICACIÓN EXTERNOS TIPO VELOCIDAD DESCRIPCION GRAFICO

GUÍA RÁPIDA DE TRABAJOS CON ARCHIVOS.

TECNOLOGIA DE VIDEO DE ALTA DEFINICION

Elaboración de contenidos educativos digitales. Guía sobre Windows Movie Maker

5.2.- Configuración de un Servidor DHCP en Windows 2003 Server

GUÍA RED SOCIAL FACEBOOK

Objetivo: Que el alumno(a) entienda, comprenda y maneje el programa (Flash )

6.- La principal diferencia entre un disco DVD y un disco CD es:

Programa Tracker : Cómo generar Vectores y sumarlos

AUDIO, VIDEO E INTERNET

Ahorro de energía visualizando páginas Web en dispositivos móviles heterogéneos

MANUAL DE USO DE LA APLICACIÓN

Módulo II - PowerPoint

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología

Guía de calidad de color

en casa Manual de usuario

Teclado sobre una PDA para Personas con Parálisis Cerebral

Sistema de Gestión Portuaria Sistema de Gestión Portuaria Uso General del Sistema

GUIA APLICACIÓN DE SOLICITUDES POR INTERNET. Gestión de Cursos, Certificados de Aptitud Profesional y Tarjetas de Cualificación de Conductores ÍNDICE

2_trabajar con calc I

Taller de Fotografía Digital Básico

Instrucciones de instalación de TrueCode

Capitulo I. Introducción

Semanas Vectorización 6 y de 7 tipografías Animación en Photoshop. Por fin entenderás y comprenderás la elaboración de gifs animados para páginas web!

Transcripción:

Facultad de Humanidades Licenciatura en Producción y Dirección de Radio y Televisión El montaje en la era digital Tecnologías de edición y post-producción 003973 Profesor: Angel Bajarlía

Ángel Bajarlía El Montaje en la era digital (Tecnologías de Edición y Postproducción) 2012

ÍNDICE Introducción: El Montaje Pág. 4 Capítulo I: Los comienzos Pág. 10 Capítulo II: Sistemas y normas de televisión Pág. 20 Capítulo III: Formatos de filmación y proyección en 35 mm. Pág. 24 Capítulo IV: Tamaños de cuadro y relaciones de aspecto en video Pág. 26 Capítulo V: Soportes de imagen Pág. 30 Capítulo VI: Transmisión de señales analógicas y digitales. Pág. 32 Capítulo VII: Soportes de video: Cintas magnéticas, tarjetas de memoria y discos rígidos Pág. 38 Capítulo VIII : La edición Pág. 47 Capítulo IX : Edición con Time Code Pág. 52 Capítulo X : Edición digital no-lineal Pág. 63 Capítulo XI :Compresión Pág. 66 Capítulo XII :Sistemas de edición digital no-lineal Pág. 69 Capítulo XIII : Film to tape Pág. 75 Capítulo XIV : Editando material fílmico Pág. 77 Capítulo XV : El cine digital Pág. 82 Capítulo XVI : Exportación de archivos Pág. 86 Capítulo XVII : Edición Vertical Pág. 96 Capítulo XVIII : Corrección de color Pág. 99 Capítulo XIX :Tape to film Capítulo XX :Armado de una isla de edición digital Capítulo XXI :Guía rápida de uso del Adobe Premiere Pro Pág.116 Pág.122 Pág.126 2

COMO USAR ESTE LIBRO Hoy en día el cine y el video, desde el punto de vista técnico, se han fusionado en todo lo que se refiere a las cámaras y las herramientas de edición y post-producción de imagen y sonido. Por este motivo, el siguiente apunte fue escrito explicando el desarrollo en forma paralela de ambos medios hasta su unión en la actualidad. El lector encontrará alternadamente descripciones sobre la edición en fílmico y video para llegar hasta lo que hoy llamamos cine digital. Cuando ya conozcan mejor los sistemas de edición, continuamos con la explicación de los procesos de postproducción, composición multicapa, corrección de color y el agregado de un texto de Jorge Ricaldoni sobre los procesos de Tape to Film utilizados actualmente para realizar una producción en video y plasmarla en fílmico. Al final del apunte el lector encontrará bibliografía recomendada, una guía rápida de uso del soft Adobe Premiere Pro, sitios web de utilidad y un glosario de términos técnicos en ingles y castellano que les ayudara a una mejor comprensión de los términos expresados en clase. Prof. Ángel Bajarlía 3

Introducción: El Montaje A menudo nos preguntamos que es el montaje? Para muchos es un simple proceso consistente en eliminar de una filmación las tomas que salieron mal o no sirven. En parte podría ser cierto pero es raro (no imposible) que en el rodaje de una película, sobre todo cuando se graba en un soporte digital, encontremos tomas fuera de foco, oscuras o quemadas. En mi vida profesional en más de una ocasión resolví un problema de edición con alguna de las tomas descartadas. Lo que nos demuestra que cualquier toma puede a veces resultar útil a pesar de sus defectos, depende del trabajo que estamos armando y de lo que queramos transmitir a través de nuestro montaje. El montaje o edición de una película o video, es quizá el proceso más importante en el rodaje de un film. Es el instante en que la película comienza a tomar su forma definitiva. Para muchos directores este es el verdadero momento de la realización. En la sala de montaje es posible cambiar o reestructurar toda la película saliendo de la linealidad del guión. Gracias al montaje una película mediocre puede llegar a convertirse en una buena obra o una buena historia puede ser arruinada. Las posibilidad de combinación de planos es infinita y para ello hoy día contamos con inapreciables herramientas de edición. Después de casi un siglo cortando y pegando los trozos de película en la moviola, el advenimiento del montaje digital revolucionó la edición de la misma forma que la imprenta para la edición de libros. Con los sistemas digitales la compaginación fue ampliando sus horizontes expandiendo sus posibilidades a áreas que antes estaban destinadas exclusivamente a los laboratorios. Los programas de composición multicapa comenzaron a jugar un papel cada vez más importante. Trucas y efectos que en cine eran costosísimos no solo se abarataron sino que además fueron más sofisticados y complejos. Trabajando junto con los programas de edición llegaron a producir verdaderos cambios en el lenguaje cinematográfico además de poder ver inmediatamente y corregir llegado el caso, todo tipo de transición y/o efecto que ayudara dramáticamente al film. 4

A través de estas páginas veremos las herramientas con que contamos hoy en día para realizar la edición de cualquier proyecto que queramos encarar. Producto de los avances tecnológicos, los sistemas de edición digital no-lineal se han abaratado a tal punto en el que cualquiera puede tener su propia isla de edición y trabajar sin la presión que implicaba alquilar un servicio de compaginación. Pero ante todo tengamos en cuenta que saber operar un soft de edición (cualquiera que sea) no implica saber compaginar, que es lo más difícil de todo. No cualquier persona tiene la habilidad, capacidad, criterio y talento necesarios para saber como pegar y asociar un plano a continuación de otro buscando contar una historia que el espectador entienda, se entretenga y que se involucre en la trama del film. En general, a la hora de decidir especializaciones, montaje es la menos elegida. No todo el mundo soporta ver durante horas la mismas tomas hacia delante y hacia atrás. El perfil (no en todos los casos) de un editor es habitualmente el de una persona solitaria (siempre trabaja aislado en su isla) con mucha paciencia, diplomática para sugerir cambios sin generar conflictos, hábil para tomar decisiones y abierto a experimentar diferentes códigos de lenguaje que ayuden a contar una buena historia. En el caso de la post-producción digital tiene que tener los conocimientos para resolver problemas generados en la filmación, tratando de no dejarse llevar por la ansiedad y la presión del director o de su cliente poniéndole limites cuando hace falta. No hay que filmar basándose en un viejo y ridículo mito después lo arreglo en la edición. Esa frase solo pudo haber sido inventada por un incapaz en producción. Lo último que debemos hacer en rodaje es posponer los problemas de producción para la edición, Hay cosas que son fáciles de solucionar y otras no. Pero al margen de si el problema es resuelto o no en la edición, la realidad es que hemos incrementado los tiempos y costos de producción por no haber previsto los problemas con la suficiente antelación para evitarlos y luego vienen las quejas y lamentos. 5

A esta altura del relato es donde cabe la frase de mis colegas de Canal 13 de Buenos Aires : Nosotros tenemos un convenio con Dios. Él no edita y nosotros no hacemos milagros. Para entender las ventajas y funcionamiento de lo que hoy llamamos Workflow (flujo de trabajo), debemos conocer también la evolución de los antiguos sistemas de edición, y también los diferentes formatos, soportes y archivos digitales para cine y video digital existentes en el mercado que se renuevan día a día. De esta manera sabremos que es lo que necesitamos a la hora de planificar una post-producción. QUÉ ES LA POSTPRODUCCION? La postproducción es el proceso de acabado final de imagen y sonido para cualquier contenido audiovisual. Comienza por la edición, continua con la composición y la dosificación del color, la postproducción de sonido y la masterización final en un soporte filmico o digital. También podríamos decir que es el arte de lograr lo imposible. Cualquier cosa que imaginemos hoy puede ser simulada y que parezca real. El diseñador de VFX o compositor es el artista que se ocupa de tallar un diamante en bruto y convertirlo en una piedra preciosa. El termino compositor comenzó a utilizarse a medida que aumentaba el uso de programas de composición multicapas tales como Smoke, Jaleo, Avid DS, After Effects, Combustion, etc. Por simple que sea cualquier video o película pasará inevitablemente por esta etapa. El proceso puede variar dependiendo del soporte en que fue registrado dicho contenido pudiendo ser este fílmico o video, tanto analógico como digital. 6

La figura del supervisor y diseñador de VFX ha ido creciendo paulatinamente a la par de los desarrollos en softwares de edición y composición digital. En muchos casos en países como Argentina, trabajando en forma autodidacta y en ocasiones con estudios en el exterior. Esto ha producido muy buenos compositores que saben un poco de todo pero sin especializaciones. El término postproducción se empezó a utilizar hacia finales de la década del 80 aproximadamente. Hasta ese momento en video se usaba siempre el término edición. Esto era bastante lógico porque hasta ese momento la edición de video era fundamentalmente lineal y la tecnología existente era bastante limitada. Se compaginaba reproduciendo una cinta en una videocassettera o máquina de video tape (VTR) y se copiaban las partes que nos interesaban por corte en otra que hacía la función de grabadora. A medida que la tecnología en hardware y software fueron avanzando el lenguaje en la edición y efectos comenzaron a evolucionar a la par. Los primeros equipos de video digital se desarrollaron primero con fines puramente técnicos para corregir defectos de las señales de televisión. Este tipo de equipamiento es lo que se llamó hardware dedicado. Generadores de efectos digitales que trabajaban con sistemas operativos y softwares propios en tiempo real y sin render (procesado de la imagen que demora un cierto tiempo debido a su complejidad y al hardware utilizado). El pionero en este tipo de generadores fue el ADO (Ampex Digital Optics) de la firma Ampex Corporation. 7

ADO Rara vez tenían colgaduras pero el problema principal es que no eran expandibles y, cuando tenían esa posibilidad, era muy cara porque no era simplemente actualizar un programa sino que implicaba cambios de plaquetas en el hardware. El precio de estos equipos variaba de acuerdo a los efectos que realizaba y fundamentalmente a la calidad de video y fluidez de los mismos. Los más caros tenían mayor rapidez para hacer cálculos en la conversión de video analógico a digital y viceversa. Un nuevo término aparecía en el lenguaje: el concepto de trabajo con Keyframes (fotogramas clave) para animación de los efectos. Paralelamente los equipos de edición fueron mejorando en prestaciones y precisión, fundamentalmente por la incorporación como elemento de serie del Time Code (Código de Tiempo) en las cintas de video. El desarrollo de los sistemas A B Roll usando tres o más videocassetteras abrió el camino para trabajar con listas de decisión de edición (edl) y a hablar de edición off-line y online. La calidad final de imagen dependía del formato de video con el que se estuviera grabando. Las islas A-B roll se caracterizaron también por comenzar a trabajar en base a software e interfases gráficas, anticipando las interfases de las futuras islas no lineales. 8

Mientras tanto en cine, el montaje seguía consistiendo en cortar y pegar físicamente la película, proceso que duraría casi un siglo. Otro elemento que fue creciendo gracias a los desarrollos tecnológicos fue la llamada animación electrónica computada. Comenzó siendo analógica y luego se transformó en digital. Hoy la conocemos como animación 3D. Con el avance en la capacidad y velocidad de los discos rígidos y los microprocesadores, llegaría, para quedarse, la edición digital nolineal y con ella, la edición horizontal, la edición vertical o composición, y los renders, para que la postproducción se convierta en lo que es hoy en día. Ese fue el momento en que el cine y el video dejaron de co-existir como medios diferentes para fusionarse y compartir toda la tecnología de la postproducción actual. Seguramente el lector en más de un caso se preguntará: si solo voy a compaginar mi proyecto con un programa de computadora, para que necesito tanta información técnica? Porque editar sin conocimientos técnicos produce resultados de mala calidad o contenidos que no se atienen a las normas de un canal de TV motivando sus rechazos. El tener una base técnica para editar nos permite saber como configurar el programa de edición de acuerdo al ojetivo final. No es lo mismo editar un video para Internet, para un DVD o Blu- Ray o para un canal de televisión. Los conocimientos técnicos, nos permiten resolver problemas, saber que servicios contratar y en muchos casos economizar dinero buscando la mejor relación costo-calidad. En este trabajo al igual que en otros rubros debemos siempre tener en cuenta que: DESCONOCIMIENTO = PÉRDIDA DE CALIDAD Y DE DINERO. 9

Capítulo I: Los comienzos CÓMO SE OBTIENE LA IMAGEN FOTOGRÁFICA? Desde siempre el hombre quiso plasmar la realidad que lo rodeaba sobre un soporte mucho más durable que sus propios recuerdos, para expresar por medio de imágenes, mensajes, pensamientos e ideas a sus semejantes. Las pinturas rupestres son la primeras muestras de expresión que encontramos y que luego fueron evolucionando a través de las historia por medio de los jeroglíficos y la pintura en sus diferentes estilos, hasta llegar a inventar la fotografía. Basado en el concepto de la cámara oscura, en 1816 el francés Nicéphore Niepce obtuvo las primeras fotografías de la historia. La cámara oscura se convirtió en un aparato consistente en una caja con un sistema de lentes en un extremo, llamado objetivo, y una placa de vidrio recubierta por una sustancia sensible a la luz en el otro. Al perfeccionarse el invento se agregó al sistema de lentes un disco o sistema de aletas que pueden abrirse o cerrarse denominado diafragma o iris y que gradúa la cantidad de luz que llega a la película de la misma manera que lo hace el iris del ojo humano. Diafragma 10

Un tercer elemento completa el sistema fotográfico detrás del objetivo: el obturador. Este se ocupa de regular cuanto tiempo estará la película expuesta a la luz. La placa de vidrio fue reemplazada por una tira de celuloide perforada recubierta de una emulsión fotoquímica inventada por George Eastman, fundador de Kodak. Esquema de una cámara fotográfica reflex 35 mm Rollo de fotografía 35 mm. 11

LA ILUSIÓN DEL MOVIMIENTO: EL CINE Y LA TV Nuestro ojo capta las imágenes que nos rodean debido a la luz reflejada por los objetos. La fotografía utilizó el mismo principio aprovechando las propiedades de ciertas sustancias químicas que cambiaban de condición al recibir la incidencia de la luz. Los rayos de luz que emite una fuente lumínica, así como también los que son reflejados en los distintos objetos que encuadramos dentro de una imagen, llegan a la cámara pasando a través de un sistema de lentes, e inciden sobre la película de celuloide recubierta de sustancias químicas sensibles a la luz, en la cual se imprime la imagen. Gracias al trabajo de diferentes investigadores, Thomas A. Edison y los hermanos Lumiere, aprovecharon un defecto de nuestro ojo conocido como persistencia retiniana para lograr la ilusión de movimiento. Dicho defecto consiste en que todas las imágenes captadas por este no se borran instantáneamente sino que persisten en la retina por una fracción de segundo. Así se comprobó que al pasar frente al ojo una serie consecutiva de fotografías con una leve diferencia entre una y otra, se creaba una ilusión de movimiento porque el ojo humano las percibe continuas y no aisladas cuando recibe 16 o más imágenes por segundo. Los hermanos Lumiere diseñaron una cámara/proyector que tomaba una serie de fotografías que al ser proyectadas a la misma velocidad en que fueron tomadas posibilitaban ver una imagen en movimiento. Film 35 mm. (fotograma de Side by Side, documental de Keanu Reeves) 12

Para imprimir cada cuadro, la cámara y luego el proyector para emitir cada imagen, realizan un movimiento intermitente, es decir avanza un cuadro, toma una foto, avanza otro cuadro, toma otra foto y así sucesivamente. Tanto la cámara como el proyector cuentan, al igual que las cámaras fotográficas de un obturador. Este se ocupa de controlar el tiempo en que cada fotograma está expuesto a la luz. Cumple la función de una puerta que al abrirse permite el paso de la luz a través del conjunto de lentes que conforman el objetivo y al cerrarse lo impide. Al ser proyectados a una velocidad de 24 fotos por segundo nuestro ojo lo capta como una secuencia de imágenes en movimiento al ser cortado el paso de luz cuando la película se desplaza al siguiente fotograma. Para evitar los parpadeos en las áreas más luminosas, se utiliza una doble obturación, cada fotograma es proyectado dos veces antes de cambiar al próximo. Es decir: se proyecta un cuadro el obturador corta el paso de luz se proyecta nuevamente el mismo cuadro - el obturador corta el paso de luz avanza la película al próximo cuadro. Esta forma de proyectar equivaldría para nuestro ojo a una proyección de 48 cuadros por segundo. Antiguo proyector de películas 13

La película con la que se filma profesionalmente es de un ancho de 35mm. con cuatro perforaciones a cada lado. Las perforaciones sirven para que la cámara y el proyector puedan arrastrar la película y lograr así el movimiento intermitente. Las primeras cámaras funcionaban con una manivela, luego tuvieron motores de cuerda hasta llegar a incorporar el motor eléctrico. Se adoptó la velocidad estándar de 24 fps. (fps: frames per second o fotogramas por segundo) porque fatiga menos la vista y evita parpadeos. Si filmamos a velocidades de 36, 50, 80 o 100 fps., y los proyectamos a 24 fps, obtenemos el efecto de cámara lenta, ralentado o slow motion. De la misma forma si filmamos a velocidades de 4, 8, 12 fps. tendremos un efecto de cámara rápida o acelerado. Obviamente en el primer caso el consumo de película aumenta considerablemente. Si filmamos cuadro por cuadro a intervalos regulares y lo proyectamos a 24 fps. crearemos una animación. Si la cámara posee obturador variable, tanto en cine como en video, nos permitirá obtener imágenes con mayor definición y estabilidad en los movimientos pero necesitaremos más luz para compensar que la película está expuesta durante menos tiempo. Esto es particularmente útil para deportes, documentales, etc. Como la proyección de la imagen también se realiza a través de un movimiento intermitente, representa un serio problema para la reproducción del audio por necesitar de un avance continuo. Por este motivo el sonido va siempre adelantado un segundo respecto de la imagen para no ser afectado por el movimiento intermitente, esta separación se denomina decalaje. 14

DECALAJE: obsérvense también los bucles de enhebrado El sonido puede ser óptico (impreso fotográficamente en el borde de la película), interpretado por variaciones de luz para su reproducción. O magnético en una pista en el borde de la película. Para evitar tirones que puedan romper el film en su avance, este es enhebrado tanto en la cámara como en el proyector formando bucles al pasar por bujes y engranajes que van compensando la tensión producida por el arrastre de los motores. Pistas de sonido optico, a la izquierda digital y a la derecha analógico 15

A esta altura del relato ya podemos entender cual es la unidad de medida que usamos al editar y medir la duración de cada plano: Horas:Minutos:Segundos:Cuadros CÓMO SE OBTIENE LA IMAGEN EN TV? Los rayos de luz también llegan a la cámara pasando por un sistema de lentes pero son interpretados por un sensor que transforma la luz recibida en impulsos eléctricos que se imprimen sobre la cinta de video. En el caso de la TV se trabajó con el mismo principio de la persistencia retiniana pero a diferencia del cine en que la imagen es química, aquí se trata de una imagen puramente electrónica. Básicamente la cámara de TV convierte una escena en una serie de impulsos eléctricos. Algunos materiales tienen propiedades fotoconductivas, es decir que cuando un haz de luz incide sobre ellas su resistencia varía en función de la intensidad. Este es el principio de funcionamiento de la TV, la luz que penetra a través de un lente es recibida por un tubo revestido con alguno de estos metales (antimonio o cesio). Al recibir el haz de luz reaccionan desprendiendo electrones sobre un mosaico revestido de sustancias fotosensibles (target). El tamaño del flujo de electrones varia de acuerdo a la cantidad de luz que llega a los puntos de las sustancias químicas. Ya que los electrones llevan carga negativa se forma un dibujo de cargas positivas en la parte de atrás de la placa. Hoy día el tubo de rayos catódicos de la cámara ha sido reemplazado por un chip (CCD o CMOS). La luz que ingresa por el lente activa el chip sensible a la luz que está alineado en una trama de pixels, cada uno de los cuales forma una parte de la imagen que así se digitaliza o codifica transformándose la señal óptica en una señal eléctrica. Ahora poseemos toda la información necesaria para reproducir la escena en una pantalla de TV. Al recorrido de los electrones se le denomina barrido. La imagen se explora de la misma manera a como se lee un libro, de izquierda a derecha y de arriba hacia abajo. 16

Esta es analizada línea a línea y al final de la exploración de cada una de ellas, se comienza una nueva por el lado izquierdo de la imagen hasta llegar al extremo inferior de esta, momento en que comienza una nueva imagen. Para que la señal transmitida este perfectamente sincronizada con la exploración de los receptores se le agregan señales de sincronismo en la forma de onda de la TV. Al igual que en cine la frecuencia de las imágenes en TV debe ser lo suficientemente alta para evitar el parpadeo o flicker. Aquí no es posible la doble proyección por consiguiente se analiza la imagen completa a la mitad de la frecuencia de la red pero efectuando dos exploraciones verticales para cada imagen completa. En la primera exploración (barrido) se analizan las líneas impares y en la segunda exploración las líneas pares. Cada exploración se conoce como campo y se necesitan dos de ellos para obtener un cuadro. Este sistema se denomina entrelazado y se realiza a un ritmo de 50hz. que es la frecuencia de línea de la red eléctrica de nuestro país. Se utiliza siempre un número impar de líneas para simplificar el entrelazado. De lo anterior debemos recordar siempre que 1 CUADRO DE VIDEO = 2 CAMPOS 17

Barrido entrelazado: los dos campos forman un cuadro completo Para obtener el efecto de textura de cine en vídeo se procesa la señal sacándole un campo con la consiguiente pérdida de información y, por ende, de calidad. En realidad lo que se hace es repetir siempre el mismo campo (depende el equipo o el software de edición podemos optar por repetir siempre el campo 1 o el 2). Este es el denominado efecto cine y su uso no es aceptado en países desarrollados por no responder a las normas internacionales de transmisión. Aunque el efecto nos pueda parecer interesante o agradable solo se utiliza internamente en nuestro país. Para la exportación de contenidos siempre se hacen las copias con los campos completos. 18

SISTEMA PROGRESIVO (No entrelazado) El otro sistema de barrido es el progresivo, en el que los electrones hacen su recorrido por las líneas en forma continua. Es decir que las leen en forma correlativa (1,2,3,4...) hasta la última línea para formar un cuadro completo. En este caso una imagen es igual a un cuadro por tener todas las líneas de información completas. La ventaja del barrido progresivo es que elimina el parpadeo pero no se adoptó para las transmisiones de televisión por ocupar un ancho de banda demasiado grande y porque no era práctico para la reproducción en los televisores antiguos. Actualmente su utilización es más factible por todo el desarrollo de sistemas de compresión en señales digitales y sobre todo en los formatos de HD y Cine Digital. El barrido progresivo es más adecuado para los nuevos monitores de plasma, LCD, LED y OLED. BARRIDO PROGRESIVO Y ENTRELAZADO 19

Capítulo II: Normas de televisión Parte I: Sistemas y normas de televisión SD analógicas La señales de televisión no son todas iguales, varían de acuerdo a que cada continente (Europa y América del Norte) adoptó y defendió sus propios desarrollos. Esto generó problemas porque un video grabado con la norma americana no podía ser reproducido en Europa. Estados Unidos desarrolló y adopto el sistema NTSC que tiene 525 líneas de resolución y usa una cadencia de 29.97 fps. Porqué 29.97 y no 30 fotogramas por segundo? Cuando la televisión norteamericana era blanco y negro la cadencia de los cuadros era exacta: 30 fps. Al desarrollar la norma de color NTSC, los ingenieros encontraron que, al añadir la señal de color, se producían unos puntos en la imagen por diferencia de frecuencias entre el audio y la subportadora de color. Para disminuír este problema redujeron ligeramente la cadencia de los fotogramas dejandola en 29.97 fps. Esto solucionó el problema en la imagen pero, como veremos más adelante, trajo otros problemas para la producción y postproducción. Europa excepto Francia y Rusia adoptaron el sistema PAL con 625 líneas de resolución y 25 fps. Francia y Rusia con algunas variantes utilizan un tercer sistema llamado SECAM también con 625 líneas y 25 fps. Brasil usa una variante del PAL denominada sistema PAL norma M, que es una mezcla del NTSC y el PAL porque tiene 525 líneas a 29.97 fps. Argentina, Paraguay y Uruguay adoptaron el sistema PAL en norma N, con 625 líneas de resolución y 25 fps. Para poder reproducir una grabación NTSC en un equipo PAL se realiza una copia del mismo pasando la señal por un conversor de normas. 20

Normas de TV analógica Actualmente también podemos convertir de norma un video mediante softwares como el Canopus Procoder, Compressor, Episode Pro UB, etc. Parte II : Sistemas y normas de televisión digital SD y HD (High Definition) Mapa de la televisión digital y sus diferentes sistemas de transmisión. La televisión ha tenido desde sus comienzos tres transformaciones fundamentales. 21

1) Dejó de ser blanco y negro para convertirse en color. 2) De analógica pasó a ser digital. 3) Evolucionó de definición standard (SD) a High Definiton (HD). La denominación de cada norma analógica PAL y NTSC cambió al convertirse en digital y comenzó a identificarse cada una por el numero de lineas y el sistema de barrido. A pesar de eso lo más común es que aún en un canal de televisión se hable mal y por comodidad se diga Digital PAL o Digital NTSC o High Definition PAL o NTSC. Las denominaciones para definición standard son las siguientes: PAL. NTSC 625i 525i La i corresponde al barrido interlaceado. En el caso de HD los cambios fueron los siguientes: 1080/50i - 1080/50p 1080/60i - 1080/60p 720p (en sus diferentes velocidades) El número 1080 corresponde a los lineas que conforman la imagen, el 50 y el 60 a la cantidad de campos por segundo y la i al barrido interlaceado y la p al barrido progresivo. Las cadencias de cuadros en HD fueron ampliadas dando al usuario más opciones ( y también confusiones) que favorecieron la alternativa del cine digital. 22

CADENCIAS DE CUADROS EN HD 23.98 fps 24 fps. 25 fps. 29.97 fps. 59.94 i 59.94 p Las velocidad de 23.98 fps fue adoptada para transferir de video a filmico por ser más compatible con la de 29.97 fps. En el caso de 24 fps. la compatibilidad con cine es perfecta y si no puede usarse también sin problemas la de 25 fps. La de 59.94 es ideal para reproducciones en cámara lenta por contener el doble de información. Ajustes de proyecto en el Avid, observense las variables para cada formato 23

Capítulo III: Formatos de filmación y proyección en 35 mm. Los tamaños del cuadro de cine de 35 mm, no son todos iguales. Existen diferentes formatos de proyección alterando la ventana de la cámara y del proyector. Formatos de proyección en pantalla para 35 mm.: 1:1.33 1:1.66 1:1.85 Estas relaciones indican que el ancho del cuadro es 1,33 veces superior a la altura del mismo y así para cada medida. En la página siguiente podemos observar los diferentes formatos de pantalla y su proporción con los de video cuando estos se transfieren a fílmico. Cuando grabamos un video para luego transferirlo a material fílmico, conviene grabarlo preferentemente en sistema PAL por la velocidad de 25 fps. ya que casi no hay diferencia con los 24 fps de la película 35mm. Y si la cámara lo permite, grabar en el formato de pantalla 16:9 en un formato de grabación broadcast como Betacam Digital, HDCAM, XDCAM HD o DVC PRO HD entre otros. La mejor opción es por supuesto, la grabación con una cámara cinematográfica digital que graba en archivos de muy alta resolución (2k, 4k o 6k). Ejemplo de esto son las cámaras Alexa de Arriflex, Red One, Dalsa, etc. La ilustración inferior nos da una idea de cómo se adaptan los formatos de cuadro de las cámaras de video a las de cine. 24

Estas imágenes e información fueron obtenidas de www.swisseffects.ch Más adelante trataremos el tema de las relaciones de aspecto en la imagen de video con todas sus variantes. 25

Capítulo IV: Tamaños de cuadro y relaciones de aspecto en video Como dije anteriormente, al entrar el mundo del video en el entorno digital comenzamos a hablar de pixeles en lugar de lineas de resolución. El tamaño de cuadro de cada formato fue definido por la cantidad de pixeles de ancho por alto. Las relaciones de aspecto (proporción de ancho por alto) del cuadro también fueron variando al pasar de la definición standard a la alta. En un principio la televisión adoptó la misma relación de aspecto de la película cinematográfica. La de 4:3. Cuando comenzó a mermar la asistentencia de público al cine, los estudios cinematográficos decidieron aumentar el tamaño de las proyecciones para lograr un efecto de mayor espectacularidad. Las alternativas fueron varias: el Cinerama, el Cinemascope, el Panascope, el 70 mm, etc. El cinemascope fue uno de los que más aceptación recibió por parte de los estudios porque era efectivo y más económico que otros. Usaba la misma película de 35 mm. y se agregaba a la cámara una lente anamórfica que comprimía la imagen. Luego, en la proyección, se agregaba al proyector otra lente que des-anamorfizaba la imagen expandiendola, dando como resultado una proyección mucho más amplia que en el 35mm. standard. El problema que surgió con el cinemascope es que al transcribirse la película a video el cuadro era mucho más amplio y los encuadres quedaban mal. La solución: achicar el cuadro de la proyección hasta ver el cuadro de película completo respetando los encuadres pero con dos franjas negras en las partes inferior y superior del cuadro. Esto es lo que se conoce como formato Letterbox. Una nueva opción surge con la HDTV cuyo tamaño de cuadro es 16:9 nativo. Esta proporción obtiene una pantalla más parecida a la de cine. 26