Mostrando productos de Barcelona Cambiar a Madrid
Ver todos los artículos Ver todos los artículos
Latitud III

Latitud III

En el capítulo anterior hablamos de los distintos tipos de patrones de ruido electrónico que existen y cómo inciden más en las áreas de bajas luces en la imagen, en las áreas de subexposición. En este capítulo vamos a ver exactamente qué ocurre cuando trabajamos con altas luces y también qué estrategias básicas muy elementales, se pueden utilizar para exponer correctamente según los propósitos de la narración.

El control del margen adicional que hay para las situaciones con alta intensidad lumínica a la hora de rodar cualquier proyecto, puede resultar a primera vista bastante complejo. En primer lugar, hay que recordar que durante la mayor parte de la historia del cine, las películas se han rodado con emulsiones fotoquímicas, en concreto, con película de negativo. Una película de negativo tiene una gran capacidad para soportar sobreexposiciones de manera muy significativa. Si tuviéramos que hacer una comparativa, la emulsión fotoquímica más cercana a los sistemas de captación digital, sería un tipo de película reversible como la hectacrom. En esos casos, los ciclos de altas luces se queman muchísimo antes no tiene ese margen de sobreexposición tan pronunciado como el que tiene la película negativa. De cualquier manera, las emulsiones fotoquímicas y los sistemas de captación digital, tienen sistemas de exposición y sistemas de control del color y de la saturación, radicalmente distintos y por lo tanto, no podemos hacer una comparación justa entre ellos.

En la actualidad cualquier director de fotografía necesita conocer cómo se expone con sistemas de captación digital y conocer también las herramientas de medición de la exposición en esos sistemas, es absolutamente básico. Por eso resulta esencial conocer bien las diferencias que hay entre la exposición y las altas luces con la película y la exposición con sistemas de captación digital. Los fotodiodos de un sensor, tienen un ciclo máximo de acumulación, es decir, un ciclo durante el cual, siguen recibiendo todos los fotones que entren. Llegado a un punto máximo de saturación, no admiten más luz. A este punto máximo de saturación, se le llama clipping en inglés. Cuando hay un fotodiodo que ha llegado a su punto máximo de saturación y sobre todo, en el momento en que todavía mantienen el ciclo de acumulación, llega un fotón, rebota porque ya no puede entrar en ese fotodiodo y suele caer sobre los adyacentes. Cuando esto ocurre, lo que pasa es que se generan áreas en la imagen de sobrexposición que no se van a poder modificar ni en tamaño ni en color en la postproducción. Llegados a este punto, es importante conocer el factor de relleno del sensor. El factor de relleno, es la relación que existe entre la potencia máxima real que es capaz de alcanzar un fotodiodo y la potencia máxima teórica, que evidentemente no se puede alcanzar nunca. De este modo, si conocemos que el factor de relleno en un sensor es de más del 80%, sabemos que menos de un 20% de la superficie de cada píxel, está dedicada a circuitería, que se dedica a pasar la información, que viene en forma de señal eléctrica, al lenguaje binario, para el procesador de turno. El cálculo de la potencia máxima real y del ruido resultante, es determinante para saber cómo podemos trabajar con un sensor. Está directamente relacionado con el número de fotones que es capaz de recoger cada fotodiodo y también con la cantidad de información de color que se puede procesar a partir de ese número de fotodiodos. También está asociado al límite de resolución Nyquist del sensor. Cuanto menor sea el factor de relleno, más probabilidades de que aparezca aliasing. El aliasing espacial y el moiré, ocurren por encima del límite Nyquist de los sensores, por eso, en cinematografía digital es necesario tener un filtro de paso bajo para evitar que surjan estos artefactos en la imagen. Mientras que en fotografía es perfectamente plausible corregir esto con programas de postproducción, impedir que bajemos la resolución en la imagen, esto no puede hacerse a 24, 25, 30, 50, 60, 100, 120 fotogramas por segundo, de modo que no queda más remedio que utilizar el filtro de paso bajo que, como todos sabemos, reduce ligeramente, aunque de forma notoria, la resolución que capta finalmente el sensor. En su momento de auge, el factor de relleno de los sensores CCD oscilaba entre el 80% y el 90%, mientras que en esa misma época, el de los sensores CMOS apenas alcanzaba un 30%. Lo que ocurre es que la tecnología de los sensores CMOS se ha desarrollado muchísimo más en los últimos años, principalmente porque son mucho más baratos de producir. Mientras que los CCD necesitan máquinas de fabricación de obleas específicas y que sólo se pueden dedicar a la fabricación de esa clase de sensores. Las máquinas que fabrican sensores CMOS, sirven con una configuración diferente para cualquier tipo de superconductor. Es decir, que no hace falta una planta específica dedicada a la fabricación de sensores de imagen para conseguir obtener esto. Se puede calibrar o recalibrar para distintas funciones y es muchísimo más barato hacerlo así. Este es el motivo por el cual se ha desarrollado principalmente la tecnología de los sensores CMOS en los últimos diez años, y esto ha llevado a que su factor de relleno evidentemente haya aumentado muchísimo, mientras que los CCD prácticamente no se usan hoy en día. En el último lustro, ha aumentado muchísimo la cantidad de fotones que puede admitir cada fotodiodo. En aquel momento, hablar de unos 10 000 ahora es muy normal que superen todos los 200 000 fotones por fotodiodo. Esto es absolutamente esencial cuando se elabora una cartografía del sensor, cuando se hace un mapa del sensor y de los datos del sensor, para poder elaborar los valores de código necesarios para codificar la imagen.

En la arquitectura de la mayoría de los sensores de captación digital actuales, existe una capa de microlentes, una suerte de lupas que lo que hacen es aprovechar la máxima incidencia de luz posible y redirigirla única y exclusivamente a los fotodiodos, es decir, a la parte sensible de ese píxel, sin que se desperdicie luz en los intersticios que hay entre un fotodiodo y el otro. Las microlentes han hecho que aumente muchísimo ese factor de relleno del que venimos hablando.

La sensibilidad y la clasificación ISO o ASA también son muy importantes en cualquier cámara. Ha llovido mucho desde los días en que se empezó a utilizar soporte fotoquímico de color. Los primeros sistemas, que eran tricrónicos, tenían tres capas de tecnicolor, tenían un valor de 5 ASA de sensibilidad. Esto, curiosamente, llevaba a que hubiera que poner arcos de carbón tan potentísimos en los platós y en los estudios, que los pobres actores acababan siempre con conjuntivitis y queratitis crónica y cuando salían por la noche para acudir a algún estreno, donde también había proyectores de arco de carbono, llevaban las gafas de sol por las fotofobia tremenda que tenían. Si bien es cierto que desde hace bastantes años, las emulsiones fotoquímicas nos permiten trabajar con sensibilidades mucho mayores, la media es de 500 ASA, no se pueden comparar con las sensibilidades que se pueden conseguir, con cámaras de captación digital. Es verdad también que a veces los fabricantes dan un valor de ISO base en las cámaras de cinematografía digital, que no se corresponde con el que nosotros consideraríamos idóneo para trabajar sin tener ruido notable en la imagen. Pero lo que suelen tener en cuenta los fabricantes, es una clasificación ISO media que permita, que a partir del gris medio que establece la curva logarítmica recomendable, tengas más o menos la misma cantidad de stops de sobreexposición y de subexposición, con respecto a ese valor de gris medio de la curva logarítmica.

Los sensores de silicio capturan información gracias a su capacidad para transformar la información lumínica, en energía eléctrica. A esto se le llama efecto fotoeléctrico. Los fotones incidentes incrementan la energía del entramado de silicio y lo hacen directamente extrayendo al chocar contra los átomos de este entramado, desplazan a los electrones y generan una señal de carga eléctrica por medio de pares de huecos de electrones. Obviamente, el tamaño de los fotodiodos es fundamental para la sensibilidad de un sensor. Cuanto más grande es el tamaño del fotodiodo y sobretodo, cuanto más espacio ocupa de la superficie total de cada píxel, mayor captación de luz, mayor señal eléctrica y menos ruido. También dependen de la eficiencia cuántica de la conversión fotoeléctrica. Tanto el diseño de los fotodiodos, como las longitudes de onda de la luz, influyen en esta eficiencia. Por ejemplo, cuando llega la luz a la parte no sensible de cada pixel, existe una pérdida por absorción, pero hay determinadas longitudes de onda, que producen reflexiones internas dentro del sensor, en cuyo caso, estamos hablando de una pérdida por reflexión. Las longitudes de onda muy cortas o muy largas pueden llegar a atravesar la capa fotosensible de un fotodiodo sin generar electrones. En ese caso, hablamos de pérdida por transmisión. No basta con la generación de carga eléctrica a partir de los electrones. La sensibilidad requiere que se pueda manejar y medir sin perder nada esa señal. Para entender bien todos estos acrónimos que estamos usando todo el tiempo, ISO, ASA y qué organizaciones los han estandarizado, en el próximo capítulo nos vamos a detener en todo este asunto y en cómo nos puede ayudar a ser la posición correcta para cualquier cámara.

Artículos relacionados

Sony FS5 vs Panasonic EVA1 comparativa
Panasonic EVA1 vs Sony FS5
La Panasonic AU EVA1 es una cámara que compite principalmente con la Sony FS7, FS5 y las Canon C300 y [...]

Comments

Deja una respuesta

¿Tienes dudas? Abrir chat de soporte