PÁGINA DE RECURSOS   En galego ►


RAW. RAZONES DE PESO

No hace mucho era una de esas palabras que esconden quién sabe qué sofisticaciones tecnológicas, y hoy marca la frontera entre la fotografía digital de uso inmediato y la avanzada o profesional. Decir RAW es hablar de flexibilidad en la toma, exigencia en el procesado y búsqueda de la máxima calidad en los resultados. Una manera de hacer fotografía digital que está socavando muchas de las reticencias de los fotógrafos químicos.

El concepto de raw (datos en bruto) existía ya en el viejo sofware para imagen digital, como forma de exportar una imagen con los únicos datos imprescindibles, es decir, los valores de píxel. Para poder abrirla después, había que saber el número de filas y columnas, el número de canales, y si el orden de anotación era píxel por píxel o canal por canal, entre otras cosas. Era algo así como exportar texto limpio, sólo con saltos de párrafo, sin más atributos de carácter o formato.

Este tipo de archivo aún sobrevive, aunque hoy la compatibilidad se soluciona estableciendo formatos estándar, que reconocen todos los programas. Sin embargo la idea del formato en bruto ha emergido con un sentido diferente: el de anotar los datos de la captura, previos al proceso necesario para su interpretación y visualización como imagen.

La necesidad de esta traducción viene del funcionamiento de los sensores de cámaras y escáneres. Sus células fotosensibles reaccionan a la luz, generando una carga eléctrica proporcional (respuesta analógica) que se puede medir y convertir en información de imagen. No es exacto que sólo distingan intensidad de luz y no las longitudes de onda que caracterizan los colores, ya que su sensibilidad espectral no es homogénea, pero al superponerse con la intensidad lumínica, es imposible extraer la información cromática del recuento de electrones.

En busca del color
Se recurre entonces a medios ópticos, mecánicos o electrónicos para discriminar longitudes de onda. Un simple prisma de vidrio puede descomponer un rayo de luz, desviando cada longitud de onda en un ángulo diferente. Se aplica este sistema óptico en ciertos escáneres y cámaras de video, pero requiere el uso simultáneo de tres sensores, por lo que no es precisamente el más habitual.

Otras soluciones mecánicas, como hacer tres capturas sucesivas mediante prismas o filtros intercambiables, tampoco son operativas porque no sirven para fotografiar sujetos en movimiento.

Dejando aparte los sensores Foveon, que aprovechan el hecho de que las distintas longitudes de onda penetran a diferentes profundidades en el silicio, la solución adoptada por aplastante mayoría es anteponer filtros fijos a los fotodiodos, para que cada uno reciba una franja limitada del espectro visible.

Del fotón al píxel
Así pues, las células de un sensor se dividen en grupos especializados, como ocurre con los conos en la retina. La distribución geométrica suele seguir un patrón regular, pero no es equitativa como en los monitores, porque está condicionada por la necesidad de transmitir con precisión el claroscuro de la escena, al cual somos bastante más sensibles que al matiz, y que se capta en el rango de los verdes de forma mucho más fiable que en los extremos rojo o azul.

r
De izquierda a derecha y de arriba abajo: retículas hexagonal y rectangular en
monitores rgb, el popular patrón Bayer rggb, rgbe de Sony, células octogonales
de Fuji, mosaicos gggrgggb, rgbw y gwwrgwwb. Los 3 últimos se usan en aplicaciones no
fotográficas y pueden integrar células sin filtros de color, incluso sin filtrado IR o UV.

La consecuencia de interponer filtros es que cada fotodiodo captura uno de los tres primarios, y por tanto la tercera parte de la información necesaria para describir la porción de escena que le toca. Para completarla, se calculan para cada píxel los dos primarios que restan, promediando los valores adyacentes, o lo que es lo mismo, por interpolación lineal.

r
Aspecto de una fotografía tal como la "ve" un sensor,
tras pasar el mosaico de filtros rggb.

r
La misma imagen descrita con un tercio de información procedente
de la captura y dos tercios deducidos por interpolación de datos (zoom al 300%)

Quisiera puntualizar que se cita mucho la "interpolación bayer", pero realmente el patrón rggb de bayer es sólo la geometría, no una técnica de interpolación. Lo importante es tener en cuenta que este paso, necesario para la visualización, aumenta los datos de la captura.

Simplificando diríamos que se triplican, aunque cuantitativamente no tiene por qué ser así. De hecho, es habitual que los datos de la toma se midan y cuantifiquen a 12 bits, pero que después, en el proceso automático, se reduzca cada canal a 8.

Entre el fotón y el píxel intervienen otras funciones que modulan los valores de tono, según los parámetros manuales o automáticos configurados en la cámara. El resultado es una imagen rgb a 24 bits, lista para su visualización y uso, guardada en un formato estándar, normalmente jpg.

Inconvenientes del proceso automático
Esta secuencia es la adecuada para el usuario que necesita un proceso fácil, inmediato y normalizado, que requiera pocos recursos y rentabilice además el espacio de almacenamiento. Sin embargo, si lo que más valoramos es la calidad y flexibilidad, incurre en contradicciones muy claras:

En lo dimensional se aumentan primero los datos, después se reduce la profundidad de bits y se somete todo a una compresión que en cualquier cámara es bastante agresiva e irreversible. En lo tonal, se aplica un determinado balance de blancos, saturación y enfoque, que tras la reducción a 8 bits no será nada fácil corregir.

Algunas réflex digitales y compactas de gama alta empezaron ofreciendo el formato tif. Se evita así la compresión, que ya es algo, pero no el resto de inconvenientes tonales y dimensionales, agravando la ocupación en memoria.

RAW como alternativa
Con el formato raw este problema se suaviza, ya que en general contiene la mitad de datos que un tif (un canal de 12 bits en lugar de 3 x 8) que se puede reducir más con un método de compresión sin pérdidas. Las ventajas saltan a la vista: datos de toma limpios, con la posibilidad de intervenir y controlar todo su proceso externo.

¿Son realmente datos limpios? maticemos ésto, recordando en qué parte del proceso están los principales factores que afectan a los datos.

En una primera fase, la óptica (lentes y filtros), iluminación, diafragma y obturación mecánica o electrónica condicionan la cantidad, energía, ángulo y distribución de fotones sobre el sensor.

En una segunda, entre la célula fotosensible y el conversor analógico/digital, se da la captación y transporte de electrones, su conversión a voltaje y un tratamiento de la señal eléctrica (ganancia, offset) en el que estoy bastante seguro de que interviene el valor ISO y que se aplican funciones de corrección sobre los datos arrojados por cada grupo de fotodiodos. La sensibilidad de éstos a diferentes partes del espectro no es exactamente la misma, ni es homogéneo el comportamiento de los filtros, por lo que es deseable que el fabricante rectifique las desviaciones sobre el proceso de fotodetección ideal de su sensor, sin que ésto se interprete como alteración de los datos.

Finalmente, y ya a partir de los datos discretos o digitales, se elabora la imagen según los parámetros establecidos de formato, tamaño en píxeles, calidad o nivel de compresión, balance de blancos, saturación y enfoque.

Esta tercera fase, que puede resolver automáticamente la cámara, es la que se suprime al guardar los datos raw. La gran diferencia es que, si nos equivocamos en la temperatura de color, o nos pasamos en el enfoque en un proceso automático, no es fácil arreglarlo después en un programa de retoque. Sin embargo, si la conversión raw no es acertada, podemos retomar los datos iniciales, disponibles en 12 bits y manejables en una escala de 16. Incluso un error de sobre o subexposición se puede compensar mucho más fácilmente, por lo que se suele decir que en raw se dispone de mayor latitud. Es una forma incorrecta de decirlo, pero es cierto que hay un mayor margen de error, mientras no se llegue a la saturación en la toma.

Otro argumento a favor es la buena costumbre de guardar una copia de cada fotografía tal como la entrega la cámara, y otra después de ajustarla y retocarla a nuestro gusto. En este caso, obviamente, es mucho más coherente guardar los datos raw.

La búsqueda del estándar
A medida que se propaga el uso del raw, se plantea el problema de que, al estar tan relacionado con el funcionamiento del sensor, no se trata de un formato universal, sinó que cada marca ha denominado raw a su forma particular de disponer los datos de toma previos al proceso automático, y por tanto se requiere un software específico para cada formato.

Aunque hablar de la caducidad de los actuales raw o de los necesarios conversores me parece innecesariamente alarmista, sería beneficioso establecer un estándar para la notación y lectura de datos raw. La primera propuesta seria la ha hecho recientemente Adobe con el formato dng, que quiere imponerse como negativo digital universal. Aún es pronto para predecir el éxito o el fracaso de esta idea, pero es un primer paso al que seguramente seguirá la integración de la conversión raw en todos los programas de retoque digital.

 

PÁGINA DE RECURSOS   En galego ►