Logo Passei Direto

fundamentos imagen digital

Herramientas de estudio

Material
¡Estudia con miles de materiales!

Vista previa del material en texto

1 
Fundamentos de fotografía digital 
Rubén Osuna © 
 
 
En este trabajo tratamos de ofrecer una guía para la lectura de fuentes externas, o una 
síntesis integrada de los fundamentos de la imagen digital, es decir, una pre-digestión de un 
material variado y a veces técnicamente difícil. Hasta donde sabemos, no hay un texto 
similar en español, por lo que esperamos que sea útil para todos los que decidan que 
merece la pena dedicarle un poco de tiempo, y de paciencia, al tema. El documento está 
pensado para consultas parciales y puntuales, y no tanto para una lectura lineal, a no ser 
que se tenga ya una cierta familiaridad con los temas tratados, en cuyo caso puede servir 
también de compilación y síntesis organizada y relativamente completa. 
 
La estructura del documento es la siguiente: 
 
0. Introducción. 
 
1. Capacidad resolutiva del objetivo y capacidad resolutiva del sensor. Resolución de un 
sistema. 
1.1. El objetivo. 
1.2. El sensor. 
1.3. Resolución del sistema. 
 
2. Los problemas de aliasing. 
 
3. La resolución real o efectiva de una cámara digital. Algunos ejemplos. 
 
4. Para conseguir más detalle, ¿más ‘píxeles’ o más densidad de ‘píxeles’? 
 
5. Resolución e impresión. 
 
6. Determinantes de la evolución de los sensores. Una reconsideración de la importancia 
de la densidad de ‘píxeles’ y el tamaño del sensor. 
 
7. La razón señal-ruido, el espaciado entre fotocélulas y su tamaño real. 
 
8. Gama tonal y amplitud de tonal. 
 
9. Profundidad de campo y perspectiva. 
 
10. Consideraciones adicionales sobre las diferencias entre formatos. 
 
11. Conclusiones. 
 
12. Referencias. 
 
 
 2 
0. Introducción. 
 
La calidad de una imagen digital depende de muchos factores, algunos de los cuales son 
puramente subjetivos. Pero hay dos de ellos muy importantes, y que se pueden medir. Son 
la cantidad de detalle y el nivel de contraste de ese detalle, que determina la definición con 
que lo percibimos. Ambos factores están estrechamente relacionados y puede decirse que 
son las dos caras de una misma moneda. Una imagen con más detalles y más contraste 
será preferida por cualquier observador a la misma imagen pero reproducida con menos 
detalles y con menor contraste. Analizaremos también otras variables como la gama tonal, la 
amplitud de la escala tonal, la acutancia y el ruido digital. 
 
Pero, ¿qué factores determinan a su vez la cantidad de detalle captado o reproducido y su 
nivel de contraste en una imagen digital? En la primera sección analizaremos de qué 
depende la capacidad máxima o teórica de resolver detalle de un objetivo y un sensor, y 
cómo se determina la capacidad resolutiva de un sistema compuesto por al menos esos dos 
componentes. Además, el detalle realmente captado o reproducido puede tener distintas 
"calidades", en función del nivel de contraste de ese detalle. Hablaremos también sobre los 
determinantes de esos niveles de contraste. Sin embargo, cuando medimos el detalle 
realmente captado o reproducido por una cámara digital descubrimos que es inferior al que 
teóricamente podrían proporcionar el objetivo y el sensor separadamente ¿Por qué? 
Dedicaremos la segunda sección a responder a esa pregunta. En la tercera sección 
presentaremos algunos ejemplos de resoluciones efectivas, medidas, de cámaras digitales. 
 
En la cuarta sección empezaremos a abordar temas más concretos, como el impacto 
relativo de la densidad de ‘píxeles’ (resolución en sentido estricto) y el número de éstos en la 
calidad de la imagen digital. Una precisión terminológica es necesaria antes de seguir: lo 
correcto es hablar de fotocélulas, compuestos por una celdilla que contiene componentes 
electrónicos, entre otros un fotodiodo. Puede haber, y de hecho hay, sensores que emplean 
más de una fotocélula para construir un píxel, que es el punto que finalmente vemos en la 
pantalla de nuestro ordenador o en el papel impreso (el píxel es un vector que comprende 
datos de coordenadas, nivel de luminosidad y color, en la pantalla o en el papel). Sin 
embargo, cuando no haya ambigüedad, usaremos a menudo el término más común de 
‘píxel’ para referirnos al (los) fotocélula(s) empleados en la construcción de un píxel, si bien 
entrecomillado, para atenuar así el uso un tanto impropio que estamos dando al término. 
Está claro que un píxel no tiene dimensiones físicas, pero un ‘píxel’ sí. En cualquier caso, en 
la inmensa mayoría de los sensores un píxel se corresponde a un ‘píxel’, y resulta intuitivo 
referirse a uno y otro concepto con términos parecidos. La quinta sección trata el tema de la 
impresión y su relación con el tamaño de la fotografía y el detalle real captado. La sexta 
sección sintetiza todo lo anterior e investiga qué propiedades debería tener el sensor ideal. 
La séptima sección trata la relación entre la densidad de ‘píxeles’, el tamaño de las celdillas 
y la llamada relación señal-ruido, que es otro de los determinantes fundamentales de la 
calidad de la imagen digital. La sección octava profundiza en lo anterior y completa el 
análisis del tema de la calidad de imagen, incorporando otras variables relevantes además 
de la resolución y el contraste, como son la gama tonal (o resolución tonal) y el intervalo 
tonal o amplitud de la escala tonal (o amplitud tonal, a secas). 
 
Para acabar, en la sección novena profundizaremos en el análisis de las diferencias entre 
formatos, analizando la relación entre profundidad de campo y perspectiva, mientras que en 
la décima sección cerramos el análisis de las diferencias entre formatos y de la imagen 
fotográfica digital en general. 
 
La undécima sección está dedicada a las conclusiones, con algunas predicciones sobre el 
desarrollo futuro de los sensores. En la duodécima y última sección recogemos referencias 
 3 
que recomendamos consultar para ampliar aún más los conocimientos sobre el tema, 
muchas de ellas de fácil acceso en Internet. A lo largo del texto habrá también referencias 
adicionales concretas que vendrán señaladas a veces con una flecha (->), y que permiten 
consultar las fuentes aludidas, ejemplos, explicaciones terminológicas o análisis de temas 
que no se tratan aquí en detalle. 
 
 
1. Capacidad resolutiva del objetivo y capacidad resolutiva del sensor. Resolución de 
un sistema. 
 
La señal (una imagen en nuestro caso) puede representarse matemáticamente sin pérdidas 
mediante una transformación de Fourier (->) en términos de unas pocas variables 
(frecuencia, modulación o contraste y fase). Esto permite la captura y el tratamiento digital 
de las imágenes. Pero antes de disponer de esa información “codificada” la imagen original 
“pasa por las manos” de distintos componentes del sistema fotográfico (objetivo, película o 
sensor), y cada uno de esos componentes afecta de alguna manera la información original, 
produciéndose pérdidas en la misma. 
 
Las llamadas funciones de transferencia de contraste, de rendición tonal o de frecuencia de 
respuesta espacial (MFT, modulation transfer function) nos dicen qué alteraciones sufren las 
variables frecuencia y modulación por el paso de la luz por cada componente del sistema 
fotográfico. Todos estos componentes tienen su propia función de transferencia de 
contraste. 
 
Pero ¿qué es el contraste exactamente? El contraste es la diferencia de tonalidad con la que 
se registra, percibe o reproduce un par de líneas, negra y blanca. Resulta quizás más 
intuitivo referirse al contraste como una medida de la preservación de detalles cuando éstos 
se registran, transmiten o reproducen. El contraste es máximo, del 100%, cuando se 
consigue distinguir ambas líneas perfectamente, como una línea puramente negra y una 
línea puramente blanca. Pero cuando el contraste es menor veremos dos líneas grises, pero 
de intensidades diferentes. 
 
Resolución y contraste son las dos caras de la misma moneda. Cuando el contraste cae por 
debajo de cierto nivel dejamos de percibir detalle (se necesita al menos un 5% de contraste 
para percibir algún detalle, aunque un 15/20% debeconsiderarse un mínimo razonable en la 
práctica) (->). Por otra parte, el detalle se muestra de forma más clara y nítida cuanto más 
alto es el contraste. 
 
En el siguiente gráfico ilustra lo que venimos explicando, esto es, que a menor contraste, 
menos clara es la separación de líneas. 
 
 4 
 
Contraste y nitidez de imagen (Norman Koren©). 
 
 
La ‘acutancia’, en cambio, es la rapidez con la que se pasa del negro puro al blanco puro, 
pudiendo ocurrir que entre ambas zonas haya una gris de transición (->). Cuanto mayor sea 
esa zona gris, menor será la acutancia. En el medio digital la acutancia es típicamente 
mayor que en el medio fotoquímico, y las imágenes dan una sensación de nitidez más 
marcada. La explicación está en la difusión de la luz al atravesar las distintas capas que 
forman la película fotosensible. 
 
Filtros como el ‘unsharp mask’ de Photoshop incrementan la acutancia de una imagen, pero 
no la resolución. Lo que esos filtros hacen realmente es crear un duplicado difuminado de la 
imagen original, calcular un diferencial entre ambas y añadir ese diferencial a la imagen 
original. Es posible aumentar marginalmente la resolución de una imagen digital, pero ello 
requiere algoritmos muy complejos difíciles de encontrar en los programas convencionales 
de retoque fotográfico (el Raw Developer ->, sin embargo, incorpora el algoritmo iterativo de 
Richardson-Lucy, ->). 
 
Las funciones de transferencia de contraste (MTF) muestran una relación inversa entre sus 
principales variables, es decir, el contraste se reduce conforme aumentamos la resolución. 
Esto quiere decir simplemente que el objetivo tiene dificultad en distinguir nítidamente los 
detalles cuanto más finos son éstos. También ocurre que conforme nos alejamos del centro 
de la imagen se produce una pérdida de contraste, que en algunos casos puede llegar a ser 
sustancial. 
 
De hecho, las MTF se representan como curvas que muestran, para cada abertura y 
distancia focal de un objetivo, y en un punto concreto de la imagen, la relación decreciente 
entre contraste (en tantos por uno) y resolución espacial (en pares o ciclos por milímetro). 
Pero también pueden presentarse gráficamente como una curva que relaciona contraste (en 
tantos por uno) y distancia respecto del centro de la imagen (en milímetros), para 
resoluciones escogidas (en pares por milímetro, suelen ser 5 lp/mm, 10 lp/mm, 20 lp/mm, 30 
lp/mm y 40 lp/mm, o cualquier selección de esos números, pues son las determinantes de la 
 5 
calidad percibida en impresiones de tamaño moderado, tradicionalmente cercano a un A4), 
a una abertura y distancia focal determinadas, en la dirección sagital (radial) y tangencial 
(hay por tanto dos MTF para cada punto de la imagen). Salvo que se diga otra cosa, nos 
vamos a referir siempre al área central de la imagen, empleando funciones de transferencia 
de contraste (MTF) que relacionan resolución, contraste y abertura para cada objetivo, y no 
las funciones que incorporan la distancia al centro para resoluciones escogidas. 
 
Cuando no se emplea película y se analiza directamente la imagen proyectada por el 
objetivo, hablamos de capacidad resolutiva del objetivo (aerial image resolution, ->), la 
capacidad resolutiva de un objetivo, que se puede describir mediante una MFT. El motivo 
suele ser una carta de resoluciones de alto contraste en la que hay racimos más o menos 
apretados de líneas negras separadas entre sí por líneas blancas (véase esta como 
ejemplo, o esta otra, también muy empleada, aunque aquí pueden encontrarse varias más). 
Esas líneas blancas y negras de la carta de resoluciones son los famosos "pares". Cuando 
se emplea una carta con ondas sinusoidales se puede hablar de "ciclos" por milímetro, en 
vez de pares. Un ciclo parte de un valor 0, pasa a un valor 1, baja de nuevo a 0, después a -
1 y nuevamente a 0. El 1 puede representar el color negro y el -1 el color blanco, y por tanto 
un ciclo completo equivale a un par. 
 
La resolución del sistema se obtiene aplicando la fórmula R = u/(Fd), donde R es la 
resolución en pares de líneas por milímetro, u es la distancia del objetivo a la carta, F es la 
distancia focal del objetivo y d es la resolución en pares por milímetros del patrón de líneas 
más fino resuelto. 
 
No obstante, si fotografiamos la carta y analizamos el negativo, las resoluciones obtenidas 
serán resultado no sólo de la capacidad resolutiva del objetivo, sino también de las 
propiedades de la película o sensor empleado, que tienen su propia función de transferencia 
de contraste (MTF). Ambos elementos, objetivo y medio de captura, forman el sistema 
fotográfico más básico. 
 
La capacidad resolutiva del sistema vendrá dada por el producto de las funciones de 
transferencia óptica (OTF) de cada uno de sus componentes o, alternativamente, las 
funciones de transferencia de contraste (MTF) (las MTF son el valor absoluto de las OTF). 
Las MTF del objetivo empleado en la ampliación (fotografía química) y del papel de 
impresión vienen a unirse a la cadena multiplicativa, pero puede haber más elementos, cada 
uno con su propia MTF. Por tanto, tendremos que la función que determina la resolución y el 
contraste final de una imagen fotográfica puede obtenerse mediante un producto de 
funciones: 
 
MTF0 = MTF1 x MTF2 ( x MTF3) x MTF4 ... 
 
donde 0 es la fotografía final impresa, 1 es el objetivo, 2 el sensor o película, 3 el objetivo de 
la ampliadora (si procede), 4 el papel, etc. 
 
Bajo ciertas condiciones, la capacidad resolutiva máxima de un sistema puede aproximarse 
empíricamente mediante la fórmula 
 
R = 1/(1/r1 + 1/r2 + 1/r3 + 1/r4...) 
 
donde las r1, r2, r3, r4... son las capacidades resolutivas máximas –que implican un 
determinado nivel mínimo de contraste– de cada componente del sistema (objetivo, sensor o 
película, etc.) y R es la capacidad resolutiva máxima final del conjunto, para un nivel de 
contraste mínimo suficiente. Como veremos, la resolución máxima de un objetivo no es una 
 6 
variable que aproxime bien la función de transferencia de contraste del mismo, que varía 
además con la abertura (entre otros factores). Esto explica que la aproximación empírica 
sólo sea aceptablemente válida bajo determinados supuestos (->). La fórmula cuadrática, 
que puede verse en muchas referencias, no es una aproximación tan buena para el medio 
digital (ofrece números un poco mayores). 
 
En resumen, la resolución y el contraste final de la imagen resultante dependerá de las MTF 
de cada eslabón del proceso. El siguiente gráfico es una ilustración de esta idea: 
 
 
Contraste y resolución de los diferentes eslabones de la cadena de imagen (Norman 
Koren©). 
 
 
Es interesante consultar para estos temas los artículos "Resolution", de Makoto Honda; 
“Resolution and MTF curves in film and lenses” de Norman Koren; y los capítulos 3 y 5 del 
“Leica Lens Compendium”, de Erwin Puts, referencias todas ellas recopiladas en la última 
sección. 
 
A continuación vamos a estudiar con más detalle las particularidades de cada uno de los 
elementos que intervienen de forma decisiva en el resultado final, empezando por el objetivo 
para continuar después con el sensor. 
 
 
1.1. El objetivo. 
 
Los objetivos transmiten a la película o sensor puntos de luz, que por efecto de la difracción 
(->) aparecerán como un punto circular rodeado de una serie de anillos alternativamente 
brillantes y oscuros. Los puntos centrales son los llamados discos de Airy (por el astrónomo 
inglés George Biddel Airy, 1801-1892, ->), de luminosidad decreciente, mientras que el 
conjunto de anillos concéntricos se conoce como patrón de Airy. La difracción se debe a 
causas físicas que no tienen remedio. Lo ideal sería que tanto el círculo central como el halo 
fueran lo más perfectos y pequeños posibles. Idealmente deberían ser infinitamente 
pequeños y circulares, que es imposible. Cualquier desviación de este ideal, sin embargo, 
es una indicación de degradación de la imagen original, y la difracción noes la única. 
 
Cuanto mayor es el efecto de la difracción, mayor será también el diámetro del disco de Airy. 
La difracción es similar al efecto del agua que sale a presión por una manguera, una especia 
de dispersión del flujo de agua cuando ésta se ve liberada de la presión del conducto (->). El 
efecto es, como se ha dicho, una ampliación del diámetro del punto de luz, y una 
cancelación y refuerzo de la señal en la superficie del círculo que provoca la aparición de 
esos aros concéntricos. 
 7 
 
Por su parte, las aberraciones (->) (del latín ab errare, ab, fuera, errare, errar, es decir, 
apartarse del camino, desviarse o extraviarse) provocan alteraciones diversas en el círculo o 
el halo, entre ellas la de esfericidad, de coma, de curvatura de campo, de astigmatismo y de 
distorsión –aberraciones monocromáticas o geométricas–, más las aberraciones cromáticas 
(que son de dos tipos, longitudinal y lateral). A estas aberraciones se las conoce como 
aberraciones de tercer orden o de Seidel (por el matemático alemán Ludwing von Seidel, 
1821–1896, ->), pero hay otras de órdenes superiores (las 9 aberraciones de quinto orden o 
de Schwarzschild, las 14 aberraciones de séptimo orden...). Las aberraciones más 
importantes para la fotografía son las de tercer y quinto orden, y éstas últimas van ganando 
peso conforme aumenta el ángulo de visión (o ángulo de toma) y la luminosidad del objetivo, 
degradando la imagen independientemente del grado de corrección de las aberraciones de 
Seidel. Esto obliga a llevar la corrección más allá y a tratar conjuntamente las de tercer y 
quinto orden. Dado que no hay grados de libertad suficientes (radios, grosores y espacios) 
para una corrección completa de todas las aberraciones, es usual dejar permitir una 
cantidad controlada de algunas para compensar la presencia inevitable de otras. 
 
Así pues, la capacidad resolutiva de un objetivo (aerial image resolution) depende de las 
aberraciones y la difracción. Cuando cerramos el diafragma las aberraciones se ven 
mitigadas y el único factor limitante es la difracción. Cuando abrimos el diafragma la 
difracción pierde importancia pero las aberraciones cobran fuerza. 
 
Además de la resolución y el contraste hay otros aspectos de la calidad de un objetivo que 
una MTF no capta, como son la rendición del color, las distorsiones o la resistencia a los 
reflejos internos y luz parásita (flare). Es imposible corregir todas las aberraciones al 
máximo, por lo que la calidad de la imagen que proyecta un objetivo sobre la película o 
sensor tiene mucho que ver con la “receta” aplicada a las aberraciones residuales. 
 
Por ejemplo, la calidad de la imagen fuera de foco, conocida por el término japonés bokeh, 
tiene su importancia a la hora de evaluar un objetivo, aunque casi siempre se presta 
atención sólo a su complementario, la imagen en el plano enfocado, el pinto (->, ->). Una 
buena porción de la fotografía puede quedar desenfocada, por encontrarse los objetos 
representados delante del plano enfocado (mae-bokeh) o detrás (ushiro-bokeh). Pues bien, 
la aberración de esfericidad residual es un ingrediente esencial del bokeh, junto con la 
aberración cromática longitudinal (formando lo que se conoce como esferocromatismo), pero 
también el diseño de las palas del diafragma, el propio viñeteo óptico o el resto de las 
aberraciones residuales (->). En general, cuanto más cercanas se mantengan las líneas 
sagitales y tangenciales de las curvas MTF mejor será la “calidad” del bokeh. Por tanto, los 
gráficos MTF aportan una información más rica que una mera medición de resolución y 
contraste pero, como se ve, son indicadores muy toscos de otras variables que resultan 
decisivas para la percepción de “calidad” en la imagen transmitida por un objetivo. 
 
Es más, esas importantes variables no sólo no se pueden medir con un instrumento como la 
representación gráfica de funciones matemáticas, sino que tampoco pueden medirse 
cardinal u ordinalmente de forma objetiva de otra forma, lo que explica que el diseño de los 
objetivos tenga parte de ciencia y parte de arte. Por seguir con el ejemplo, el bokeh sólo 
puede ser descrito y valorado subjetivamente (véase este buen análisis comparativo de 
objetivos, ->). Para ello los japoneses utilizan una profusión de términos más o menos 
precisos. Por ejemplo, el nin-sen-bokeh es aquel en que se aprecia duplicación de las 
formas, que no se considera un buen bokeh. Las luces altas desenfocadas se describen con 
términos como enkei (circular), han-enjoh (semi-circular), marumi-ga-aru (redondeado), 
hosonagai (alargado y estrecho) o kometto-joh (forma de cometa). El conjunto del bokeh se 
describe con términos como sofuto (suave), katai (duro), hanzatsu (complejo), kuzureru (que 
 8 
pierde los perfiles), keikoh (un bokeh muy ligero). Para la calificación se emplean términos 
como kirei (hermoso y limpio), sunao (amable), yoi (bueno), konomashii (bonito, agradable), 
odayaka (suave) o shizen (natural). 
 
Nos centraremos a partir de ahora en el análisis de la resolución y el contraste. Las 
aberraciones dependen de la abertura y del ángulo visual, ángulo de toma, amplitud de 
campo o campo visual (field of view, o angle of view, o angle of coverage, FoV), entre otras 
cosas, pero no de forma lineal, como muestra la siguiente tabla: 
 
Aberración Abertura (D = diámetro) 
Campo (ángulo 
visual, = V) 
Distancia respecto al 
eje (= d) 
Aberración esférica D3 No afecta No afecta 
Coma D2 V d 
Curvatura D V2 d2 
Astigmatismo D V2 d2 
Distorsión (%) No afecta V3 d2 
Aberración cromática axial D No afecta No afecta 
Aberración cromática lateral No afecta 1/V (*) d 
 
 
La última columna demuestra que es más difícil corregir las aberraciones cuanto mayor sea 
el formato que se pretende cubrir (->). 
 
Si el radio del diafragma se duplica, la aberración esférica se multiplica por 8 (=23). La 
misma relación hay entre la distorsión y el ángulo visual (->). Cuanto más luminoso es un 
objetivo, y menor su distancia focal, más difícil es corregir las aberraciones, que se 
multiplican. Cuanto mayor es el volumen del cilindro de un objetivo, caeteris paribus, más 
fácil resulta compensar las aberraciones, pero los diseñadores ópticos trabajan además con 
fuertes restricciones de coste y posibilidades de manufactura en serie y escala de 
producción (->). 
 
 
 
Paul van Walree © 
 
La aberración de esfericidad (->) provoca lo que se conoce como desviación de enfoque 
(focus shift en inglés, o Blendendifferenz en alemán), es decir, el plano focal se desplaza 
con la abertura. El diagrama muestra cómo los haces de luz que entran por los extremos de 
una lente con superficies esféricas (de tipo positivo en el ejemplo) convergen en un punto a, 
mientras que la luz que entra por el centro converge en un punto c. La imagen que proyecta 
una lente con aberración esférica es un punto luminoso rodeado de un halo. El plano de 
enfoque óptimo no está ni en a ni en c, sino en b, donde el diámetro del disco de Airy es 
menor. Si delante de la lente disponemos las palas de un diafragma, y este se cierra, la luz 
que incide en los bordes ve interrumpido su paso. ¡El plano focal se habrá desplazado hacia 
 9 
c! Por tanto, un sujeto que aparece enfocado a una determinada distancia y abertura puede 
aparecer desenfocado con solo variar la abertura. Este problema afecta a todos los 
objetivos, en mayor o menor medida, aunque se trata de minimizar el problema para que las 
oscilaciones del plano focal no alteren sustancialmente la nitidez percibida de la imagen. Las 
lentes con superficies aesféricas (no esféricas, con perfiles con forma de parábolas o 
elipses) ayudan a reducir esta aberración. No obstante, si la distancia entre el diafragma y la 
superficie aesférica es relativamente grande, otras aberraciones pueden verse agravadas. 
 
 
 
La aberración de coma (también conocida como aberración esférica oblicua) es de 
naturaleza similar a la anterior, en el sentido de venir explicada pordiferencias en la 
refracción de los haces de luz en función de su ángulo de incidencia en la superficie curva 
de la lente. La luz con un mayor ángulo de incidencia es desviada con un ángulo distinto que 
la luz que entra más cerca del eje. El efecto son puntos de luz proyectados con un halo 
triangular y forma de cometa. Se puede corregir mediante combinaciones de distintas 
curvaturas en una y otra cara de la lente (bending) y, en objetivos con varias lentes, 
mediante un diafragma central y un diseño simétrico. Un objetivo corregido de aberraciones 
esféricas y coma se conoce como “aplanático”. 
 
 
 
Paul van Walree © 
 
El astigmatismo y la curvatura de campo (->) son dos aberraciones monocromáticas 
asociadas, pero distintas. El problema de la curvatura de campo está en que el plano focal o 
plano gaussiano deja de ser tal y se convierte en una superficie curva que coincide 
parcialmente con el sensor (o la película) sólo en una pequeña zona central. El radio de esa 
curvatura se corresponde aproximadamente con la distancia focal del objetivo. El 
astigmatismo es la diferencia entre las superficies curvas correspondientes a detalles 
sagitales (líneas orientadas hacia el centro de la imagen) y tangenciales (líneas 
 10 
perpendiculares a las anteriores). En el gráfico de la izquierda, la curva marcada con T 
contiene los detalles tangenciales, y la marcada con S los detalles sagitales. P es la 
superficie de Petzval, que puede ser plana incluso en presencia de astigmatismo, y que 
guarda una relación matemática con las otras dos: TP = 3xSP, donde TP es la separación 
entre T y P, y SP entre S y P. Conforme nos alejamos del centro de la imagen, ésta va 
apareciendo más y más desenfocada (curvatura de campo) y quedando más afectados los 
detalles tangenciales que los sagitales (astigmatismo). Se puede definir una superficie plana 
entre S y T que ofrece un mejor compromiso en términos de enfoque, con el centro (detrás) 
y los bordes (delante) algo desenfocados, pero en menor medida de lo que estarían los 
bordes si respetáramos la posición señalada en el gráfico por el plano gaussiano (donde 
enfoca la luz que entra por el centro). Conociendo la distancia entre montura y sensor (o 
película) el diseñador óptico tiene que elegir sobre qué plano focal realizar los cálculos. 
También se puede jugar con la posición del diafragma y con los vidrios que componen las 
lentes del objetivo para acercar T y S (reducir el astigmatismo hasta conseguir una imagen 
perfectamente estigmática, en la que T=S) o reducir también la curvatura que afecta a 
ambas (y conseguir una imagen anastigmática, sin curvatura de campo ni astigmatismo). En 
el gráfico de la derecha tenemos, en la parte A, una imagen estigmática (con S y T 
igualadas), pero con curvatura de campo; en la parte B tenemos una imagen con residuos 
de astigmatismo y curvatura de campo, pero aproximadamente anastigmática. Aunque las 
curvas T y S no se ven afectadas por la abertura, cerrando el diafragma sus efectos en la 
imagen se reducen. Grupos de lentes flotantes pueden reducir efectivamente el 
astigmatismo y la curvatura de campo. En cualquier caso, una corrección total de ambas 
aberraciones no es posible, si bien una imagen aproximadamente anastigmática es un buen 
compromiso. El astigmatismo puede observarse en las curvas MTF para cualquier abertura 
dada como una separación de las líneas tangenciales y sagitales conforme nos alejamos del 
centro de la imagen. 
 
 
 
Paul van Walree © 
 
Las aberraciones cromáticas (->) son de dos tipos diferentes, longitudinal (o axial) y lateral. 
En la aberración cromática longitudinal (diagrama de la izquierda) cada longitud de onda 
converge en un plano distinto. Como vemos en el ejemplo, sólo la luz verde enfoca sobre el 
sensor, mientras que la azul lo hace antes de llegar a él, y la roja detrás. Afecta 
especialmente a objetivos muy luminosos (con grandes aberturas). En el caso de la 
aberración cromática lateral (diagrama de la derecha) todas las longitudes de onda (colores) 
enfocan en el mismo plano, pero con desplazamientos laterales respecto del eje (centro). Es 
muy frecuente en los teleobjetivos y los diseños retrofoco empleados en muchos gran 
angulares (*), y explica que las líneas sagitales y tangenciales de las curvas MTF se 
separen conforme cerramos el diafragma (pues sólo la línea tangencial resulta afectada por 
la aberración, y no mejora al cerrar, mientras que la sagital sí). Los dos tipos de 
aberraciones cromáticas se dan a la vez, degradan la resolución y contraste de un objetivo y 
son uno de los causantes de esa coloración en los bordes de los objetos en presencia de 
marcados contrastes de luz (halos), pero con algunas diferencias: la aberración longitudinal 
o axial afecta todo el perímetro de los objetos, los tiñe de un solo color, ocurre en cualquier 
 11 
parte de la imagen y se reduce cerrando el diafragma; la aberración lateral, por el contrario, 
sólo afecta tangencialmente a la imagen, modifica la coloración según el orden de la 
secuencia oscuro-claro o claro-oscuro, empeora sus efectos al acercarnos a las esquinas y 
no depende de la abertura. Estas aberraciones se combaten combinando distintos tipos de 
vidrios exóticos con dispersión baja o anómala. Si los tres colores primarios están libres de 
esta aberración podemos hablar de objetivo “apocromático”, mientras que si la corrección 
afecta sólo a las bandas del azul al amarillo el objetivo será “acromático”. Los objetivos 
“superacromáticos” llevan la corrección a 4 o más longitudes de onda diferentes (Zeiss 
fabrica objetivos de este tipo, ->). El problema de la aberración cromática tiene efectos más 
serios sobre sensores que sobre película, debido a la mayor sensibilidad ultravioleta e 
infrarroja de los sensores (donde la corrección de esta aberración en los objetivos era 
escasa por innecesaria) o a un problema de birrefringencia (->) provocado por el ángulo de 
incidencia de la luz en las microlentes que los cubren (->). 
 
 
Patrón de Airy sin aberraciones 
 
Patrón de Airy con aberración de esfericidad 
 
Patrón de Airy con curvatura de campo 
 
Patrón de Airy afectado por un problema de distorsión 
 
Patrón de Airy afectado por un problema de coma 
 
Patrón de Airy con astigmatismo 
 
 12 
Patrones de Airy generados por ordenador para mostrar el efecto de las aberraciones 
(Natalie Gakopoulos©) 
 13 
 
Paul van Walree © 
 
La distorsión óptica (->) es una aberración de Seidel, si bien no se puede ver su huella en el 
perfil de las curvas MTF. Distorsiona las líneas rectas, que se curvan, adoptando forma de 
barril (y>h) o de acerico (pincushion, y<h). El objetivo que no distorsiona la imagen se llama 
ortoscópico, que significa “visión correcta”. La razón h/y se conoce como magnificación de la 
imagen, y estaremos en presencia de una distorsión cuando dicha variable dependa de la 
distancia al centro de la imagen. Si h/y se reduce conforme nos alejamos del eje, la 
distorsión será de barril, y si aumenta será de acerico. Como puede verse, es la posición 
relativa del diafragma lo que provoca el problema. Un objetivo gran angular de tipo retrofoco 
tiende a mostrar distorsión de barril, pues el grupo frontal de lentes, de tipo negativo, actúa 
ópticamente como un diafragma. Los teleobjetivos son el caso contrario, con un grupo 
trasero negativo, y tienden a provocar distorsión de acerico. En cambio, los diseños 
simétricos son casi ortoscópicos. No hay que confundir las distorsiones ópticas con lo que 
se conoce como distorsiones de la perspectiva, y que no son realmente distorsiones. Un 
buen ejemplo son las líneas paralelas que se ven como convergentes (las esquinas de un 
rascacielos, los bordes de una carretera), debido simplemente a que el plano focal no se 
encuentra paralelo al objeto observado, sino formando un ángulo con él. Este efecto natural 
de la perspectiva puede corregirse con objetivos que permiten alterar la orientación del 
plano focal mediante desplazamientosde los grupos de lentes que lo forman. Las 
distorsiones geométricas también se confunden a menudo con una distorsión óptica. Éstas 
se producen cuando proyectamos un objeto con tres dimensiones en un plano 
bidimensional. No todos los puntos del objeto están a la misma distancia del plano. Esto 
explica que los objetos se vean distorsionados si se sitúan en los bordes de una imagen 
tomada con un gran angular. Las distorsiones de la perspectiva y las geométricas se 
corrigen en parte si, frente a la fotografía, adoptamos la misma posición que el fotógrafo 
frente al objeto, es decir, acercándonos más a las fotografías tomadas con grandes 
angulares o situando en alto las fotografías de edificios tomadas a la altura de la calle. 
 14 
Los reflejos internos y la luz parásita (flare) (->) es otra variable que afecta severamente al 
contraste de un objetivo y, por tanto, a la calidad de imagen, si bien no es una aberración. 
Es luz que se desvía de su trayectoria y acaba alcanzando la película o el sensor, cuando 
no debería, o no en la forma en que lo hace. Las causas son múltiples, pero son reflejos 
incontrolados de la luz al cambiar de medio (de aire a vidrio o al revés) o al chocar con las 
palas del diafragma, con alguna impureza en el vidrio de las lentes, con la cara interna del 
barril del objetivo o con la propia película o superficie del sensor. Los multirevestimientos 
han permitido corregir esto en cierta medida (reduciendo las pérdidas de transmisión del 4% 
de las superficies aire-vidrio no revestidas hasta un 0,5-1%, ->), y el uso de parasoles 
adecuados evita que el problema se agrave (->). No es posible sin embargo eliminar 
totalmente el problema bajo todas las circunstancias posibles, aunque hay sistemas mejor 
corregidos que otros. El efecto de los reflejos es variado, desde manchas de color, a halos, 
velos neblinosos (veiling glare) o imágenes fantasma. Con los velos, la pérdida de contraste 
y saturación es notable, y la calidad de la imagen queda severamente degradada. 
 
El viñeteo (->) tampoco es una aberración, pero afecta a la calidad de imagen, y podemos 
considerarlo una propiedad de los objetivos. Hay tres tipos de viñeteo, según su causa: el 
óptico (o físico, o artificial); el natural; y el mecánico. El de origen óptico se da cuando la luz 
que entra por los bordes de la lente frontal se encuentra con las paredes internas del 
objetivo. El viñeteo natural se produce porque los haces de luz que inciden en las zonas 
periféricas de la película o sensor recorren una mayor distancia que aquellos que alcanzan 
zonas cercanas al eje, y se dispersan en una superficie mayor. El mecánico se da cuando 
algún accesorio entorpece la entrada de la luz, como puede ser el caso de los filtros o los 
parasoles. 
 
La pupila de salida es una abertura virtual, determinada por la proyección del diafragma en 
la lente que le sigue. La luz que pasa por esta pupila de salida consigue salir del objetivo (-
>). En los diseños de objetivos de tipo simétrico la distancia entre la pupila de salida y el 
plano focal coincide con la distancia focal y la luz incide en las esquinas del fotograma que 
encaja en el círculo de luz con el mismo ángulo que el ángulo visual (FoV) del objetivo, que 
es el ángulo de entrada. Sin embargo, los teleobjetivos, o los angulares retrofoco, tienen la 
pupila de salida más alejada, para disponer de más espacio tras ella con distintos propósitos 
(entre otros, permitir el juego del espejo en las cámaras réflex). En estos diseños la luz 
incide en las esquinas del fotograma con un menor ángulo. Un teleobjetivo (con dos 
elementos básicos, un elemento positivo en la parte frontal y un elemento negativo en la 
posterior) tendrá una distancia focal efectiva mayor que su longitud física. Al contrario, si 
observamos la longitud física de un objetivo gran angular y comprobamos que es superior a 
la distancia focal efectiva, tendremos un indicio del empleo de un diseño retrofoco (un 
teleobjetivo invertido, con dos elementos básicos, un elemento negativo en la parte frontal y 
un elemento positivo en la posterior). Los angulares retrofoco necesitan lentes frontales de 
mayor tamaño y son más difíciles de diseñar, pero ofrecen más posibilidades de control de 
las aberraciones. El viñeteo natural es inferior en este tipo de objetivos pero, en conjunto, el 
viñeteo observado es más sensible en ellos a la abertura del diafragma (y los problemas de 
distorsión tienden a ser más severos tanto en los teles como en los angulares, pero eso es 
otra historia). 
 
 15 
Los dos objetivos del dibujo que sigue a este párrafo son Zeiss de 21mm de distancia focal, 
el primero un diseño Distagon de tipo retrofoco para cámaras réflex Contax y el segundo un 
Biogon de tipo simétrico para cámaras telemétricas Contax G. Las líneas verticales negras 
señalan la posición del diafragma, y las rojas la posición de la pupila de salida. La distancia 
entre la pupila de salida y el plano focal es mucho mayor en el primer caso, así como la 
longitud física del objetivo, mientras que el ángulo de incidencia en los bordes del sensor o 
película de formato 35mm (b) es mucho menor, y por tanto también el viñeteo natural. 
 
 
Paul van Walree © 
 
 
Los números f indican la abertura del diafragma, y son iguales a la razón entre la distancia 
focal y el diámetro de abertura del objetivo. Los números f responden a una serie de 
potencias de la raíz cuadrada de 2. En efecto, la raíz cuadrada de 2 es 1,4, y pasamos a los 
siguientes números de la escala multiplicando o dividiendo por ese número: 0,7 (»1/1,4 = 
1,4-1), 1 (»1,4/1,4=1,40), 1,4 (»√2=1,41), 2 (»1,42), 2,8 (»1,43), 4 (»1,44), etc. Es fácil calcular 
la diferencia de luminosidad para pasos intermedios con la fórmula (1,4)n = f, de donde, 
tomando logaritmos y despejando, n = ln f / ln 1,4. Recordamos que f es la abertura 
intermedia para la que queremos hacer el cálculo (por ejemplo, f/1,2, f/1,8, f/3,5 o f/2,5) y n 
la luminosidad en una escala lineal, donde 1 representaría la correspondiente a un objetivo 
f/1,4. Los objetivos para el formato 35mm (24x36mm) tienen un rango típico de aberturas 
comprendido entre f/1 y f/22. El ojo humano, en cambio, tiene aberturas comprendidas entre 
f/2,1 y f/8,3, mientras que un gato llega a f/0,9. Existe un simpático crustáceo, de nombre 
Gigantocypris, que habita a grandes profundidades, cuyos ojos tienen una abertura máxima 
de f/0,25. 
 
Cada número f de la serie indica que la cantidad de luz que pasa a través del objetivo por 
unidad de tiempo es la mitad de la representada por el número anterior si la transmisión 
lumínica o espectral es del 100% (para cada longitud de onda). Los números t, de 
transmisión, normalizan la escala para tener en cuenta la posibilidad de que la transmisión 
lumínica de un objetivo en particular no sea del 100% (lo que en fotografía ocurre siempre, 
dependiendo la magnitud de la pérdida de factores como el número, composición y grosor 
de las lentes que componen el objetivo, del tratamiento de la cara interna del barrilete y del 
número de superficies aire-vidrio y de su tratamiento con revestimientos, ->). 
 16 
 
Schneider-Kreuznach © 
 
 
Un número t/2 indica una transmisión de luz equivalente a un f/2 con un 100% de 
transmisión lumínica, pero equivalente a un número f inferior si la transmisión lumínica es 
menor. Dos objetivos con el mismo número t tienen la misma luminosidad, pero eso no 
ocurrirá necesariamente dos objetivos con el mismo número f (dependerá de sus 
transmisiones lumínicas relativas). Esta escala normalizada de números t se emplea mucho 
en los objetivos para cámaras de cine, por ejemplo. Es importante recordar siempre que los 
números f son índices geométricos, no lumínicos. 
 
 
Es muy fácil calcular el diámetro de la abertura si sabemos la distancia focal del objetivo y el 
número f, como mostramos en la siguiente tabla (->) construida para un objetivo de 50mm: 
 
 Diámetro de la abertura (mm) 
Radio de la abertura 
(mm) 
Superficietotal de 
la abertura (mm2) Cantidad de luz transmitida por unidad de tiempo (f/5,6 = 1) 
Abertura = 50mm / f/# = Diámetro/2 = p * radio2 
f/1 50,0 25,0 1963 x32 
f/1,4 35,7 17,9 1002 x16 
f/2 25,0 12,5 491 x8 
f/2,8 17,9 8,9 250 x4 
f/4 12,5 6,3 123 x2 
f/5,6 8,9 4,5 63 1 
f/8 6,3 3,1 31 x1/2 
f/11 4,5 2,3 16 x1/4 
f/16 3,1 1,6 8 x1/8 
f/22 2,3 1,1 4 x1/16 
 
 17 
Como puede observarse, la superficie de la abertura se reduce por la mitad con cada paso 
que damos en la serie de números f, lo que explica esa reducción por mitades en la cantidad 
de luz por unidad de tiempo de la que hablábamos. Esos cálculos serían correctos sólo si 
las palas del diafragma estuvieran instaladas delante de la primera lente del objetivo (sería 
la pupila de entrada en ese caso). Normalmente el diafragma está situado dentro del 
objetivo y sus dimensiones son más reducidas de lo que muestran los cálculos de la tabla, si 
bien las proporciones se mantienen en todo caso. 
 
A plena abertura el efecto de la difracción es mínimo, pero las aberraciones esféricas y de 
coma son muy severas y difíciles de corregir. Cerrando el diafragma al máximo las 
aberraciones mencionadas se minimizan, pero los efectos de la difracción se multiplican. 
Hay un punto medio en el que se consigue un justo equilibrio entre ambas causas del 
deterioro de la imagen –aberraciones y difracción– y en el que la calidad de ésta (resolución, 
contraste) alcanza su máximo para cada objetivo. Esa abertura óptima dependerá del 
formato. Aproximadamente, los objetivos para el formato de 35mm suelen verse 
condicionados por las aberraciones para aberturas de f/5,6 o mayores (números f menores), 
mientras que suelen estar condicionados por la difracción para aberturas de f/11 o menores 
(números f mayores). No obstante eso depende también de cada objetivo (no es lo mismo 
un objetivo de focal variable que otro de focal fija, o en general dos diseños ópticos distintos, 
etc.). 
 
Se puede calcular aproximadamente la transmisión lumínica de un objetivo atendiendo al 
número de superficies aire-vidrio, y al tratamiento de dichas superficies, según un método de 
Rudolf Kingslake. Si éstas no están tratadas la pérdida que se produce en cada una es de 
un 4%, si el vidrio está tratado con un revestimiento de una capa, la pérdida es del 2%, y del 
0,5% si se trata de un multirevestimiento moderno. La transmisión lumínica en tantos por 
ciento sería: 
 
T = (1-S) N 
 
donde T es la transmisión (como %), S es la pérdida (como %) y N el número de superficies 
aire-vidrio (el doble del número de elementos, o de grupos cementados). Para calcular la 
pérdida ocurrida en pasos de luz empleamos: 
 
| log2T | = L 
 
donde L son los pasos de pérdida. Ahora hay que crear un índice que, multiplicado por la 
abertura máxima de un objetivo, nos de su abertura efectiva, en números t. Para ello: 
 
M = 2L/2 
 
donde M es el índice. Así, para calcular el número t a partir del número f sólo hay que 
multiplicar dicho número f por M, de manera que f/X*M = t/Y. Este cálculo es sólo una 
aproximación debido a que intervienen otros factores (que hemos mencionado), pero es fácil 
de hacer con poca información. Sólo con saber el número de superficies, y suponiendo que 
todas están tratadas, podemos tener una idea de la pérdida de transmisión mínima 
esperable. Un mismo objetivo puede (o no) transmitir a f/1,4 el doble de luz que a f/2, pero 
no debe suponerse en ningún momento que dos objetivos distintos a f/1,4 transmiten la 
misma cantidad de luz por unidad de tiempo. Para cualquier objetivo con una transmisión de 
menos del 100% el número t será siempre mayor que el número f, y la desviación puede ser 
sustancial, como diferente entre objetivos. Por dar una idea aproximada, diremos que un 
objetivo para fotografía de 35mm con una transmisión inusualmente elevada es el Leica 
Summilux-M 75mm, con un 93,1%. 
 18 
 
Volveremos a este tema de la transmisión de luz al final de este artículo (epígrafe 10), pues 
tiene muy interesantes repercusiones. 
 
 
El ángulo visual (FoV) para un objetivo rectilíneo se puede aproximar mediante la fórmula (-
>): 
 
FoV = 2 * arctan [ T / (L * 2 * (m + 1)) ] 
 
Donde arctan es el arco-tangente (->), T es la dimensión del formato, ya sea horizontal, 
vertical o diagonal, L es la distancia focal y m es la magnificación. Ésta se puede calcular 
mediante la expresión: 
 
m = L / (df – L) 
 
donde df es la distancia a la que estamos enfocando, y L la distancia focal, como siempre. 
 
Ocurre pues que el ángulo visual depende de la distancia a la que enfocamos, y cuando 
ésta es infinita la magnificación se hace cero, mientras que cuando la distancia de enfoque 
se reduce el ángulo visual lo hace también, pero sólo para distancias muy cortas. Hay 
ángulos de visión horizontales, verticales y diagonales para cada formato, y por eso T puede 
representar cualquiera de los lados del fotograma, o su diagonal. Por ejemplo, el ángulo de 
cobertura diagonal de un objetivo rectilíneo de 50mm para el formato de 35mm enfocando a 
infinito se calcula haciendo m = 0 y T = 43, lo que nos da unos 47 grados. A continuación 
presentamos una tabla con los ángulos correspondientes a las focales más comunes, en los 
tres sentidos, para formato de 35mm: 
 
Distancia focal 
(mm) 15 21 24 28 35 50 70 85 90 100 135 200 
Diagonal (°) 110,5 91,7 84,1 75,4 63,4 46,8 34,3 28,6 27,0 24,4 18,2 12,3 
Vertical (°) 77,3 59,5 53,1 46,4 37,8 27,0 19,5 16,1 15,2 13,7 10,2 6,9 
Horizontal (°) 100,4 81,2 73,7 65,5 54,4 39,6 28,8 23,9 22,6 20,4 15,2 10,3 
 
El ángulo visual binocular horizontal y vertical de un ser humano es de unos 180 y 90 grados 
respectivamente, con un ángulo monocular de 140 y 90 grados (ángulos de aceptación de 
luz), siendo de 120 grados el campo en que se produce una superposición “estéreo”. No 
obstante, percibimos detalles de forma y color para un área mucho menor (campo central o 
foveal), de unos pocos grados. Ello se debe a que sólo una parte de la retina, llamada fóvea, 
tiene una alta concentración de “conos”, que son células fotosensibles que responden a los 
colores. El resto de la retina está cubierta sobre todo de “bastoncillos”, monocromáticos. La 
información de este campo periférico se emplea para regular el movimiento de los ojos. El 
movimiento de tipo “sacádico” proporciona un “barrido” (parecido a un escaneo) de un objeto 
mediante pequeños saltos en la posición del ojo (“sacadas”), lo que nos permite obtener 
información visual detallada de objetos grandes a partir de un campo foveal muy pequeño. 
No es de extrañar que los datos sobre el ángulo visual humano “con detalle” (ángulo visual 
foveal) sean tan variados, pues depende de cada circunstancia. Podemos concentrar 
nuestra atención en una línea de la página de un libro para leer o en la pantalla de un cine, 
cubriendo el “barrido” sacádico en cada caso ángulos muy distintos, lógicamente. Si el 
objeto en que centramos la atención se mueve o el área es demasiado amplia, nuestro 
cerebro dispone de otros movimientos adicionales de ojos y cabeza para ajustar el ángulo 
visual foveal debidamente, aunque resultan menos precisos y confortables. Se considera 
 19 
que el rango de ángulos de visión que proporcionan las sacadas, se correspondería 
aproximadamente con el de objetivos de 35 a 90mm para el formato de 35mm. 
 
Un objetivo teóricamente perfecto estaría libre del efecto degradante de las aberraciones, 
pero nunca de la difracción, que es inevitable (->). Esos objetivos ideales, libres de 
aberraciones, reciben el nombre de “limitados o condicionados sólo por la difracción” o “sin 
aberraciones” (diffraction limited lenses o aberration free lenses). 
 
Es fácil calcular la capacidad resolutiva máxima teórica de uno de estos objetivos sólo 
condicionados por la difracción, mediante una sencilla fórmula (que veremos ahora). Esas 
cifras se aproximan a las de un objetivo con aberraciones sólo cuando cerramos el 
diafragma. Por otro lado, cuanto mayor sea el grado de correcciónde las aberraciones de un 
objetivo (medido mediante el error del frente de onda, o wavefront error) más similares serán 
las funciones de transferencia de contraste (MTF) a las de un objetivo sólo limitado por la 
difracción (->). 
 
En el siguiente gráfico mostramos cómo afectan las aberraciones a una curva MTF 
cualquiera, donde en el eje de ordenadas (vertical) se representan los niveles de contraste 
(en tantos por uno) y en el de abscisas (horizontal) las resoluciones (en pares por milímetro). 
Cuando el error del frente de onda es igual a 0 ‘longitudes de onda’ podemos decir que el 
objetivo está libre de aberraciones. La curva MTF, como se puede ver, decrece a una tasa 
constante hasta cero. Para errores de 0,25 ‘longitudes de onda’ o menores tenemos un nivel 
de aberraciones aceptable, mientras que a 0,5 ‘longitudes de onda’ las aberraciones ya 
estarán afectando apreciablemente la imagen, y a partir de 0,75 ‘longitudes de onda’ la 
pérdida de calidad es notable. Puede observarse cómo, si bien las aberraciones no reducen 
el límite resolutivo máximo del objetivo, sí afectan al perfil de la curva, que adopta una forma 
convexa, deteriorando muy sustancialmente los niveles de contraste en el rango de 
resoluciones relevante para la fotografía, que en las cámaras réflex digitales actuales es 
inferior a los 100 pares por milímetro. 
 
 
El efecto de las aberraciones en una curva MTF (Bob Atkins©). 
 
 20 
 
La resolución máxima teórica de un objetivo libre de aberraciones, sólo limitado por la 
difracción, con 0 ‘longitudes de onda’ de error de frente de onda, depende de dos factores: 
la abertura y la longitud de onda de la luz que atraviesa el objetivo. El ser humano puede 
percibir longitudes de onda dentro del rango 0,0004-0,0007mm, que va del azul al rojo. 
Podemos basar nuestros cálculos en un valor medio, un verde-amarillo con una longitud de 
onda de 0,000555mm, para la que el ojo humano es más sensible (aunque 0,00050mm 
puede ser más representativo de la luz día). 
 
La MTF de un objetivo sólo limitado por la difracción responde a la fórmula (->) 
 
 
 
Donde R es la resolución o frecuencia espacial, w es la longitud de onda de la luz y f es el 
número que indica la abertura. 
 
Si adoptamos el criterio de Rayleigh (por el físico británico John William Strutt, Lord 
Rayleigh, 1842-1919, ->), según el cual dos puntos se distinguen como tales cuando el 
primer anillo de oscuridad (primer mínimo) del grupo de círculos concéntricos de uno 
coincide con el centro del disco de Airy del otro (->), la fórmula sería: 
 
R9 = 1 / (1,22 * w * f) = 0,82 / (w * f) 
 
Donde R9 es la máxima resolución alcanzable en pares por milímetro a un 9% de contraste, 
w es la longitud de onda de la luz en milímetros y f es el número que indica la abertura. Por 
otro lado, rAiry = 1,22 * w * f sería el radio del disco de Airy. 
 
Debe tenerse en cuenta que según el criterio de Rayleigh dos puntos son distinguibles 
cuando están separados por una distancia igual al radio del disco de Airy, es decir, al radio 
del disco de luz central. Por ello la resolución es la inversa del radio del disco de Airy. 
 
Como muestra Williams (1990, página 59): 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
� 
MTF(R) = 2
π
cos−1 Rwf( ) − Rwf( ) 1− Rwf( )2⎡ ⎣ ⎢ 
⎤ 
⎦ ⎥ 
rAiry = 1 lp 
1 2 3 4 5 6 7 
 21 
El gráfico indica la correspondencia según el criterio de Lord Rayleigh entre el radio del 
disco de Airy (= rAiry) y la separación de una línea (= d, un par, pues incluye su compañera 
blanca), es decir, cada radio define un par. Debe haber una diferencia en intensidad 
luminosa suficiente entre las áreas marcadas con número par y las áreas marcadas con 
número impar. Es obvio que en las áreas pares hay también cierto nivel de luz, y eso explica 
que el contraste sea relativamente bajo. 
 
Debe recordarse que el criterio de Rayleigh es una regla empírica basada en la capacidad 
visual humana, inicialmente derivada de la necesidad de diferenciar puntos luminosos 
cercanos entre sí sobre fondo oscuro, en un telescopio. Por tanto, ese valor del 9% de 
contraste es puramente convencional. Veremos que cuando se trata de resolver detalle con 
un sensor la relación entre el diámetro del disco de Airy, su separación y la resolución puede 
cambiar. De hecho, incluso tratándose de pura inspección visual, cuando el motivo es 
distinto debe cambiar (más adelante trataremos el tema de la agudeza visual humana). 
 
El llamado criterio de Dawes adopta un 0% de contraste como límite, y la fórmula, 
simplificada, pasa a ser: 
 
R0 = 1 / (w * f) 
 
Donde R es la frecuencia espacial. Si elevamos la exigencia de contraste la fórmula para el 
cálculo de resoluciones vuelve a cambiar. Para un contraste del 10% tendríamos (->, ->): 
 
R10 = 1 / (1,30 * w * f) = 0,77 / (w * f) 
 
Para un contraste del 50% tendríamos: 
 
R50 = 1 / (2,63 * w * f) = 0,38 / (w * f) = 0,38 R0 
 
Y para el 80%: 
 
R80 = 1 / (6,25 * w * f) = 0,16 / (w * f) = 0,16 R0 
 
Aplicando esas sencillas fórmulas es fácil construir una tabla de resoluciones máximas para 
un objetivo ideal, perfecto, que haya conseguido eliminar todas las aberraciones para todas 
las aberturas y esté limitado sólo por la difracción. Un ejemplo de objetivos (casi) sólo 
limitados por la difracción son el Apo-Telyt-R 280mm f/4 (->) y el Apo-Summicron-R 180mm 
f/2 (cerrando algo) de Leica (->), o el propio 300mm f/2.8 L de Canon. Recordemos que 
estos valores convergen a los de un objetivo con aberraciones conforme cerramos el 
diafragma o, dicho de otra forma, no podemos en general esperar alcanzar las resoluciones 
indicadas en la tabla para los valores f más bajos. 
 
Nos será de utilidad computar también el diámetro del disco de Airy para un objetivo sólo 
limitado por la difracción y para un motivo perfectamente enfocado. La fórmula es muy 
sencilla (->), ya que 2rAiry = dAiry: 
 
dAiry = 2,44 * w * f * 1000 
 
donde dAiry es el diámetro de dicho punto (se refiere al punto luminoso central encerrado en 
el primer aro oscuro, que tiene una luminosidad decreciente hacia los bordes ->), y se 
multiplica por 1000 para pasar a micras si la variable w viene dada en milímetros. Obsérvese 
que R9 = 2/dAiry, es decir, el número de discos de Airy que hay en un milímetro multiplicado 
por dos, pues cada disco completo define dos pares de líneas. La razón entre la base del 
 22 
disco de Airy (diámetro) y su altura (luminosidad) determina la capacidad resolutiva del 
sistema. Cuanto menor es la luminosidad del disco y mayor su diámetro, menor será la 
resolución y contraste. La rapidez de la pérdida de luminosidad que se produce conforme 
nos alejamos del centro del disco nos dará la acutancia del detalle. 
 
Abertura 
Máxima 
resolución 
teórica según el 
criterio de 
Dawes (lp/mm) 
Máxima 
resolución 
teórica según el 
criterio de 
Rayleigh 
(lp/mm) 
Máxima 
resolución 
teórica (lp/mm) 
Máxima 
resolución 
teórica (lp/mm) 
Diámetro del 
disco de Airy 
(micras) para 
un motivo 
perfectamente 
enfocado 
 MTF 0% MTF 9% MTF 50% MTF 80% 
Luz verde-amarillo de 0,000555 milímetros de longitud de onda 
f/1 1818 1490 691 291 1,3 
f/1,4 1299 1065 494 208 1,9 
f/2 909 745 346 145 2,7 
f/2,8 649 532 247 104 3,8 
f/4 455 373 173 73 5,4 
f/5,6 325 266 123 52 7,5 
f/8 227 186 86 36 10,7 
f/11 165 135 63 26 14,8 
f/16 114 93 43 18 21,5 
f/22 83 68 31 13 29,5 
 
 
Esta tabla muestra las máximas resoluciones posibles en un objetivo (aerial image 
resolution), a distintos niveles de contraste. Para diafragmas más cerrados la tabla aproxima 
los valores reales que podemos encontrar en cualquier objetivo. Para diafragmas más 
abiertos todo dependerá de la calidad del objetivo, del grado en que se han corregido las 
aberraciones, lo que depende de su diseño y de la calidad de su fabricación. Por ejemplo, 
con un nivel de contraste del 50% muy pocos objetivos podrán ofrecer más de 100 pares de 
líneas por milímetro (sólo aquellos limitados por la difracción a f/5.6). 
 
El diámetro del discode Airy nos ayudará a entender más adelante por qué las cámaras de 
menor formato pierden rápidamente nitidez cuando cerramos el diafragma. También nos 
servirá para introducir un importante concepto: el círculo de confusión. 
 
El círculo de confusión (circle of confusion, CoC, ->) es el tamaño máximo del disco de Airy 
que, ampliado para pasar la foto de su medio de captura original al papel, garantiza que el 
ojo humano no lo perciba como tal punto. Las partes de la imagen representadas por discos 
de Airy con tamaños iguales o inferiores al círculo de confusión se percibirán como nítidas. 
La profundidad de campo (depth of field, DoF) está relacionada por tanto con el diámetro de 
estos puntos de luz proyectados por el objetivo. 
 
El diámetro del círculo de confusión depende del tamaño de la superficie de captación 
original, pero también de la ampliación a la que sometamos la imagen para llevarla al papel, 
por lo que tiene un componente convencional. En general se adopta como referencia un 
tamaño de impresión de 8x10 pulgadas (203x254mm, con proporciones 2:2,5 y que cabe en 
un DIN A4, que son 210x297mm, con unas proporciones 2:2,8), que para el formato de 
35mm (24x36 mm) lleva a unos círculos de confusión dentro del margen 0,025-0,035mm (25 
a 35 micras) si nos basamos en una estimación conservadora de lo que el ojo humano 
 23 
puede distinguir con claridad a simple vista (veremos este tema con detalle un poco más 
adelante). Actualmente se adopta el valor de 0,030 milímetros. En cualquier caso, cualquier 
imagen captada en una superficie de ese formato debe ampliarse 7,6 veces para conseguir 
una impresión 8x10, pues la diagonal del formato de 35mm es de 43mm y un rectángulo de 
8x10 pulgadas tiene una diagonal de 325mm (325/43 = 7,6). Por tanto, tendremos 0,030 
milímetros por 7,6, que son 0,23 milímetros, cuya inversa son algo más de 2 lp/mm. Puede 
parecer poco, pero veremos que esos 2 pares por milímetro tienen un impacto muy 
importante en la percepción subjetiva de calidad en una imagen. 
 
Una impresión 8x12 pulgadas (203x305 mm) respeta las proporciones del fotograma (2:3 = 
1:1,5), pero no cabría (por poco) en un DIN A4 (8,3x11,7 pulgadas). Un fotograma de 
formato 35mm tendría que ampliarse 8,5 (= 366/43) veces para alcanzar un tamaño de 8x12 
pulgadas. Se puede emplear el 8 como un número redondo intermedio para cálculos rápidos 
en los que tenga que ver el factor de ampliación. 
 
Las estimaciones que acabamos de ver son las que se siguen para el trazado de las marcas 
de profundidad de campo de los objetivos, pero se trata de convenciones de los años 30 
muy anticuadas. 
 
Zeiss, en el número 1 de Camera Lens News, dejó claro que 
 
“Todos los fabricantes de objetivos del mundo, incluyendo Carl Zeiss, tuvieron 
que adoptar el mismo principio y el estándar internacional basado en él (0,03 
mm para el círculo de confusión del formato 35mm), para producir las marcas y 
tablas de profundidad de campo”. Sin embargo, “El estándar internacional de 
profundidad de campo procede de una época en la que la calidad de imagen 
estaba severamente limitada por las emulsiones disponibles. Aquellos que 
emplean estas marcas, tablas y fórmulas (por ejemplo, para calcular la 
distancia hiperfocal) se están refiriendo, probablemente sin saberlo, al potencial 
de calidad de imagen medio de las emulsiones previas a la Segunda Guerra 
Mundial” (->). 
 
Además, hoy sabemos que el ojo humano puede llegar a captar hasta 3 veces más detalle a 
simple vista, es decir, distinguimos puntos de unos 0,07 milímetros de diámetro cuando 
menos (->), por lo que el círculo de confusión debería ser mucho menor. Volveremos a este 
tema con detalle ahora. 
 
Un factor más que debe tenerse en cuenta: si adoptamos como referencia un tamaño de 
impresión mayor (un A3, por ejemplo, muy común hoy día gracias a las asequibles 
impresoras fotográficas), el círculo de confusión tiene que ser todavía más pequeño (->). 
 
El tema es importante y requiere algo más de análisis. Normalmente lo que se hace es 
medir el límite puntual de resolución del ojo determinando el tamaño mínimo de punto 
discernible. A partir de las dimensiones de ese punto se computa la capacidad resolutiva del 
ojo en pares por milímetros. El tamaño mínimo de punto discernible es de 1/60 de grado o 
un minuto de arco (60 segundos). A 25 centímetros, que es la distancia óptima de 
observación, eso supone (->) un punto de 0,07 milímetros de diámetro (70 micras), lo que 
permite calcular la conocida cifra de los 6-7 pares por milímetro. Para que un punto tan 
pequeño sea visible su luminosidad debe diferir de la del fondo en al menos un 20 por 
ciento, que es el contraste mínimo para ese tamaño de punto. Para puntos mayores el 
requerimiento de contraste se reduce hasta un mínimo del 5 al 1 por ciento dependiendo de 
las condiciones de luz. No es lo mismo un punto negro en un fondo brillante que un punto 
luminoso sobre un fondo oscuro. En este segundo caso la capacidad resolutiva del ojo es 
 24 
muy superior a la que venimos mencionando. Por tanto, el círculo de confusión de 30 micras 
está basada en criterios muy conservadores en cuanto a tamaño de ampliación (copias de 
8x10 pulgadas), tamaño de negativo (formato 24x36mm) y capacidad visual del ojo (2 
lp/mm). ¿Esto es todo? En absoluto. Los errores de las viejas convenciones son mucho 
mayores de lo que se acaba de indicar. 
 
Para empezar, la separación entre conos en la fóvea es de 0,0015 milímetros, lo que 
traslada la máxima resolución visual posible a 20 segundos de arco. Por otro lado, en 
términos prácticos, 30 segundos de arco son difícilmente discernibles. Con esos límites 
mínimos podemos aceptar el valor de 60 segundos de arco, aunque no es un valor 
universalmente aceptado. Se trata en todo caso del diámetro de puntos. 
 
Por otro lado, no es lo mismo discriminar un punto que una línea. Un punto debe ser 
suficientemente grande para estimular varios conos de la retina. Lo mismo ocurre con las 
líneas, pero aquí la exigencia de grosor es menor que la de diámetro en el punto, ya que la 
longitud de la línea consigue estimular varios conos en todo caso. El ojo puede ver una línea 
aislada negra sobre fondo brillante con alto contraste si tiene un grosor de una micra o 
menos (0,001 milímetros) a 25 centímetros (0,8 segundos de arco). Una línea aislada 
brillante sobre fondo negro puede verse por pequeña que sea, dependiendo sólo del brillo, y 
no de su anchura. Curiosamente, si son grupos de líneas, el ojo pierde capacidad de 
discernir. Grupos de líneas negras sobre fondo brillante deben separarse (de centro de línea 
a centro de línea, es decir, un par) al menos 0,05 milímetros para poder distinguirse 
visualmente (50 micras o 20 pares de líneas por milímetro a 25 centímetros, para 40 
segundos de arco; la línea negra sería de 25 micras). Si es un grupo de líneas brillantes 
sobre fondo negro la resolución visual es de 1 segundo de arco. Puede tomarse este dato 
como límite máximo, para sujetos de alto contraste, en situaciones de observación ideales. 
 
Al no distinguir entre el mínimo tamaño del punto visible y la mínima separación discernible 
entre dos puntos adyacentes (recordemos el criterio de Rayleigh: el diámetro del punto no 
se puede igualar a la anchura de la línea), al confundir la capacidad resolutiva respecto a un 
punto con la capacidad resolutiva respecto a una línea o grupo de líneas, y al no distinguir 
entre el contraste de los motivos, se dan cifras muy dispares de la capacidad visual del ser 
humano. 
 
Como hemos visto, el círculo de confusión de 30 micras es una convención adoptada para 
cálculos de profundidad de campo que, implícitamente, supone un tamaño de copia 
pequeño y película de muy baja resolución, o una agudeza visual de no mucho más de 2 
pares de líneas. Los 0,07 milímetros para una línea se basan en el punto, lo que no es 
correcto. Si 40-60 segundos de arco para un punto se trasladan correctamente a pares de 
líneas (véase el criteriode Rayleigh) tendremos 14-20 lp/mm. Es más, la calidad de imagen 
percibida es sensible a detalle de incluso 25 lp/mm. 
 
Estos cálculos suponen máxima agudeza visual, y una distancia de observación de 25 
centímetros. Pero una fotografía no se mira a esa distancia siempre. La distancia natural de 
observación depende de la distancia focal, de la diagonal de la fotografía y de la diagonal 
del formato de captura. Tenemos que e = L * v, donde e es la distancia a la que se debe 
contemplar la foto, L es la distancia focal y v (=D/d) son las veces que hemos ampliado el 
fotograma para alcanzar el tamaño de la foto impresa. Los 25 centímetros proporcionan una 
distancia natural de observación sólo para una focal de 30mm y una impresión tamaño A4, o 
una focal de 21mm y una impresión A3, en ambos casos con un formato de 35mm. En 
cualquier otro caso una perspectiva natural implicará alguna pérdida de resolución visual. 
 
 25 
Una cosa es la capacidad resolutiva del ojo y otra la percepción de calidad en una imagen. 
La llamada “legibilidad” de una fotografía es la percepción de nitidez en una fotografía ya 
impresa (Williams 1990, páginas 55 y 56). Entre 6 y 8 pares por milímetro, a 25 centímetros 
de distancia, se garantiza una imagen que se percibe como de gran nitidez. Incluso a 4 
pares por milímetro la percepción de nitidez es aceptable. Por tanto, el valor de 6 pares en la 
fotografía final es un buen punto de referencia práctico, a pesar de todo. También lo es 
considerar, a partir de estudios empíricos de Zeiss, que 40 lp/mm de detalle real resuelto en 
un formato de 35mm, e incluso el formato medio, es un valor clave para la percepción de 
calidad y legibilidad en una imagen fotográfica (->). 
 
Pero se puede afinar más, y especificar qué rango de detalles afecta más a la percepción 
subjetiva de nitidez. Se trata del rango que va de 0,5 a 2 lp/mm en el papel (->), a una 
distancia de observación de unos 34 cm. Eso supone, para el sensor y el objetivo, un rango 
de resoluciones que va de 6 lp/mm (0,5*12) a 24 lp/mm (12*2 lp/mm) si hablamos de una 
impresión A3 obtenida a partir de un sensor o película de formato 35mm. El objetivo que 
transmite un alto nivel de contraste dentro de ese estrecho y modesto rango de 
resoluciones, proporciona una imagen con buen impacto visual. 
 
 
No obstante, cuando se examina la capacidad límite de un sistema fotográfico, hay que 
elevar la exigencia al máximo, y no limitarse a las condiciones prácticas impuestas por la 
agudeza visual o el tamaño de impresión. Las fotos pueden verse en pantalla ampliadas a 
cualquier tamaño. De hecho, 12 MP al 100% en una pantalla de 96 píxeles por pulgada 
equivale a una impresión de 1 metro por 70 centímetros, y a ese tamaño las diferencias más 
pequeñas pueden hacerse notar. Retomaremos el tema de la capacidad límite de un 
sistema fotográfico con distintos formatos al final de este estudio 
 
Véanse los análisis sobre agudeza visual humana de Norman Koren (->), R. N. Clark (->), 
Ronald W. Harris (->), y sobre todo Williams (1990). 
 
En cualquier caso, la resolución real que debe alcanzar el sistema en pares por milímetro, R, 
vendrá dada por la resolución real que queremos en el papel en pares por milímetro 
multiplicada por la razón de las diagonales de la foto impresa y el medio de captura, de 
modo que 
 
R = rf * (D/d) 
 
Donde rf es la resolución final en el papel, D es la diagonal de la fotografía impresa y d la 
diagonal del fotograma o sensor. Podemos emplear la fórmula para calcular qué resolución 
debe alcanzar el sistema (sensor y objetivo) para garantizar determinada resolución en una 
impresión de determinado tamaño. Por ejemplo, para conseguir una impresión 8x12 con 6 
pares por milímetro (de detalle real captado) el sensor de 35mm tiene que proporcionar una 
resolución lineal real de 50 pares por milímetro (≈ 6*366/43). 
 
El círculo de confusión no es más que la inversa de R multiplicada por dos, para pasar a 
milímetros, es decir, 
 
CoC = 2/R 
 
Hay una regla sencilla, aunque algo tosca, para calcular el círculo de confusión, que es 
dividir la diagonal del sensor o película por 1500 
 
CoC = d/1500 
 26 
 
En efecto, el formato de 35mm tiene una diagonal de 43mm, de manera que, sustituyendo, 
tendremos que CoC = 0,030 mm para dicho formato. 
 
 
Tres puntos en distintas posiciones de una escena que vemos nítidos por proyectar en el 
plano focal puntos iguales o menores al círculo de confusión (->). 
 
 
Volvamos a la tabla anterior. Obsérvese que para el formato de 35mm cerrar el diafragma 
más allá de f/22 conlleva una pérdida apreciable de nitidez percibida en una impresión 8x10 
(ó 8x12), pues el disco de Airy superará el tamaño del círculo de confusión 
(convencionalmente definido) (->). Los formatos más pequeños tienen ese límite en un 
número f menor (a una abertura mayor), pues su círculo de confusión es menor (hay que 
ampliar la imagen original más veces). Lo contrario para los formatos más grandes, cuyos 
objetivos se pueden permitir números f mayores que los mostrados en la tabla. En general, 
para el cálculo de los círculos de confusión de cada formato se puede emplear el factor de 
recorte de todos ellos respecto de uno cualquiera (->). En efecto, para dos sistemas 
cualesquiera, 
 
CoC2 = CoC1 / q 
 
donde q es el factor de recorte, es decir, la razón de las diagonales de ambos formatos (q = 
d1/d2). Por tanto, el APS (q = 1,5) tendría un círculo de confusión de 0,020 milímetros de 
diámetro (=0,030/1,5) y el 4/3 (q = 2) uno de 0,015 milímetros (=0,030/2). Obsérvese que, si 
queremos evitar una pérdida de nitidez general en una impresión 8x10 (ó 8x12), los 
objetivos para el formato APS sólo podrán cerrar el diafragma hasta f/16 y los objetivos para 
el formato 4/3 hasta f/11, aunque siempre es posible imprimir a menor tamaño (->). 
 
Pero una cosa son los objetivos sólo limitados por la difracción y otra muy distinta los 
objetivos reales con los que trabajamos normalmente. A título de ejemplo, mostramos una 
tabla de resoluciones para una colección de objetivos de 50mm para formato de 35mm 
actualmente comercializados, medidas por Erwin Puts (->) en condiciones de laboratorio 
(“Reflections on current optical design trends”, 05/06/06). La tabla presenta los niveles de 
contraste (en términos porcentuales) en el centro de la imagen para un amplio rango de 
resoluciones (en pares por milímetro) a una abertura de f/5,6 y enfocando a infinito. Los 
objetivos son el Zeiss Planar f/1,4 ZF (->), Zeiss Planar f/2 ZM (->), Voigtländer Nokton f/1,5 
(->), Leica Summilux-M f/1,4 ASPH (->) y Leica Summicron-M f/2 (->). Todos tienen 
monturas M para cámaras telemétricas de Leica, excepto el Zeiss ZF, que es un objetivo 
para cámaras réflex con montura F de Nikon. Todos son diseños ópticos muy recientes, 
excepto el Leica Summicron, que es de 1979. El Summilux de Leica tiene un diseño un tanto 
especial, por separarse del clásico Doble-Gauss simétrico, incorporando una lente aesférica 
 27 
y un elemento flotante compuesto por dos lentes para garantizar una calidad uniforme 
incluso enfocando a distancias cortas. 
 
Objetivos: Zeiss Planar ZF f/1,4 
Zeiss Planar 
ZM f/2 
Voigtländer 
Nokton f/1,5 
Leica 
Summilux M 
f/1,4 ASPH 
Leica 
Summicron M 
f/2 
lp/mm % % % % % 
4 96 96 96 96 96 
8 95 95 94 95 95 
10 94 94 94 95 94 
16 94 94 92 93 93 
20 90 90 88 90 90 
40 78 78 80 80 78 
80 60 58 62 60 58 
160 35 30 35 35 35 
 
 
Como puede verse, incluso para una resolución de 160 pares por milímetro, estos objetivos 
ofrecen altos niveles de contraste en el centro de la imagen. La tabla, aun en condiciones de 
laboratorio, nos da una imagen más realista de la capacidad resolutiva real de los objetivos. 
 
Recordemos que en el cálculo teórico dábamos una resolución máxima para una abertura 
f/5,6 de 268 pares por milímetro, si bien esa cifra asumía la total ausencia de aberraciones y 
niveles de contraste más bajos que un 30-35%. Se supone que a una abertura intermedia 
como f/5,6se consiguen los mayores niveles de resolución y contraste para este tipo de 
objetivos, aunque, dependiendo del objetivo, también podría alcanzarse con una abertura un 
poco mayor (f/4) o un poco menor (f/8). 
 
Como vimos, muchas de las aberraciones se multiplican con el ángulo visual, por lo que las 
mayores resoluciones se alcanzan con teleobjetivos, y no con objetivos normales como los 
incluidos en la tabla. El peor problema de los teles son las aberraciones cromáticas, –que se 
corrigen mediante una combinación de vidrios adecuada– pero, por lo demás, es más fácil 
para ellos acercarse a los valores de resolución condicionados sólo por la difracción. 
 
Una cuestión interesante es si el medio digital requiere de diseños ópticos especialmente 
adaptados a él. La verdad es que, dejando a un lado el tema de la reflectancia de los 
sensores, y el del ángulo de incidencia de la luz en los bordes, el tema está aún por 
clarificar. Ningún objetivo puede corregir totalmente todas las aberraciones a todas las 
aberturas, dadas las restricciones de coste, escala de producción y tamaño de cada 
producto. Los diseñadores ópticos tienen sus propias recetas para estas aberraciones 
residuales. Hay diseños mejores y peores, o para objetivos más caros y más asequibles, 
pero también hay criterios distintos ¿Afecta el medio digital a estos criterios? En principio 
podría ser que sí, por dos motivos. Primero, porque el tratamiento ex-post mediante software 
de la imagen podría permitir corregir parcialmente los efectos de determinadas aberraciones 
(distorsión) o defectos (como el viñeteo), lo que daría al diseñador más grados de libertad 
para actuar. Segundo, porque los efectos de las aberraciones podrían ser distintos en el 
medio digital (pensemos en las aberraciones cromáticas o en la aberración esférica y el 
desplazamiento del enfoque). Si ha habido o no un impacto real de la nueva tecnología de 
captura en el diseño de objetivos es una pregunta que espera todavía respuesta. 
 
 28 
1.2. El sensor. 
 
El siguiente elemento que hay que considerar es la capacidad resolutiva de la película o 
sensor. Al hablar de sensores utilizaremos como conceptos sinónimos o estrechamente 
relacionados los términos 'densidad de píxeles', 'frecuencia espacial', 'límite Nyquist', 
‘frecuencia Nyquist’, 'frecuencia de muestreo' o 'capacidad resolutiva máxima o teórica'. 
 
Cada tipo de película tiene sus valores resolutivos, dependiendo de si hacemos la medición 
para un motivo ideal con alto contraste (1000:1) o para un motivo con un contraste medio 
(1,6:1), más realista. La capacidad resolutiva es superior para un motivo de alto contraste, 
pero éstos sólo se encuentran en pruebas de laboratorio (cartas de resolución). También es 
superior, en general, para película en blanco y negro a igual sensibilidad. En película de 
color de alta resolución (una Fuji Velvia, por ejemplo) podemos esperar una capacidad 
resolutiva máxima de unos 80 pares para un motivo de alto contraste, mientras que en 
película de blanco y negro (una Kodak Technical Pan, Agfa APX25 o Ilford Delta 100) 
podrían registrarse resoluciones superiores a 100 pares por milímetro. 
 
Veamos ahora las frecuencias de muestreo o capacidades resolutivas máximas teóricas de 
algunos sensores actuales (medidas en pares por milímetro). Según los cálculos de Bob 
Atkins (->), redondeando, el sensor de la Canon 10D podría resolver como máximo casi 70 
pares de líneas por milímetro (fotocélulas de 7,7 micras de lado, ->) y la Canon 20D (o la 
30D) casi 80 pares (fotocélulas de 6,4 micras de lado, ->). La nueva Canon 40D, con su 
sensor de 10 millones de píxeles, tiene una frecuencia de muestreo de 88 pares de píxeles 
(celdillas de 5,7 micras de lado). Estos números son fáciles de comprobar. El sensor de 
esas dos cámaras es de 15,1x22,7mm, y el tamaño de la imagen en la 10D es 2048x3072 
píxeles, de manera que la máxima resolución (límite Nyquist) es 2048/15,1 = 135,63 píxeles 
por milímetro = 67,8 pares de línea o ciclos por milímetro. Obsérvese que la frecuencia de 
muestreo se mide en muestreos por milímetro o píxeles por milímetro, y la frecuencia de la 
señal se mide en pares de líneas por milímetro. 
 
Hay una fórmula que permite el cálculo directo de la resolución máxima teórica (o límite 
Nyquist en pares de líneas por milímetro, Ry) a partir del dato del espaciado entre ‘píxeles’, 
medido en milímetros (variable p). Tenemos entonces que 
 
Ry = 1/(2p) 
 
La fórmula se puede emplear con la Canon 30D, para confirmar el dato de Atkins, o para 
calcular la capacidad resolutiva de otras cámaras. En efecto, las 6,4 micras de espaciado de 
los ‘píxeles’ de esta cámara son 0,0064 milímetros, para los que la fórmula da unos 78 pares 
de líneas por milímetro de resolución máxima posible (límite Nyquist). 
 
La Canon EOS-1Ds Mark II, con un sensor 24x36mm, tiene 70 pares de líneas por milímetro 
de resolución máxima teórica o límite Nyquist (140 píxeles por milímetro de frecuencia de 
muestreo). La Canon 5D, también con un sensor de formato 35mm sin recorte, tiene una 
cifra relativamente baja, de unos 60 pares (8,2 micras, muy similar al tamaño de “píxel” de la 
Nikon D3). La Canon EOS-1Ds Mark III, con sus casi 22 millones de píxeles (de 6,4 micras 
de lado), puede resolver como máximo 78 pares de líneas por milímetro. En cambio, la 
Nikon D300 (5,3 micras de espaciado entre píxeles, 13,1 millones de píxeles totales en un 
sensor 23,6x15,8 mm) o la Canon 450D (5,1 micras de espaciado) tienen nada menos que 
93 y 97 pares por milímetro de resolución máxima teórica (límite Nyquist) respectivamente, 
cifra sólo ligeramente superada por la Pentax K20D (4,9 micras, 15,1 millones de píxeles 
totales) y las Olympus E-410, E-510 y E-3 (4,7 micras), que superan ligeramente los 100 
pares por milímetro. 
 29 
 
Como vemos, los sensores tienen capacidades resolutivas máximas inferiores a la película 
en blanco y negro de alta resolución y baja sensibilidad, pero similar a la película en color. 
Los sensores digitales tienen además la ventaja de no ver muy degradada su capacidad 
resolutiva cuando se aumenta la sensibilidad equivalente ISO (sobre este concepto, ->). 
 
En cuanto a las MTF de los sensores electrónicos, estas funciones pueden ser aproximadas 
matemáticamente mediante una expresión como esta (->): 
 
MTF(r) = | sinc ( r / Ry) |n 
 
Donde r es la frecuencia para la que se mide el nivel de contraste en pares por milímetro, Ry 
es el límite Nyquist en pares de líneas o ciclos por milímetro, sinc(x) es una función que 
adopta valor 1 para x = 0 y un valor sin(px)/(px) en otro caso (->) y n puede adoptar distintos 
valores para una mejor aproximación, siendo n = 3 adecuada para sensores tipo Bayer con 
filtro de paso bajo, n = 2 para sensores Bayer sin filtro de paso bajo y n = 1,5 para sensores 
como el Foveon (->) (un número n menor implica mayores niveles de contraste para cada 
resolución r). 
 
Dado que Ry = 1/(2p) podemos decir que p = 1/(2Ry), es decir, cuanto mayor es el tamaño (o 
mejor, espaciado) de cada ‘píxel’ (p) mayor será también el argumento x de la función sinc 
para cada frecuencia (r). En efecto, x es una proporción que se mueve entre 0 y 1, de 
manera que cuando x es 0 el contraste es máximo y cuando x es 1 el contraste se reduce a 
un mínimo. Nos interesa conocer el nivel de contraste para determinado nivel de resolución 
(r) de dos sensores de igual tamaño pero con frecuencias de muestreo distintas (y por tanto, 
tamaños de ‘píxel’ distintos). Para ello deberemos comparar las MTF para proporciones x 
distintas, de forma que el nivel de contraste del sensor con mayor tamaño de píxel será 
medido para un valor de x superior (el denominador del argumento de la función sinc es más 
pequeño), y eso supone necesariamente un nivel de contraste menor para un mismo valor 
de r. 
 
En definitiva, sensores de píxeles más pequeños tienen MTF algo más elevadas, y por tanto 
proporcionarían el mismo detalle con mayores niveles de contraste.Obviamente, hay 
muchos más factores que afectan la MTF del sensor, como son la presencia (o no) de un 
filtro de paso bajo y sus características, la eficiencia cuántica para cada longitud de onda (-
>), la proporción que representa la superficie realmente sensible del sensor (para un estado 
de la tecnología dado será menor cuantos más ‘píxeles’, pues la circuitería que cubre parte 
de la misma aumenta también), el mosaico Bayer, las microlentes, etcétera. Es muy difícil 
conseguir datos de las MTF de los sensores, pues los fabricantes no las publican (a 
diferencia de las películas, para las que hay información abundante, ->), por lo que hay que 
recurrir a estimaciones independientes. En general, podemos decir que los sensores 
proporcionan un nivel de contraste de entre el 30 y el 50 por ciento para la máxima 
frecuencia de señal (->). 
 
 30 
1.3. Resolución del sistema. 
 
Vamos a combinar ahora los dos elementos que acabamos de estudiar en detalle, objetivo y 
sensor (o película). En la siguiente tabla hemos calculado las resoluciones máximas de un 
sistema (R) para distintas combinaciones de capacidad resolutiva máxima en el objetivo (r1) 
y película o sensor (r2) para un motivo de alto contraste, empleando la conocida fórmula R = 
1 / (1/r1 + 1/r2), que proporciona una aceptable aproximación empírica. Por máximo 
entendemos “con el contraste suficiente para ser discernible”, que depende del motivo 
fotografiado (con una carta de resoluciones, un contraste mínimo bajo es aceptable). 
Mostramos capacidades resolutivas máximas poco realistas para los objetivos porque son 
ilustrativas de la relativa importancia de uno de los elementos del sistema por separado. 
 
lp/mm Resolución de la película/sensor (lp/mm) 
Resolución 
del objetivo 
(lp/mm) 
20 30 40 50 60 70 80 90 100 110 120 130 140 150 
100 17 23 29 33 38 41 44 47 50 52 55 57 58 60 
200 18 26 33 40 46 52 57 62 67 71 75 79 82 86 
300 19 27 35 43 50 57 63 69 75 80 86 91 95 100 
400 19 28 36 44 52 60 67 73 80 86 92 98 104 109 
500 19 28 37 45 54 61 69 76 83 90 97 103 109 115 
600 19 29 38 46 55 63 71 78 86 93 100 107 114 120 
700 19 29 38 47 55 64 72 80 88 95 102 110 117 124 
800 20 29 38 47 56 64 73 81 89 97 104 112 119 126 
900 20 29 38 47 56 65 73 82 90 98 106 114 121 129 
1000 20 29 38 48 57 65 74 83 91 99 107 115 123 130 
 
 
La capacidad resolutiva máxima combinada de objetivo y película química ha sido 
ampliamente analizada, y se sabe que con bastante esfuerzo alcanzará los 100/120 pares 
por milímetro en el negativo (->). Es más razonable esperar resoluciones máximas de entre 
80 y 90 pares en el negativo, y empleando película para blanco y negro de alta resolución y 
en condiciones muy controladas, lo que está dentro de los valores que predice la tabla. En el 
caso de los sensores esas cifras pueden ser algo más bajas para el blanco y negro, pero 
superiores si se compara con película de color. Hablamos siempre de detalle a un nivel de 
contraste que lo hace justamente perceptible. 
 
Sin embargo, cuando fotografiamos a pulso, el motivo se mueve, enfocamos con rapidez o 
empleamos película más sensible (grano más grueso), la resolución máxima que podemos 
esperar cae rápidamente, situándose entre los 20 y los 40 pares por milímetro en el mejor 
de los casos. Al ampliar el negativo químico a través de un objetivo para obtener una copia 
en papel se producen pérdidas de resolución y contraste adicionales, cosa que no ocurre si 
imprimimos a partir de un archivo digital. Si disponemos de 20 pares por milímetro en el 
negativo o sensor de 35mm, lo más que podremos obtener en un A4 son poco más de 2 
pares por milímetro. Pero con 40 pares por milímetro en el negativo podemos alcanzar los 5 
pares en el papel (->), detalle que se acerca al límite de lo que podemos discernir, por lo que 
40 pares por milímetro se ha considerado siempre la cifra máxima realmente relevante para 
impresiones moderadas (volveremos a esta cifra más adelante). Por tanto, más importante 
que la resolución máxima alcanzable (a un nivel de contraste meramente suficiente) es el 
contraste al que el sistema ofrece esos 40 pares y las resoluciones inferiores. 
 
 31 
Así pues, la resolución a la que la función de transferencia alcanza un valor mínimo de 
contraste tiene una importancia secundaria, académica si se quiere, en la mayor parte de los 
casos (->). En la práctica, lo importante es el perfil de la curva hasta el nivel de resolución 
relevante (->). Hemos representado en un gráfico dos curvas que podrían corresponder a 
dos objetivos de calidades distintas para una misma abertura, más otra que representa la 
función para otro valor de la misma. Imaginemos que la frecuencia de muestreo del sensor 
es de 200 píxeles por milímetro (también muestreos por milímetro). En ese caso se podrán 
resolver hasta 100 lp/mm fielmente (como máximo). El límite resolutivo del objetivo puede 
ser muy superior al del sensor (para un nivel de contraste del 0 por ciento), pero la diferencia 
de detalles percibida en la imagen vendrá determinada por la altura de la curva 
(aberraciones, difracción) para las resoluciones comprendidas en un rango relevante. Éste 
estaría acotado por la capacidad resolutiva del sensor, pero dependería en última instancia 
de motivo, formato, tamaño de impresión y distancia de observación, entre otras cosas. 
 
 
Curvas MTF y resolución máxima de los objetivos (Bob Atkins©). 
 
 
Pueden darse determinadas condiciones en las que la resolución máxima alcanzable por un 
sistema, para un nivel de contraste mínimo aceptable, sea importante para una fotografía, 
pero no es el caso general. La resolución límite o máxima de un objetivo determina, junto 
con la del sensor, la del sistema, pero esta no está correlacionada en general con una 
impresión de más calidad en la imagen. Volveremos a este punto cuando hablemos de la 
impresión de la imagen digital (Sección 5). 
 
Un aspecto en el que la resolución máxima de un objetivo y un sensor sí tiene cierta 
relevancia es el de la eficiencia de la imagen digital como contenedor de información 
determinada por la resolución y el contraste. 
 
 32 
% Resolución de la película/sensor (lp/mm) 
Resolución 
del objetivo 
(lp/mm) 
20 30 40 50 60 70 80 90 100 110 120 130 140 150 
100 83 77 71 67 63 59 56 53 50 48 45 43 42 40 
200 91 87 83 80 77 74 71 69 67 65 63 61 59 57 
300 94 91 88 86 83 81 79 77 75 73 71 70 68 67 
400 95 93 91 89 87 85 83 82 80 78 77 75 74 73 
500 96 94 93 91 89 88 86 85 83 82 81 79 78 77 
600 97 95 94 92 91 90 88 87 86 85 83 82 81 80 
700 97 96 95 93 92 91 90 89 88 86 85 84 83 82 
800 98 96 95 94 93 92 91 90 89 88 87 86 85 84 
900 98 97 96 95 94 93 92 91 90 89 88 87 87 86 
1000 98 97 96 95 94 93 93 92 91 90 89 88 88 87 
 
 
Resulta interesante considerar además el porcentaje de la capacidad resolutiva del sensor o 
película que es aprovechada realmente por el sistema fotográfico. El cálculo es muy sencillo, 
pues sólo hay que dividir el valor de cada celda en la tabla precedente por el límite de la 
capacidad resolutiva del medio de captura, que consta en la cabecera de cada columna. 
 
La idea es que para poder conseguir mayores resoluciones máximas del sistema y 
reproducir correctamente una mayor parte de la señal transmitida por los objetivos, hay que 
incrementar la capacidad resolutiva del sensor o de la película, pero aceptando un menor 
aprovechamiento de la misma. Esto tiene implicaciones para el medio digital porque la 
capacidad resolutiva del sensor, dadas unas dimensiones físicas, determina el tamaño de la 
foto (en número de píxeles y en megabytes). Es obvio que hay una parte de la matriz de 
píxeles que forma la fotografía digital que no contiene información relevante en términos de 
detalle, problema de ineficiencia que se agrava cuanto mayor es la capacidad resolutiva de 
los sensores (retomaremos esta idea más adelante). 
 
Un factor que limita seriamente la resolución máxima alcanzable por un sistema fotográfico 
compuesto por objetivo y medio de capturaes la vibración del mismo durante la captura. La 
tabla que presentamos procede de Williams (1990, p. 191), y está calculada para dos 
sistemas con resoluciones máximas de 40 y 100 pares por milímetro. Se asume un 
desplazamiento de 200 micras durante una décima de segundo (típico del pulso), y a partir 
de ahí se calcula la ganancia en resolución con una reducción del tiempo de exposición. 
Como se puede ver, cuanto mejor sea el sistema fotográfico más cortas tendrán que ser las 
obturaciones para evitar una degradación del potencial resolutivo. A 1/250 de segundo el 
sistema de 40 pares sólo pierde un 5 por ciento, pero el sistema de 100 pares pierde un 22 
por ciento. 
 
 33 
1/10 1/15 1/30 1/60 1/125 1/250 1/500 1/1000 Max. R. 
5 7 15 25 34 38 39.5 39.9 40 
5 7 16 30 53 78 93 98 100 
 
Si bien el desplazamiento o componente dispersivo (->) creado por el movimiento depende, 
entre otras cosas, de la magnificación del objetivo, y por tanto de la distancia focal, la tabla 
es capaz de mostrarnos con un sencillo ejemplo que muchas de las reglas intuitivas que 
empleamos para conjurar la pérdida de detalle debida al movimiento (del sistema o del 
sujeto) son incorrectas. 
 
Como hemos visto, para aprovechar más a fondo la capacidad resolutiva de los sensores, 
los objetivos deben superarla ampliamente, lo que conduce a problemas de exceso de 
señal, que son otro factor limitante importante de la capacidad resolutiva real de un sistema 
fotográfico. Estamos hablando del fenómeno del aliasing, que tratamos en la siguiente 
sección. 
 
 
2. Los problemas de aliasing. 
 
Las cifras de capacidad resolutiva que acabamos de ver son optimistas. La culpa la tiene el 
aliasing, que es el error que se produce cuando se trata de adivinar unos detalles de forma o 
color a partir de una información demasiado escasa. No es más que un simple error de 
estimación. Pero, ¿por qué las cámaras digitales tienen que estimar? 
 
Los sensores tienen una gruesa capa de filtros y cristales protectores. Uno de esos filtros 
provoca por sí mismo un problema de aliasing, y es el filtro-mosaico Bayer (->), que permite 
la fotografía digital en color en la mayor parte de las cámaras actuales. Cada fotocélula tiene 
sobre sí un cristal de un color primario (verde, rojo o azul) que sólo le permite registrar 
información sobre intensidad luminosa para ese color. Después la cámara compone la 
imagen final en función no sólo de la información registrada en cada punto, sino de los 
colores de los puntos de alrededor. La cámara estima los colores definitivos mediante 
complejos algoritmos (->), lo que puede conducir a problemas de moiré cromático (->), que 
es el efecto que en la fotografía tiene el problema de aliasing derivado de la estimación de 
los colores. Esta interpolación que completa la información que falta no es necesaria en un 
sensor multicapa como el Foveon (->) (o en sensores monocromo, como el de la Kodak 
DCS-760M, sin filtro de color alguno), lo que explica que los sensores multicapa no 
presenten el mencionado problema de moiré cromático (aunque tienen otros puntos débiles, 
->). 
 
Pero hay más filtros, como el llamado de “paso bajo” o anti-alias, que trata de evitar la 
aparición de otro problema de aliasing, esta vez bajo la forma de una estructura falsa, irreal, 
que puede presentarse en la imagen en forma de moiré cromático o no cromático (->). Esta 
vez el problema se debe a que la frecuencia de la señal (transmitida por el objetivo) supera 
a la frecuencia de muestreo. Ahora veremos por qué. 
 
Según el teorema de Nyquist-Shannon (->), que se aplica a señales continuas y limitadas en 
banda, necesitaremos una frecuencia de muestreo que más que duplique la frecuencia 
máxima en la señal para reproducir ésta correctamente. Esto no se puede aplicar 
directamente a señales de naturaleza discreta, como la que transmite el objetivo al 
fotografiar cartas de resolución compuestas por pares de líneas. En cualquier caso, los 
motivos fotográficos normales no son así. 
 
 34 
Sin embargo, podemos adaptar intuitivamente la lógica del teorema al caso discreto. Éste 
habla de la necesidad de que la frecuencia de muestreo duplique la frecuencia de la señal, 
medida la primera en muestreos por milímetro (o por unidad de tiempo en otros casos) y la 
segunda en ciclos por milímetro. En imagen digital el muestreo viene dado por los píxeles, y 
los ciclos son equiparables a pares de líneas (dejémoslo ahí). Por tanto, la receta es de dos 
muestreos por cada ciclo, es decir, dos píxeles por cada par de líneas, como mínimo. Pero 
esto es sólo cierto si las líneas (señal) están perfectamente alineadas con el dispositivo 
receptor (el sensor). En otro caso serán necesarios más de dos píxeles (normalmente basta 
con 3 en sensores monocromáticos, pero pueden ser muchos más de tres con señales 
discretas ->). En resumen, al menos un píxel por línea (sea blanca o negra). 
 
Así pues, el llamado límite Nyquist se define como la máxima frecuencia de una señal que 
puede ser reproducida con una determinada frecuencia de muestreo (->), es decir, lo que 
podremos reproducir en el mejor de los casos con esa frecuencia de muestreo. Este máximo 
teórico posible es de un par de líneas por cada 2 píxeles. Si la frecuencia de la señal supera 
el límite Nyquist el aliasing aparecerá. 
 
El siguiente gráfico representa ahora dos curvas MTF para un mismo objetivo de formato 
35mm a distintas aberturas. En el eje de ordenadas (vertical) tenemos el nivel de contraste, 
medido de cero a uno. En el eje de abscisas (horizontal) tenemos la resolución, es decir, el 
número de pares de líneas por milímetro para el que se da cada nivel de contraste. La curva 
negra es la MTF a una abertura de f/22, mientras que la curva azul representa la MTF a 
f/5,6. Imaginemos un sensor con una resolución o frecuencia de muestreo de 150 píxeles 
por milímetro. El límite Nyquist asociado es de 75 pares de líneas. Él área bajo cada curva a 
la izquierda de la línea roja, que representa el límite Nyquist, es determinante para la 
percepción de calidad en la foto. El área situada bajo la curva MTF y a la derecha del límite 
Nyquist (exceso de señal no reproducible con fidelidad) perjudica la calidad de la imagen 
final, debido al aliasing. Pero el límite Nyquist es el mejor de los casos posibles (es la 
frecuencia máxima de señal reproducible para una frecuencia de muestreo dada). Puede ser 
necesaria una frecuencia de muestreo superior para reproducir una señal determinada. Por 
ejemplo, para reproducir los 75 pares de líneas del ejemplo podríamos vernos obligados a 
emplear una frecuencia de muestreo no de 150 píxeles por milímetro, sino de más. Hemos 
trazado una línea para un hipotético sensor de 300 píxeles por milímetro (150 pares de 
píxeles, si se quiere). Esa nueva frecuencia lleva asociado un nuevo límite Nyquist de 150 
pares de líneas o ciclos por milímetro, pero garantiza al menos que se resuelven bien 75 
pares de líneas. No es más que un ejemplo, y la magnitud del “sobremuestreo” necesario 
dependerá del motivo. 
 
 35 
 
Curvas MTF (Bob Atkins©). 
 
 
Para solucionar el problema del aliasing por exceso de señal tenemos dos opciones: elevar 
sustancialmente la frecuencia de muestreo o bien alterar la señal mediante un filtro de paso 
bajo. En realidad se aplica una combinación de ambas, mediante el uso de filtros que actúan 
sobre la señal y una frecuencia de muestreo lo más alta posible que reduzca la señal 
sobrante. Ninguna de las dos vías es capaz de dar hoy día una solución completa al 
problema por sí misma. 
 
Pero la frecuencia de la señal es demasiado alta en los objetivos de 35mm para conseguir 
que la frecuencia de muestreo de margen suficiente en todos los casos posibles, lo que 
además no tendría mucho sentido, pues para poder captar detalle fino con bajo contraste 
estaríamos empleando una elevadísima capacidad resolutiva en el sensor, que tiene sus 
costes (tamaño de la imagen). El nivel óptimo está en algún punto suficientementealto como 
para que los excesos de señal ocasionales no supongan un problema serio. 
 
La alternativa del filtro tampoco está exenta de limitaciones. Lo ideal sería disponer de uno 
que redujera a cero todo el exceso de señal por encima de la capacidad máxima de 
muestreo del sensor sin alterar el resto de la señal, es decir, truncar la curva MTF a la altura 
de la frecuencia de muestreo, pero en la práctica los filtros ópticos no son tan eficientes. Hay 
que elegir entre eliminar una mayor parte del exceso de frecuencia, aun a riesgo de afectar 
demasiado a la señal que el sensor sí puede captar correctamente, o hacer un tratamiento 
menos agresivo que no elimine todo el exceso ni evite las consecuencias del aliasing en 
todos los casos. El problema de los filtros es que afectan a la imagen incluso cuando no son 
necesarios (señal de baja frecuencia), pues no se pueden desactivar. El efecto es una 
pérdida de resolución efectiva. Puede optarse sin embargo por no añadir un filtro al sensor, 
pero podría ocurrir lo contrario: cuando las circunstancias lo hagan necesario el exceso de 
señal puede afectar a la imagen representada, y nada habrá ahí para atenuar el efecto. 
Pueden verse las consecuencias en la Kodak DCS Pro SLR/c de casi 14 millones de 
‘píxeles’ (también es el caso del módulo digital R de Leica, con sensor Kodak). 
 36 
 
 
3. La resolución real o efectiva de una cámara digital. Algunos ejemplos. 
 
Hemos visto que la resolución máxima de un sistema depende de la capacidad resolutiva de 
cada uno de sus componentes. En el medio digital, además, la capacidad resolutiva del 
sensor está condicionada por el fenómeno del aliasing. Con estas tres variables ya podemos 
explicar con relativa precisión el rendimiento de una cámara digital. 
 
Veremos a continuación algunos ejemplos concretos de resolución efectiva de cámaras 
digitales reales. Ese dato dependerá en parte de la capacidad resolutiva del objetivo bajo las 
condiciones de la toma, de las propiedades del sensor y de los algoritmos de elaboración de 
la imagen (véase este documento del Dr. Karl Lenhardt, ->). 
 
En las comparativas casi nunca se ofrece información detallada sobre el objetivo que ha 
participado en la prueba, y se induce a pensar que el resultado de la medición corresponde 
a la cámara en sí, e incluso se hacen comparaciones entre cámaras distintas sin considerar 
que los objetivos suelen ser también muy distintos. Por si fuera poco, suelen compararse 
imágenes procesadas con programas informáticos diferentes. A pesar de todo ello, es 
conveniente ilustrar el análisis de las secciones precedentes con algunos ejemplos. 
 
Partamos de los datos de una cuestionable comparación (->, ->) entre la Nikon D2X, la 
Canon 1Ds Mark II y la Kodak DCS Pro SLR/c. Para ver cómo se han hecho los cálculos 
véanse estas instrucciones. La resolución efectiva de la Nikon D2X, equipada con el objetivo 
Nikkor 50mm f/1,8 (a f/8), es de 3600 líneas verticales y 2000 líneas horizontales, una 
fracción de la capacidad resolutiva teórica del sensor, que es de 4288 líneas verticales y 
2848 horizontales. La Canon 1Ds-Mark II, por su parte, equipada con el Canon EF 24-70 
mm f/2,8 L (50mm, f/9), resuelve 4200 líneas verticales y 2400 horizontales, cuando la 
capacidad máxima teórica del sensor es de 4992 verticales y 3328 horizontales. Por su 
parte, la Kodak DCS Pro SLR/c, con el Canon EF 50mm f/1,4 (a f/11, suponemos), sin filtro 
anti-alias, tiene una capacidad resolutiva real intermedia (3600 líneas verticales y 2200 
líneas horizontales). Debería haberse tenido en cuenta que una misma abertura tiene un 
impacto distinto en cuanto a profundidad de campo y nitidez si el formato es diferente. 
 
En la Nikon D2X se pasa de unos 180 píxeles por milímetro de frecuencia de muestreo 
(límite Nyquist de 90 lp/mm) a 76 pares por milímetro verticales y 64 pares horizontales de 
resolución real, una vez considerado el objetivo y el proceso final de la imagen. La Canon 
1Ds-Mark II pasa de 70 pares por milímetro de capacidad resolutiva teórica máxima en el 
sensor a 58 verticales y 50 horizontales reales. El sensor de la cámara Kodak es el que 
tiene una frecuencia de muestreo más bajo de las tres, de poco más de 60 pares por 
milímetro, si bien la resolución real es de 46 pares horizontales y 50 verticales. Esto es 
suficiente para tener una idea aproximada de la diferencia, en la práctica, entre capacidad 
resolutiva de un sensor y resolución final de un sistema. 
 
Como vemos, la tabla que cruza resoluciones del objetivo y el sensor (o película) predice 
unas resoluciones máximas razonables para los sistemas basados en el formato de 35mm 
que, como vemos, se ajustan bastante a la realidad. En cuanto al objetivo, todo dependerá 
del nivel de contraste que consideremos, es decir, hasta qué punto aceptamos que un 
conjunto de pares de líneas están resueltas con suficiente nitidez. Hemos visto cómo 
algunos objetivos de 50mm, para una abertura intermedia y enfocados a infinito, resuelven 
sobradamente 160 pares por milímetro. Si redondeamos a 200 pares y consideramos un 
sensor con una frecuencia de muestreo de 160 ó 180 píxeles por milímetro, tendremos una 
resolución máxima prevista de unos 60 pares, que puede resultar algo afectada por los 
 37 
filtros de paso bajo y por la interpolación a partir del mosaico Bayer. Se pueden conseguir 
resoluciones efectivas algo mayores, pero 60-70 pares parece ser un límite empírico para 
los sistemas digitales de 35mm o APS-C actuales, bajo condiciones controladas. Dicha 
capacidad resolutiva es suficiente para reproducir visiblemente 5 pares por milímetro en una 
impresión 8x12 (≈A4) desde cualquiera de los dos tipos de sensores. Ampliando el 
“fotograma” 8 veces necesitaremos resolver 40 pares por milímetro para agotar la capacidad 
de representar detalle discernible de una impresión A4 (8x5=40). El formato APS necesitaría 
un factor de ampliación de 12 (=8*1,5) y ello lleva a unos requerimientos de resolución real 
en el sensor de 60 pares (=12*5). 
 
Es recomendable leer también estos dos (1, 2) análisis de Erwin Puts, que muestran 
ejemplos de resolución efectiva de distintos sensores. 
 
En definitiva, el aliasing, por exceso de señal o interpolación de la información básica de 
colores y otros factores, no permiten hablar sin más de resolución efectiva de una cámara 
como la resolución de un sistema compuesto por un sensor y un objetivo. No obstante, a 
cambio, la imagen captada por un negativo fotoquímico puede sufrir cierta degradación al 
proyectarse a través del objetivo de la ampliadora. En el medio digital esa transmisión a 
papel se produce sin pérdidas. Volveremos al tema de la impresión más adelante. 
 
 
4. Para conseguir más detalle, ¿más ‘píxeles’ o más densidad de ‘píxeles’? 
 
Hay cierta discusión acerca de si da más cantidad de detalle un sensor más grande con más 
fotocélulas o ‘píxeles’ o un sensor más pequeño con menos ‘píxeles’ pero con más 
densidad. El siguiente dibujo puede ayudar a aclarar la idea: 
 
 
 
 
Supongamos que hacemos un retrato con dos cámaras, una equipada con un sensor sin 
recorte (formato completo de 35mm) de 16MP y otra con un sensor APS de 12MP. Si 
tomamos las dos fotos con el mismo objetivo y los mismos parámetros (focal, abertura, 
distancia del motivo) obtendremos dos fotografías en las que el motivo tendrá idéntico 
tamaño absoluto reproducido en uno u otro sensor. La diferencia estará en el área de color 
azul (pues el sensor APS implica un auténtico recorte de la foto). 
 
Es obvio que si la densidad de fotocélulas o ‘píxeles’ es mayor en el sensor APS el motivo –
la cara del retratado– tendrá más detalles que en el sensor de formato completo. Lo que 
ocurre es que un escenario como este es poco verosímil. Lo normal es que el área azul 
sobre o no sobre. Si no sobra, el fotógrafo que opera con la cámara APS reencuadrará el 
motivo para rodearlo de un área proporcionalmente igual al área azul, pero dentro del marco 
APS. En ese caso el motivotendrá que reducir su tamaño absoluto y, por tanto, la cantidad 
 38 
de puntos que describan la cara del retratado tendrá que disminuir también. Al contrario, si 
el área azul no era necesaria, el fotógrafo que usa la cámara de formato 35mm ajustará el 
encuadre de manera que la cara del retratado ocupe una parte mayor de la foto, y por 
consiguiente el número total de píxeles que dibujan el motivo será mayor. 
 
 
 
Hay dos formas de reencuadrar. La primera consiste en movernos, acercándonos o 
alejándonos del sujeto, lo que afectará a la perspectiva (->). La segunda consistiría en 
cambiar la distancia focal del objetivo empleada en una de las dos cámaras, pero sin 
movernos del sitio, lo que no afectará a la perspectiva. Si optamos por la segunda 
posibilidad tendremos que emplear un objetivo de menor distancia focal real en la cámara 
con sensor más pequeño para poder obtener el mismo ángulo visual. 
 
Usando uno u otro procedimiento, imaginemos que la cara del personaje cubre ahora todo el 
fotograma en ambas cámaras (segundo dibujo). El tamaño relativo (al fotograma o sensor) 
de la cara del retratado será el mismo. En ese caso la cámara de formato completo 
describirá esa cara con unos 16 millones de píxeles y la cámara APS con sólo 12 millones, y 
en principio, una vez considerada la participación del objetivo, veremos más detalle en la 
foto de la cámara de formato completo. Es más, si fotografiamos sin movernos del sitio y 
cambiando el objetivo, la mayor distancia focal real de la cámara con el sensor más grande 
puede suponer una ventaja adicional. Sin embargo, si se requiere una gran profundidad de 
campo, la cámara con el sensor más grande y el objetivo de mayor focal puede forzarnos a 
cerrar más el diafragma, lo que podría afectar a la calidad (en un sentido u otro, 
dependiendo de las circunstancias). Por último, sabemos que la densidad de fotocélulas es 
una variable clave para determinar la resolución real de una cámara, pues una frecuencia de 
muestreo superior reduce los problemas de exceso de señal. 
 
En definitiva, en las mediciones de resolución de sistemas digitales pueden emplearse dos 
tipos distintos de medidas (->, ->, ->), los pares de líneas por milímetro (lp/mm) y el total de 
líneas horizontales (line widths per picture height, lw/ph). La primera medida tiene sentido 
cuando los sensores son iguales y comparamos objetivos, por ejemplo, pues sólo tiene en 
cuenta la densidad de píxeles y no el tamaño del sensor. Pero es obvio que un negativo o 
sensor más grande, aun resolviendo menos detalle por milímetro, puede tener mucha más 
capacidad de captar detalles en conjunto. Es este segundo aspecto el que se mide con el 
total de líneas horizontales (puede hacerse también con las verticales, multiplicando además 
por la proporción del formato). Se puede pasar de uno a otro sistema de medida de forma 
sencilla, pues 
 
lw/ph = 2 * lp/mm * altura del sensor en mm 
 39 
 
Otra forma interesante de medir la capacidad resolutiva de un sistema, atendiendo 
especialmente a su eficiencia, es computar los pares de líneas de detalle por píxel (lp/p). La 
foto final es una matriz de píxeles que el sensor, procesador y objetivo “rellenan” con 
información más o menos abundante, y podemos tener la misma cantidad de información 
real en una matriz de menor tamaño. Es fácil calcular esta medida a partir de cualquiera de 
las anteriores, teniendo en cuenta el número de píxeles en una columna del sensor: 
 
lp/p = lw/ph / (2 * píxeles en columna) = (lp/mm * altura en mm) / píxeles en columna 
 
Sobre todos estos detalles es muy recomendable el excelente análisis de Steve Hoffmann 
(1, 2 y 3), esta comparativa (4) de la Nikon D2X y la Canon 1Ds Mark II centrada en las 
diferencias en profundidad de campo, esta excelente explicación técnica (5) de Lars 
Kjellberg, que analiza por qué un formato menor puede dar más calidad de imagen cuando 
una gran profundidad de campo es importante, y esta reflexión (6) de Erwin Puts a partir de 
una comparación de la Canon 5D y la Canon 20D. 
 
 
5. Resolución e impresión. 
 
La ventaja de tratar con formatos como el DIN A4 es que sus proporciones son muy 
cercanas a las del fotograma clásico, aunque no exactamente iguales. En efecto, un 
fotograma o sensor típico tiene unas proporciones de 2:3 (=x:y), mientras que un A4 tiene 
unas proporciones de 2:2,8 (=1:1,4). Ambas se aproximan bastante a la proporción áurea (-
>), que es aproximadamente 2:3,2 (=1:1,6). Dado que las correspondencias no son exactas, 
al emplear un papel de formato A4 tendremos que elegir entre recortar un poco la foto para 
rellenar todo el papel o bien dejar unos márgenes de papel en blanco, que es lo usual. 
 
Para dar una idea de las necesidades de número de píxeles de distintas impresiones hemos 
elaborado la siguiente tabla que ofrece las superficies máximas que para determinadas 
densidades de impresión pueden alcanzar distintos tamaños de foto (en número de píxeles), 
respetando siempre la proporción 2:3 original de la foto. 
 
 300 ppp (5,9 lp/mm) 240 ppp (4,7 lp/mm) 180 ppp (3,5 lp/mm) 
MP centímetros pulgadas centímetros pulgadas centímetros pulgadas 
 x y x y x y x y x y x y 
2 9,8 14,7 3,8 5,8 12,2 18,3 4,8 7,2 16,3 24,4 6,4 9,6 
3 12,0 18,0 4,7 7,1 15,0 22,5 5,9 8,8 20,0 29,9 7,9 11,8 
4 13,8 20,7 5,4 8,2 17,3 25,9 6,8 10,2 23,0 34,6 9,1 13,6 
5 15,5 23,2 6,1 9,1 19,3 29,0 7,6 11,4 25,8 38,6 10,1 15,2 
6 16,9 25,4 6,7 10,0 21,2 31,8 8,3 12,5 28,2 42,3 11,1 16,7 
8 19,6 29,3 7,7 11,5 24,4 36,7 9,6 14,4 32,6 48,9 12,8 19,2 
10 21,9 32,8 8,6 12,9 27,3 41,0 10,8 16,1 36,4 54,7 14,3 21,5 
12 23,9 35,9 9,4 14,1 29,9 44,9 11,8 17,7 39,9 59,9 15,7 23,6 
16 27,7 41,5 10,9 16,3 34,6 51,8 13,6 20,4 46,1 69,1 18,1 27,2 
22 32,4 48,6 12,8 19,1 40,5 60,8 16,0 23,9 54,0 81,1 21,3 31,9 
 
 
 40 
Hemos marcado con negrita el tamaño máximo que cabe en una hoja A4, que tiene unas 
dimensiones de 21x29,7cm o bien 8,3x11,7 pulgadas. También se ofrecen los límites para 
un A3, que tiene dimensiones 29,7x42,0cm (11,7x16,5 pulgadas). Se dan las 
correspondencias en píxeles por pulgada y en pares de píxeles (o líneas) por milímetro. 
 
Si aceptamos 5-6 pares por milímetro como un buen indicador de calidad de imagen a 25 
centímetros de observación, para una impresión de proporciones 2:3 que quepa en un A4 no 
querremos más de 300 píxeles por pulgada, y eso requiere una foto de unos 8 millones de 
píxeles. Si empleamos papel de tamaño A3 tendremos que ver la foto a más distancia (la 
diagonal es 1,4 veces mayor que la de un A4), y podremos reducir un poco la resolución, 
teniendo suficiente con unos 240 píxeles por pulgada (5 pares por milímetro), lo que se logra 
cómodamente con 10 millones de píxeles. Sin embargo, para algunos trabajos profesionales 
nos pueden pedir fotos de tamaño A3 a 300 píxeles por pulgada, para lo que necesitaríamos 
16 millones de píxeles. Parece por tanto que el rango que va de 10 a 16 millones de píxeles 
es un tamaño de foto confortable para la gran mayoría de aplicaciones (->). 
 
Pero vimos que la resolución efectiva (detalle real captado) es inferior a la resolución teórica 
(tamaño de la foto, o de la matriz de píxeles). Si queremos reproducir en el papel 6 pares 
por milímetro de detalle real a un tamaño aproximadamente igual a un A4, necesitaremos 
más de 8 millones de píxeles, para después reducir el tamaño de la foto preservando el 
detalle real captado en la medida de lo posible. De la misma forma, los requerimientos de 10 
y 16 millones de píxeles deberían modificarse al alza. Otro argumento a favor de imágenes 
de más tamaño es la posibilidad de disponer de un margen para recortes. 
 
Por ejemplo, las Nikon D2X ofrece imágenes de 12 millones de píxeles, más que de sobra 
para un A4 a 300 píxeles por pulgada, pero su resolución horizontal real está situada en 
torno a las 2000 líneas, que quedan por debajo de las 2520 que un papel de tamaño A4 
impreso a 6 pares por milímetro puede mostrar. En cambio, la Canon 1Ds-Mark II no sólogenera imágenes de tamaño suficiente, sino que el detalle real que es capaz de captar 
excede las posibilidades de mostrar detalle de una impresión A4 a 300 píxeles por pulgada. 
Por último, la Sigma SD10 resuelve en imágenes de 3,5 millones de píxeles unas 1550 
líneas horizontales y 2325 verticales, cifras que no se verán afectadas (->) si interpolamos (-
>) eficientemente para obtener los píxeles que faltan para una impresión A4 a 300 píxeles 
por pulgada (aunque el papel podría mostrar más detalle). La ventaja del sensor Foveon de 
la cámara Sigma es que genera imágenes digitales que almacenan más detalle real en 
menos píxeles. 
 
 41 
 
Curvas MTF, requerimientos de impresión, resolución real y frecuencia de muestreo. 
 
 
En el gráfico que acabamos de presentar mostramos distintas posibilidades que pueden 
darse en un sensor. La línea amarilla representaría el requerimiento de numero de píxeles 
que una impresión determinada impone al sensor (tamaño de la foto necesario). La línea 
roja es la frecuencia de muestreo de ese sensor. Las dos líneas azules representan dos 
posibles resoluciones reales o efectivas. Si la línea amarilla estuviera a la derecha de la roja 
sería necesario interpolar para obtener la impresión que deseamos. Las líneas azules 
siempre estarán algo a la izquierda de la línea roja, pero pueden estar a la derecha o a la 
izquierda de la amarilla. En el primer caso el sensor habrá captado más detalle del que la 
impresión podrá reproducir (se pueda percibir o no a simple vista). En el segundo caso la 
impresión tendrá una capacidad de mostrar detalles superior al sensor. 
 
Vimos en la primera sección que la resolución efectiva (línea azul) está ligada a la 
frecuencia de muestreo (línea roja) y a la capacidad resolutiva del objetivo (función de 
transferencia de contraste, MTF). Lo ideal es situar la línea azul sobre la línea amarilla o a 
su derecha, para lo cual la línea roja debe estar situada más a la derecha aún. Antes de la 
impresión puede ajustarse el tamaño de la foto (downsampling, que puede presentar nuevos 
problemas de aliasing, ->) montando la línea roja sobre la amarilla (en principio el proceso 
no debería alterar la posición de la azul). Por tanto, 
 
• Si se cumple que azul < amarilla < roja, tendremos suficientes píxeles para la 
impresión, pero una cámara con mayor resolución real mostrará más detalle en el 
papel. 
 
• Si se cumple que amarilla < azul < roja, tendremos suficientes píxeles para la 
impresión, y ninguna cámara podrá mostrar más detalle en ese tipo de impresión 
(otra cosa es el contraste, como veremos ahora). 
 
 42 
• Si se cumple que amarilla > roja ≥ azul, no tendremos suficientes píxeles para la 
impresión y será necesario interpolar, y una cámara con mayor resolución real 
mostrará más detalle. 
 
 
La calidad de imagen percibida por observación directa del papel impreso depende no de la 
resolución máxima del sensor, sino del contraste con que el objetivo proporciona los detalles 
que el sensor puede captar (siempre por debajo de su frecuencia de muestreo, debido al 
aliasing) o que el ojo humano puede percibir. 
 
Eso determina un rango de resoluciones relevantes que el sensor y el objetivo deben ofrecer 
con la mayor calidad (contraste) posibles, dependiendo del tamaño de la copia impresa. Si 
llevamos una foto al papel, con formato A3 (30x40cm) necesitaremos ampliar el detalle 
captado por el sensor de formato 24x36mm unas 12 veces (redondeando). Supongamos 
que el objetivo y la cámara resuelven efectivamente 60 lp/mm con buen nivel de contraste 
(ese es el límite Nyquist de una Canon 5D o una Nikon D3, de unos 12 millones de píxeles), 
lo que se traduce en 5 lp/mm en el papel de nuestro ejemplo (60/12 = 5). 
 
Pero, como vimos, el rango que va de 0,5 a 2 lp/mm en el papel (->), a una distancia de 
observación de unos 34 cm, ya es un determinante muy importante de la calidad de imagen 
percibida en la copia final. Eso supone, para sistema, un rango de resoluciones que va de 6 
lp/mm (0,5*12) a 24 lp/mm (12*2 lp/mm) si hablamos de una impresión A3 obtenida a partir 
de un sensor de formato 35mm sin recorte. 
 
Esos valores parecen poca cosa comparados con lo que, fuera de todo contexto práctico 
razonable, se cree necesitar. En efecto, cuando vemos una imagen de 12 millones de 
píxeles ampliada al 100% en un monitor con 96 píxeles por pulgada de resolución, ¡estamos 
viendo el equivalente de una copia en papel de tamaño superior a 1 metro por 70 
centímetros! Más y más detalle en un sensor pequeño implica que éste, en combinación con 
el objetivo, tendrá que resolver más detalle por milímetro, es decir, el mismo detalle en 
menos superficie que uno más grande, y las exigencias, por irreales que sean, aumentan 
hasta un punto en que, a la larga, los formatos de menor tamaño quedan lejos de poder 
satisfacerlas. 
 
La clave está en el nivel de contraste que da el objetivo para el rango de resoluciones 
relevante, sea cual sea, para distintas aberturas, distancias y en distintos puntos del círculo 
de luz (centro, bordes, esquinas). Muchos objetivos son suficientemente buenos, e incluso 
muy similares en general, pero siempre se pueden encontrar diferencias en circunstancias 
difíciles: a aberturas extremas, a distancias muy cortas, en los bordes, etc. Y no hay que 
olvidar otros aspectos importantes para el fotógrafo (desde el viñeteo, la distorsión, las 
aberraciones cromáticas, etc.), además de la resolución. 
 
Por tanto, lo relevante no es tanto el número de píxeles que proporciona la cámara (pues 
siempre se puede interpolar) como la resolución y contraste reales en relación a las 
posibilidades de mostrar detalle del papel impreso, y del ojo humano de captarlo. Entonces, 
¿podemos suponer que se detendrá aquí el crecimiento en la resolución nominal de los 
sensores? 
 
 43 
 
6. Determinantes de la evolución de los sensores. 
 
En esta sección veremos por qué el tamaño de los sensores y sus resoluciones tienden 
inexorablemente a unos valores de equilibrio. 
 
Recordemos que para una impresión A4 (≈8x12 pulgadas) con detalle real de 6 pares por 
milímetro, necesitaremos resolver, redondeando, 50 pares por milímetro en un sensor de 
24x36mm (»6*8), 75 pares por milímetro en un sensor APS (»6*8*1,5), 95 pares en un 
sensor 4/3 (»6*8*2), y 35 pares en un sensor 37x49mm (»6*8/1,4), que es el tamaño típico 
en los respaldos digitales actuales para cámaras de formato 6x6 ó 645 (la razón de 
diagonales del formato 35mm y ese sensor es de 1,4). Aplicando el teorema de Nyquist sin 
más correcciones, tendríamos una idea del número de píxeles que requerirían esos 
sensores. Pero sabemos que estas cifras se quedan algo cortas, pues pueden ser 
necesarias frecuencias de muestreo algo superiores a los 2 píxeles por ciclo. 
 
Recordemos el gráfico con las dos MTF que utilizamos para discutir el tema de la calidad de 
imagen. En el gráfico que sigue hemos representado las resoluciones necesarias de los 
diferentes sensores para una impresión A4 a 6 pares. Puede observarse fácilmente cómo el 
nivel de contraste que proporciona un objetivo ideal es mayor a 35 pares para cualquier 
abertura, y progresivamente menor conforme pasamos a 50 y 75 pares por milímetro. Es 
obvio que la cámara de formato medio proporcionará una imagen impresa de más calidad, lo 
que se verifica también para el medio químico. 
 
 
Curvas MTF, y requerimientos de impresión para distintos tamaños de sensor. 
 
 
Si en vez de los 6 pares por milímetro consideramos el rango de 0,5 a 2 pares (que 
determina la percepción subjetiva de calidad, como señalamos en la sección previa), el 
 44 
esfuerzo resolutivo exigido al sensor de 35mm estará comprendido entre 4 y 16 pares, el 
sensor 4/3 tendrá que resolver entre 8 y 33 pares, mientras que para el sensor APS-C la 
exigencia será de 7,5 y 26 pares aproximadamente y para el sensor de 37x49mm entre 3 y 
12 pares por milímetro. El contraste a esas resoluciones proporcionado por objetivo y sensordebe ser el máximo posible, y cuanto menor sea la exigencia que la impresión impone al 
sensor mayor será el contraste (basta observar una curva MTF). 
 
Hay quien piensa que en la fotografía digital sólo cuenta el número de píxeles, y que el 
tamaño del sensor sólo tiene importancia en lo referente al tamaño de las fotocélulas, pero 
no es así como vemos, pues el tamaño del sensor determina la posición de las líneas 
amarilla y azul. 
 
 
Tamaños relativos de los sensores más comunes (formato de 35mm y menores) 
 
 
Los sensores APS-C tienen aproximadamente la mitad de superficie que los sensores de 
formato 35mm sin recorte, por lo que, a igual densidad, el número total de ‘píxeles’ o 
fotocélulas debe ser el doble. Dicho de otra forma, doble número de fotocélulas en un 
sensor de doble superficie no altera la frecuencia de muestreo. 
 
Lo que ha venido ocurriendo hasta ahora en las cámaras réflex, como tendencia, es 
precisamente que la densidad tiende a ser la misma entre sensores de distintos tamaños, y 
que la diferencia en número de ‘píxeles’ acaba respondiendo a diferencias de tamaño de los 
sensores (aunque los sensores más grandes no necesitan frecuencias de muestreo tan 
altas). 
 
Si llevamos la densidad actual en sensores APS a los de formato completo, tendremos una 
estimación del número total de píxeles que podemos esperar ver. La densidad de la Canon 
20D o 30D supondría 21 millones de ‘píxeles’ en un sensor de formato 35mm sin recorte 
 45 
(24x36mm), mientras que la densidad de la Nikon D2X daría 28,5 millones de píxeles (864 
milímetros cuadrados de superficie de un fotograma de 35mm dividido por los 0,00003025 
milímetros cuadrados de cada celdilla de esa cámara). En 2008 ya estamos casi ahí, si bien 
las cámaras de formato APS-C han dado un nuevo salto en resolución. 
 
Obsérvese que en un sensor de formato completo las dos densidades mencionadas 
permitirían una diferencia entre resolución de impresión (A4, 6 pares) y frecuencia Nyquist 
(línea amarilla y línea roja) de 80-50=30 pares y 90-50=40 pares respectivamente. Sin 
embargo, en un sensor de formato (aproximado) APS-C las dos densidades permiten 
diferencias de sólo 80-75=5 pares y 90-75=15 pares respectivamente. En efecto, si llevamos 
la frecuencia de muestreo a 200 píxeles por milímetro, estaremos hablando de fotocélulas 
de 5 micras de lado. En un sensor de 24x36mm tendríamos 35 millones de ‘píxeles’, en las 
variantes APS unos 17 millones y en un sensor de formato 4/3 casi alcanzaríamos los 10 
millones. 
 
Debe tenerse en cuenta que para duplicar la capacidad resolutiva o frecuencia de muestreo 
de un sensor hay que cuadruplicar el número total de ‘píxeles’. Por tanto, si con mucho 
esfuerzo duplicamos el número de ‘píxeles’, estaremos elevando la frecuencia de muestreo 
sólo un 50%, y el incremento en resolución efectiva (considerando el objetivo y los 
problemas de interpolación y exceso de señal) será incluso menor. Tendemos a caer en el 
error de pensar que un número doblemente grande de píxeles significa una ganancia doble 
en algún sentido. Por tanto, hay que tener cuidado cuando uno compara el número total de 
píxeles que ofrecen dos cámaras diferentes: 16 millones de píxeles supone un incremento 
de sólo el 15% de capacidad resolutiva teórica del sensor respecto a 12 millones de píxeles, 
si ambos tienen el mismo tamaño. Sería el caso de la Canon 1Ds Mark II y la Canon 5D. 
 
Un sensor 4/3 con 10 millones de píxeles (el de la Olympus E-420, E-510 o E-3) 
representaría un incremento de la frecuencia de muestreo de un 12% aproximadamente si lo 
comparamos con un sensor del mismo tamaño con 8 millones de píxeles (el de las Olympus 
E-300, E-330 y E-500). Un sensor APS de casi 17 millones de píxeles supone un incremento 
de la frecuencia de muestreo del 20% a lo sumo respecto al mismo sensor con 12 millones 
de píxeles (el de la Nikon D2X o la D300). Esas diferencias pueden ser casi inapreciables en 
la práctica en lo que respecta al detalle realmente captado (->). En cambio, un sensor de 
formato completo con 35 millones de píxeles representa un incremento de la frecuencia de 
muestreo de un 75% con respecto al de un sensor de igual superficie con 12 millones de 
píxeles y más de un 50% respecto de uno con 16 millones de píxeles (Canon 5D o Nikon D3 
y Canon 1Ds Mark II respectivamente). El margen para los sensores más grandes es más 
amplio. 
 
Incrementos adicionales en la densidad de píxeles pueden resultar imposibles a partir de 
cierto punto sin serios sacrificios en la calidad de imagen debido al ruido fotónico ('photon 
noise'). Cuanto mayor es la densidad, más pequeña es el área de captura, e inevitablemente 
la razón señal-ruido decrece. Se pueden reducir otras causas del ruido, o aplicar 
tratamientos a la imagen más sofisticados, pero obviamente hay límites a lo que podemos 
lograr por ese camino. No podemos escapar a las leyes de la Física. 
 
Por otro lado, estos cálculos no suponen otra cosa que aplicar densidades ya existentes en 
sensores actuales a otros más grandes. El avance tecnológico no se detiene y podremos ir 
más allá. Otra cosa es que las posibilidades de los objetivos lo aconsejen (volveremos a 
esto más adelante). 
 
El formato medio permite trabajar con sensores aún mayores. Los objetivos para las 
cámaras de formato 6x6 ó 645 están diseñados para dar un buen rendimiento a frecuencias 
 46 
espaciales menores que los objetivos de 35mm, dada la mayor superficie del fotograma y 
las menores ampliaciones requeridas para las impresiones (véase esta página de 
resoluciones de objetivos de formato medio). 
 
Ronald W. Harris (en las referencias citamos su análisis en dos partes), estudiando el caso 
de la película, encuentra que 13 pares por milímetro es lo máximo que reproduce 
determinada clase de papel (Oriental Seagull Glossy), y 4 pares lo que se suele captar a 
simple vista normalmente. A partir de ahí hace sus cálculos, que le llevan a unos 
requerimientos de 30 pares para el negativo de 35mm y 15 pares para el negativo 6x6 
(impresión de 8x10 pulgadas a 4 pares), y 95 pares/45 pares respectivamente (impresión a 
13 pares). Cualquiera puede hacer sus propios cálculos en función de otros parámetros. 
 
La situación es la misma en el medio digital. Hay que distinguir entre el tamaño de la foto, en 
número de píxeles, determinado conjuntamente por la frecuencia de muestreo y el tamaño 
del sensor (línea amarilla), y la resolución real alcanzada por el sistema, que depende de la 
frecuencia de muestreo, del objetivo, de las interpolaciones para obtener los colores finales 
y del exceso de señal, entre otras cosas (línea azul). El problema de conseguir una imagen 
de tamaño suficiente para una impresión (que la línea roja esté sobre la amarilla o a su 
derecha) es una cosa, y otra es aprovechar al máximo la capacidad de reproducir detalle del 
medio impreso (que la línea azul esté sobre la amarilla, o a su derecha), que es lo que 
Harris trata. 
 
Sabemos que para una impresión A4 (≈8x12 pulgadas) con detalle real de 300 píxeles por 
pulgada (casi 6 pares por milímetro), el sensor de 35mm tiene que resolver efectivamente 
unos 50 pares, y el sensor 37x49mm unos 35 pares (líneas azules). Eso implica frecuencias 
de muestreo (líneas rojas) aún mayores (puede que hasta un 50%, ->), porque sabemos que 
la resolución real es siempre menor a la frecuencia de muestreo. Por tanto, de alguna forma, 
el tamaño de la foto en número de píxeles debe exceder a las necesidades reproductivas 
reales (para que la línea azul se acerque a la amarilla la roja tiene que estar más a la 
derecha). Es un resultado poco intuitivo, en principio, pero el hecho es que parte de la matriz 
de píxeles de una imagen digital no contiene información relevante. En el medio químico 
ocurre algo similar, pues la capacidad resolutiva máxima de la película excede siempre con 
mucho el detalle finalmente captado. 
 
Si la impresión A4 debe alcanzar los 13 pares por milímetro de los que hablaba Harris, será 
necesarioresolver efectivamente (redondeando) unos 110 pares por milímetro en un sensor 
24x36mm (»13*8), mientras que un sensor de 37x49mm (algo inferior a los 42x56mm del 
formato 645) necesitaría resolver sólo 75 pares (»13*8/1,4). Sabemos que un A4 a 13 pares 
por milímetro nos lleva a una imagen de 5460x7722 píxeles, es decir, ¡de unos 42 millones 
de píxeles! Pero eso sería el mínimo teóricamente necesario, pues sabemos que una 
cámara digital sólo podría reproducir 13 pares en un A4 con una imagen todavía mayor. 
 
Téngase en cuenta que nuestros números difieren ligeramente de los de Harris por el 
tamaño del papel que hemos supuesto (un A4 son exactamente 8,3x11,7 pulgadas, de 
proporciones más próximas a las del fotograma, que son 2:3) y por el recorte en el sensor 
de formato medio. 
 
El respaldo digital P45 de Phase One (->), con un sensor de 37x49mm, tiene nada menos 
que 39 millones de ‘píxeles’ (de 6,8 micras de lado), lo que satisface las exigencias de casi 
cualquier impresión. En efecto, la frecuencia de muestreo es de 73,5 pares de píxeles por 
milímetro (línea roja), más del doble de los 35 pares que se necesitan para un A4 a 6 pares 
(300 píxeles por pulgada) a partir de ese sensor (línea amarilla). En comparación, 22 
 47 
millones de ‘píxeles’ en el mismo sensor suponen una frecuencia de muestreo de 55 pares 
por milímetro (‘píxeles’ de 9 micras) y 18 millones de ‘píxeles’ uno de 50 pares (‘píxeles’ de 
10 micras de lado), lo que deja un margen amplio para que la resolución real (línea azul) 
alcance los 35 pares que es capaz de mostrar un A4 impreso a 6 pares por milímetro. 
 
Veámoslo desde otro punto de vista. Siendo prácticos, tomando como referencia los criterios 
de Zeiss (véase Kämmerer, J. 1979. When is it advisable to improve the quality of camera 
lenses? Optics & Photography Symposium, Les Baux, 1979 (->)), que estableció los 40 
lp/mm como valor clave para proporcionar una buena sensación de nitidez en el papel a 
partir del formato de 35mm, y los múltiplos del límite de Nyquist, que nos indica la necesidad 
de una frecuencia de muestreo mínima para obtener una reproducción exacta, podemos 
calcular qué resoluciones podemos esperar en los sensores de ese formato que, después 
de casi 80 años, sigue ejerciendo una poderosa influencia. Asumamos la norma de 
muestrear a la frecuencia Nyquist o ligeramente por encima de ella (2 ó 3 píxeles por ciclo). 
Es obvio que 80 lp/mm son 160 l/mm, lo que nos lleva a un sensor 24x36mm con 
3.840x5.760 “píxeles”, es decir, poco más de 22 millones de píxeles en total (x1 Nyquist). 
Hay que tener también en cuenta la interpolación Bayer, los filtros antialias y demás. Eso 
supone, para el formato de 35mm, “píxeles” con un espaciado algo mayor de 6 micras. Si 
concedemos un margen adicional y adoptamos 100 lp/mm, el formato de 35mm nos dará 
34,5 millones de “píxeles”. 
 
La necesidad de captar más detalle ha venido hasta ahora de la mano de una necesidad de 
mayores tamaños de imagen (en número de píxeles) y mayores frecuencias de muestreo en 
los sensores. Pero, alcanzado ya un punto, existen formas mejores de incrementar la 
resolución real sin seguir aumentando el tamaño de las imágenes. Tenemos un ejemplo en 
los sensores Foveon, que consiguen reproducir el mismo detalle con menos píxeles (->), o 
más detalle con los mismos, sólo con evitar la interpolación a partir del mosaico Bayer. 
 
 
7. La razón señal-ruido, el espaciado entre fotocélulas y su tamaño real. 
 
La siguiente pregunta es si hay alguna diferencia en las calidades de las fotografías 
obtenidas a partir de dos sensores de diferente tamaño pero igual número de fotocélulas o 
‘píxeles’ (por ejemplo, la Nikon D2X y la Canon 5D). Dejando a un lado las diferencias que 
acabamos de analizar, el sensor más grande tendrá fotocélulas más grandes, lo que tiene 
ventajas. 
 
Es sabido que hay una relación entre el tamaño de la superficie realmente sensible a la luz 
de las celdillas del sensor (->) y la razón señal-ruido (signal-to-noise ratio, SNR). El ruido 
depende de varios factores (->), uno de los cuales, muy importante, viene determinado por 
el tamaño de dichas celdillas. 
 
Hay que decir aquí que los cálculos de tamaño que solemos dar sólo establecen la 
correspondencia entre el número de ‘píxeles’ (o de celdillas con un fotodiodo y otros 
componentes electrónicos) y la superficie total del sensor. Más que un dato de tamaño se 
trata de un dato de espaciado entre celdillas. La superficie realmente recolectora de luz es 
menor, pues parte del espacio reservado a cada fotocélula está ocupado por circuitería 
electrónica. Por ejemplo, los sensores CMOS (Metal Oxide Semiconductor) de Panasonic 
para el formato Cuatro Tercios tiene una superficie sensible a la luz de un 50%, y eso aún 
después de una revisión del diseño tradicional de este tipo de sensores para incrementarla 
(->). Las microlentes aumentan también la capacidad recolectora de luz de las fotocélulas 
redirigiendo hacia ellas luz que, de otra forma, no incidiría en las celdillas sino el la superficie 
“ciega” que las separa. Todo dependerá en definitiva de cómo esté diseñado cada sensor. 
 48 
Una de las ventajas tradicionales de los CCD (Charge Coupled Device) sobre los CMOS ha 
sido que ofrecían mayor superficie realmente sensible a la luz (los de tipo “full-frame 
transfer” al menos). No obstante, el espaciado de las celdillas es la mayor restricción a la 
hora de determinar la superficie realmente fotosensible de un sensor, por lo que se puede 
establecer una relación aproximada entre ésta y la razón señal-ruido. 
 
Los fotones capturados por un CCD o un CMOS siguen una distribución aleatoria de 
Poisson (->). Por tanto, la raíz cuadrada del número de fotones captado es ruido, es decir, 
fotones que han caído en la celda por error. Es lo que se conoce como 'photon noise' o 'shot 
noise'. El tamaño de la celda determina el número de fotones capturado en un período 
determinado, y cuantos más fotones atrapemos mayor será la razón señal-ruido. En efecto, 
si se capturan 400 fotones, 20 serán ruido (5% del total), y la razón señal ruido será de 
400/20=20. Pero si la captura es de sólo 16 fotones, 4 serán ruido (el 25%), y la razón señal-
ruido será igual a 16/4=4, mucho menor (véase el interesante análisis de Roger N. Clark 
sobre el tema, ->). 
 
El 'photon noise' no es el único origen del ruido finalmente observado, pero sí impone una 
fuerte restricción a nuestras posibilidades de preservar la SNR cuando reducimos el tamaño 
de las fotocélulas. Otras dos causas importantes de ruido están relacionadas con la 
conversión analógico/digital ('read noise') y con la temperatura del sensor ('thermal noise'). 
 
¿Resolución o ausencia de ruido en la foto? Ambas están ligadas mediante una relación 
inversa, pues el ruido a sensibilidades equivalentes ISO altas llega a destruir detalle que el 
sensor capta a valores ISO bajos (cosa que ocurría también con la película, aunque en 
mucha mayor medida), y lo mismo ocurre con la rendición del color, que empeora en 
presencia de ruido. El progreso técnico va modificando esa frontera de posibilidades 
tecnológicas, pero hay restricciones puramente físicas. 
 
Para cada estado de la tecnología hay un conjunto de combinaciones posibles de capacidad 
resolutiva y razón señal-ruido, de entre las que podemos elegir. La Nikon D2X, por ejemplo, 
ofrece una excepcional capacidad de captar detalle (véase la foto del graderío), si bien el 
ruido se hace aparente para sensibilidades equivalentes ISO iguales o superiores a 800. 
Eso es producto de una elección, como otra cualquiera. Por otro lado, hemos conocido 
cámaras con un amplísimo rango de sensibilidades y muy bajo ruido, pero a cambio de una 
resolución también muy baja (véase la antigua Kodak DCS620x). Se viene operando sobre 
varias de las causas del ruido, aunque este avance se hace cada vez más costoso y más 
lento. 
 
En definitiva, la presencia de ruido afecta a la percepción de calidad en la fotografía, y existeuna medida de la misma que lo tiene en cuenta. La Capacidad de transmisión de 
información de Shannon (Shannon Channel Capacity, ->) es una medida de la cantidad de 
información que se transmite a través de un canal, y que responde a la fórmula 
 
C = W * log2(S/N + 1) 
 
donde C es la medida de capacidad de transmisión de información de Shannon, W es el 
ancho de banda del canal (capacidad resolutiva con un 50% de contraste), S es la señal y N 
el ruido (obviamente S/N es la razón señal-ruido, difícil de cuantificar en la práctica, ->). Lo 
que viene a decirnos la función matemática es que la calidad percibida en una imagen (C) 
depende positivamente tanto de la MTF como de la razón señal-ruido. 
 
La señal es mayor en las imágenes o parte de la imagen en las que hay más detalles, y 
menor allí donde apenas hay detalles (superficies uniformes, como el cielo). Por tanto, allí 
 49 
donde S es grande, la capacidad resolutiva W tiene que ser también grande para alcanzar 
un valor C elevado. En cambio, en las imágenes o zonas de una imagen en la que hay 
menos detalles (S bajo) es fundamental que el nivel de ruido (N) sea también bajo para que 
el índice de calidad percibida (C) no se degrade. De esta forma podemos ponderar la 
presencia de ruido en las imágenes a la hora de elaborar un indicador de la calidad de una 
imagen digital. 
 
 
8. Gama tonal e intervalo tonal. 
 
La calidad potencial de una imagen fotográfica digital no sólo depende de variables como la 
resolución y el contraste. La gama tonal y el intervalo tonal son también variables 
determinantes para la calidad de la imagen fotográfica y, aunque hemos ido apuntando su 
importancia, es verdad que nos hemos concentrado mucho en la pura capacidad de resolver 
detalle de las cámaras. 
 
Hablamos de espaciado entre ‘píxeles’ porque el tamaño real de las celdillas que capturan 
luz depende de la superficie del sensor que queda ocupada por dispositivos –circuitos– que 
procesan la señal luminosa y transportan la carga eléctrica resultante hacia los bordes del 
mismo. El término fill factor alude precisamente a la proporción efectivamente sensible a la 
luz del sensor. 
 
 
Distintos tipos de sensores CMOS (Metal Oxide Semiconductor) y CCD (Charge Coupled 
Device) (Dalsa©). 
 
 
La proporción entre señal falsa (ruido) y señal real mejora no sólo reduciendo las causas del 
ruido (->), sino también mejorando la eficiencia cuántica (->) y aumentando la cantidad de 
señal por ‘píxel’ mediante mejores filtros, microlentes y un fill factor mayor (celdas más 
grandes). Es por tanto lógico que, en efecto, se hayan observado mejoras en la razón señal-
ruido (signal-to-noise ratio, SNR), incluso si el espaciado entre los ‘píxeles’ disminuye. Estos 
avances en la SNR han permitido, entre otras cosas, mejorar la “resolución tonal” (o “gama 
tonal”) y la “amplitud tonal” (o “intervalo tonal”) de las cámaras digitales, a la vez que se 
incrementaba la resolución. Este progreso tiene, lógicamente, un límite, pues hay 
restricciones puramente físicas que no se pueden burlar. 
 
Tradicionalmente han sido los sensores CCD de tipo “full-frame” (o los “frame-transfer”, muy 
similares, empleados en cámaras de cine digitales) los que ofrecían mayor superficie 
 50 
sensible a la luz (con un fill factor muy cercano al 100%), si bien los sensores CCD de tipo 
“interline transfer” y los CMOS han experimentado grandes mejoras en este apartado (los 
CMOS tienen un fill factor típico de en torno al 60%, con ayuda de microlentes). El progreso 
de estos dos tipos de sensores, pero especialmente el de los CMOS, está condicionado por 
los avances en la tecnología de litografía aplicada en su producción, que determina el 
tamaño de los circuitos, pero también por límites físicos: una reducción del tamaño de los 
circuitos plantea problemas de recolección y medición de la carga eléctrica generada por las 
fotocélulas (->). Los CMOS, con más dificultades para aumentar la superficie de captura, se 
han especializado en sofisticados tratamientos electrónicos de reducción del ruido (varios 
transistores en cada píxel, lecturas de señal en el propio sensor), lo que unido a su menor 
consumo de energía y voltaje de operación, ha permitido conseguir notables rendimientos 
en cuanto a razón señal-ruido, especialmente cuando reducimos la señal (subimos la 
sensibilidad equivalente ISO del sensor). Los CCDs, por contra, siguen proporcionando la 
mejor relación señal-ruido para valores ISOs bajos. 
 
La superficie perdida con circuitos puede tratar de recuperarse mediante el uso de 
microlentes. Las microlentes son microscópicas lupas que corrigen el ángulo de incidencia 
de la luz, concentrándola en un punto. Permiten recoger luz que caería en las zonas 
“insensibles” del sensor y redirigirla hacia las zonas sensibles. Además ayudan a resolver 
otro problema: entre la superficie del sensor y el lugar que ocupa el fotodiodo –que recibe 
luz y genera una carga eléctrica– hay una distancia (el problema es más serio en los CMOS 
debido a la presencia de 3, 4 o incluso 5 transistores en cada ‘píxel’). Por decirlo de algún 
modo, los fotodiodos están en el fondo de un pozo tapado por gruesas capas de filtros 
translúcidos. La consecuencia es que si la luz incide con un ángulo demasiado inclinado 
acabará desviándose, perdiéndose entre los filtros o chocando con la pared lateral del pozo. 
Una forma de aliviar este problema es reducir la gruesa capa de filtros. Pero otra es 
concentrar y dirigir la luz hacia el fotodiodo. 
 
El problema de las microlentes es que no se adaptan al ángulo de entrada de la luz cuando 
éste varía, pues son fijas. La abertura y la distancia focal, entre otras cosas, modifican aquel 
ángulo, por lo que microlentes eficientes bajo ciertas condiciones pueden dejar de serlo en 
otras. Pero la tecnología de microlentes también ha mejorado, permitiendo una reducción 
del espacio entre ellas y modificando su orientación en función de la posición que ocupan en 
el sensor (el caso del sensor CCD Kodak de la Leica M8). 
 
 
El intervalo tonal es la razón entre el máximo nivel de luminosidad que el sensor puede 
medir antes de saturarse y el mínimo nivel descontado el ruido de lectura (->). Fuera de ese 
rango la cámara percibe un negro o un blanco absolutos. Depende, fundamentalmente, del 
tamaño real de las celdillas en que se alojan las fotocélulas y de la capacidad de diferenciar 
matices del conversor analógico-digital. Este intervalo o amplitud tonal se mide, en términos 
fotográficos, en “pasos” (stops), en una escala logarítmica en la que cada “paso” implica 
doblar la cantidad de luz del paso anterior (2x2x2…x2 = 2n donde n es el número total de 
pasos). Las mejores cámaras digitales tienen una escala tonal de unos 8 ó 9 pasos (->), y 
excepcionalmente hasta 10 pasos (->), mientras que los negativos químicos se mueven 
dentro de un rango similar y las diapositivas en uno más limitado (->). Con rápidos ajustes 
de la pupila el ojo humano puede abarcar hasta 24 pasos de escala tonal, y con una 
abertura constante entre 10 y 14 pasos. 
 
Surge un problema importante debido al carácter lineal del soporte digital que almacena la 
información fotográfica (los famosos 12, 14 o 16 bits de variantes tonales por ‘píxel’), frente 
al carácter logarítmico de la información luminosa. 
 
 51 
Si colocamos una vela delante de una cámara un terminado tiempo, cada ‘píxel’ del sensor 
recogerá una determinada cantidad de luz y generará una carga eléctrica. Si colocamos dos 
velas, la carga eléctrica será doble en el mismo tiempo. Triple si son tres velas. Etcétera. La 
escala es lineal (1, 2, 3, 4…). Sin embargo, el ojo humano percibe una duplicación de la 
intensidad luminosa si pasamos de una vela a dos, pero no si pasamos de dos velas a tres. 
El ojo (o el cerebro) mide las diferencias logarítmicamente, en una escala en la que cada 
valor duplica al anterior (1, 2, 4, 8, 16, 32…). Con este ajuste logarítmico nos protegemos de 
una posible sobredosis luminosa (alpasar de 16 velas a 32 el efecto percibido es similar al 
de pasar de 1 a 2), lo que nos permite percibir una mayor amplitud tonal. La película 
responde a la luz de forma similar al ojo humano, es decir, no linealmente, y esta es una de 
las grandes diferencias entre el medio químico y el digital (el único sensor que se aproxima 
a esta respuesta no lineal es el SuperCCD de Fujifilm). 
 
Cada fotocélula transforma el estímulo luminoso en una carga eléctrica, es decir, responde 
al impacto de los fotones generando electrones. Los CCDs transportan esta carga eléctrica 
secuencialmente hacia los bordes del sensor, de ‘píxel’ a ‘píxel’, y un colector la transforma 
en un determinado voltaje. Los CMOS hacen la transformación de la carga eléctrica en 
voltaje en el propio ‘píxel’ y la transportan en paralelo (de forma más rápida). El conversor 
analógico-digital (A/D converter) hace una lectura de esos voltajes y genera una secuencia 
de números digitales, siguiendo una escala lineal (->). Para pasar de una escala lineal a una 
logarítimica: 
 
Pasos = log2(Medida lineal) = ln(Medida lineal) / ln(2) 
 
Donde la medida lineal aparece siempre que expresamos la magnitud del contraste (por 
ejemplo, 10.000:1, donde 10.000 sería la medida lineal). 
 
Sin embargo, al superponer una escala logarítmica a la escala lineal, el paso más alto de luz 
se queda con el 50% de esas 212, 214 ó 216 variantes tonales en las que el conversor 
analógico-digital “traduce” su lectura de la carga eléctrica (los famosos 12, 14 o 16 bits). El 
siguiente paso, más bajo, se queda con la mitad del sobrante (0,5*0,5=0,25 o el 25% de las 
tonalidades alternativas), el siguiente paso más bajo se queda con el 50% del sobrante 
(0,5*0,5*0,5=0,125 que es el 12,5%), etc. Es obvio que los pasos más bajos apenas se 
quedan con variantes que describan sus matices (véase la siguiente tabla). Se puede 
observar cómo 8 bits de variantes tonales limitan la máxima amplitud tonal teóricamente 
posible (sin considerar las limitaciones del ruido) a 8 pasos, 12 bits a 12 pasos, 14 bits a 14 
pasos, etc. A partir de ese punto, las variantes tonales se agotan. Por tanto, la precisión del 
conversor analógico-digital limita la amplitud tonal máxima teóricamente reproducible. Hay 
que tener en cuenta además que el ruido inutiliza o degrada apreciablemente un buen 
número de variantes tonales en las sombras, ya que ahí la señal por ‘píxel’ es lógicamente 
pequeña. Por ello la amplitud tonal es siempre inferior al máximo que teóricamente puede 
manejar el conversor analógico-digital (una regla orientativa es restar al menos dos pasos). 
 
En general, los sensores CCDs de tipo “full-frame” y “frame-transfer” tienen una razón señal-
ruido más alta que los CMOS, y eso les permite “salvar” más pasos de luz y ofrecer una 
mayor amplitud tonal. Una forma muy común de reducir el ruido que el usuario ve en la 
imagen final obtenida consiste en, simplemente, sacrificar amplitud tonal, descartando las 
zonas de sombras altamente “contaminadas”. Una conclusión interesante es que una mayor 
amplitud tonal tiene que estar acompañada de una mayor profundidad de bits, aunque ésta 
no garantice aquélla, debido en parte al ruido. Por otro lado, la reducción del ruido mediante 
avances en electrónica permite “rescatar” información en las sombras y ganar amplitud 
tonal. Esto es lo que hace Canon en sus CMOS, mediante la incorporación transistores 
 52 
especializados en cada ‘píxel’ que consiguen reducir una de las fuentes de ruido (el ‘reset 
noise’), aunque por otro lado afecten al fill factor. 
 
La amplitud tonal es como la longitud total de una escalera, donde la profundidad de bits 
viene a ser el número de escalones. No obstante, la altura de estos escalones no es la 
misma en todo el recorrido. En la parte baja de la escalera (sombras) los escalones son 
escasos en número y muy altos, y conforme vamos subiendo (luces altas) estos se hacen 
más numerosos y más bajos. Si queremos una escalera más alta tendremos que añadir 
escalones. Pero no es posible incrementarlos sólo en la parte baja, donde se agradecería un 
mayor número de ellos. Los nuevos escalones tienen que distribuirse desigualmente a lo 
largo de toda la escalera, acumulándose preferentemente en la parte alta, ¡donde menos 
falta hacen! 
 
% paso 
Lineales No lineales 
8 bits, 2^8 
= 256 
12 bits, 
2^12 = 
4.096 
14 bits, 
2^14 = 
16.384 
16 bits, 
2^16 = 
65.536 
16bits, 
Gamma 2.2 
Leica DNG 
8 bits 
variantes 
tonales 
variantes 
tonales 
variantes 
tonales 
variantes 
tonales 
variantes 
tonales 
variantes 
tonales 
50,0 n 128 2.048 8.192 32.768 17.712 74 
25,0 n-1 64 1.024 4.096 16.384 12.925 54 
12,5 n-2 32 512 2.048 8.192 9.415 37 
6,25 n-3 16 256 1.024 4.096 6.883 27 
3,13 n-4 8 128 512 2.048 5.023 18 
1,57 n-5 4 64 256 1.024 3.665 14 
0,78 n-6 2 32 128 512 2.675 9 
0,39 n-7 1 16 64 256 1.952 7 
0,20 n-8 - 8 32 128 1.425 4 
0,10 n-9 - 4 16 64 1.039 4 
0,05 n-10 - 2 8 32 758 7 
0,025 n-11 - 1 4 16 379 - 
0,0125 n-12 - - 2 8 189,2 - 
Variantes tonales y su distribución por pasos. Las zonas sombreadas están más afectadas 
por el ruido. 
 
 
Debe distinguirse entre las variantes que maneja el conversor analógico-digital de las 
empleadas finalmente para el “almacenaje” de la información en el archivo final, que pueden 
comprimirse a 8 bits por canal o quedar sin comprimir a 16 bits. Sin embargo, también es 
posible aplicar un algoritmo de compresión no lineal que reduzca el número de “escalones”, 
uniendo muchos de los pequeños (que captan pequeñísimas variaciones allí donde el ojo 
humano no diferencia muy bien, en las luces altas) y dejando intactos los grandes. Es lo que 
hace Leica con los archivos DNG de la M8 (a 256 variantes tonales) o Nikon con los NEF (a 
683 variantes). Veamos a título de ejemplo cómo redistribuye la información luminosa la 
Leica M8. El conversor analógico-digital es de 16-bits, pero se descartan dos pasos de 
información, afectada por el ruido. El output es por tanto de 14-bits. Estas 16.384 variantes 
tonales posibles (no necesariamente hay información relevante para todas) se reducen a 
255 empleando un algoritmo sencillo: el valor registrado en cada píxel se multiplica por 4 y al 
resultante se le calcula la raíz cuadrada [SQRT((14-bit data)*4)]. En verdad, más que 
calcular raíces cuadradas, se aplica una tabla de correspondencias a la matriz de datos 
original, conocida como Lookup Table (incluyéndose la inversa en el archivo DNG). Esto 
reduce las 16.384 variantes originales a 255 (->). En el fondo estamos aplicando una 
 53 
sencilla curva de contraste (y = 2x1/2, donde y son los valores transformados y x los valores 
originales, que es aproximadamente una gama 2,0), que preserva las variantes tonales en 
las zonas de sombra (o las reduce muy poco) y reduce el número de variantes reservadas a 
las luces altas, donde el ojo humano apenas percibe diferencias (el planteamiento de Nikon 
es similar, aunque más holgado, ->, ->). El número de variantes reservado a cada paso de 
luz por la Leica M8 se muestra en la tabla anterior. 
 
Esta compresión no lineal sólo es posible en el almanacenamiento de la información. Todos 
los programas informáticos trabajan linealmente, por lo que al “leer” el archivo hay que pasar 
de nuevo a un espacio lineal donde, una vez más, las luces altas tendrán reservada en 
principio una cantidad desproporcionada del total de variantes tonales posibles. En la Leica 
M8 el algoritmo de descompresión es justo el inverso (algo así como dividir por 4 y elevar al 
cuadrado, mediante la aplicación de la tabla inversa mencionada). Es obvio que no se 
obtiene como resultado la diferenciación tonal original, y que el proceso implica pérdidas de 
información. Sin embargo, la distribución de variantes tonales entre los distintos pasos de 
luz es mucho más eficiente que en los 8 bits lineales de los archivos JPG y TIFF, por lo que 
no son comparables. 
 
Durante el tratamiento de la imagen es conveniente trabajar siempre en elmayor espacio 
posible, de 16 bits o superior. Podemos pensar que cada variante tonal que es capaz de 
separar un conversor A/D es un “cajón”, y la información luminosa captada serían 
“documentos”. Cuando alteramos una imagen digital, tocando los niveles o la curva de 
contraste, movemos esos documentos de un cajón a otro, uniéndolos a los que allí se 
encontraban originalmente. Una vez hecho esto ya no hay vuelta atrás. No hay manera de 
saber de qué cajón vienen originalmente los documentos que nos encontramos en 
cualquiera de ellos en un momento dado. Cuantos más movimientos de documentos 
hacemos, más tienden a mezclarse y agruparse éstos en unos pocos cajones, 
especialmente en las luces bajas. Esto provoca una acumulación de información 
indiferenciada dentro de una estrecha escala tonal, que se muestra como desagradables 
empastes o apelmazamientos en la imagen (posterización). No hay que olvidar que cuando 
se “lee” un archivo RAW siempre se aplica una curva de contraste que corrige la distribución 
excesivamente desigual de variantes tonales entre pasos. Hemos mostrado en la tabla el 
resultado de un ajuste a una gama 2,2 (->), donde VTR = VT^(1/G), siendo VTR las 
variantes tonales resultantes, VT las variantes tonales originales y G la gama. 
 
 
9. Profundidad de campo y perspectiva. 
 
La profundidad de campo es el rango de distancias reproducidas en una fotografía impresa 
dentro del cual la imagen no resulta inaceptablemente menos nítida que la parte más nítida 
de la imagen. Depende de cuatro factores: el círculo de confusión (y por tanto el formato y el 
tamaño de la impresión, además de la distancia de observación y de la capacidad resolutiva 
de cada observador), la distancia focal, la abertura y la distancia al motivo. 
 
Hay expresiones matemáticas alternativas para estimar la profundidad de campo. Todas las 
fórmulas permiten sólo aproximaciones a dicha variable, en general más exactas para 
distancias de enfoque de al menos diez veces la distancia focal e inferiores a la distancia 
hiperfocal (la distancia de enfoque que maximiza la profundidad de campo en la foto). Para 
distancias más cortas o más cercanas a la distancia hiperfocal las aproximaciones son 
peores (->). 
 
La profundidad de campo (depth of field, DoF) puede aproximarse mediante la fórmula (->): 
 
 54 
DoF = (2 * H * s2) / (H2 - s2) para H > s 
 
donde s es la distancia a la que enfocamos y H es la distancia hiperfocal, que viene dada 
por la fórmula 
 
H = L2 / (f * CoC) 
 
siendo L la distancia focal en milímetros, f la abertura y CoC el círculo de confusión para un 
formato determinado (que asume cierto tamaño de impresión). Dada la distancia de enfoque 
s, la profundidad de campo guarda una relación inversa con la distancia hiperfocal H. Por 
otro lado, conforme s tiende a H, DoF tiende a infinito, y algo similar ocurre, aunque de 
forma menos acusada, cuando s adopta un valor muy cercano a L (macrofotografía). 
 
Como vemos, la profundidad de campo depende de la distancia focal, de manera que, a 
igual distancia al motivo (s), un objetivo gran angular a una determinada abertura ofrecerá 
más profundidad de campo que un teleobjetivo con esa misma abertura, si bien el motivo 
tendrá menor tamaño en el fotograma y el encuadre será más amplio en el primer caso. 
Pero si corregimos la distancia al motivo para uno de los dos objetivos, de manera que el 
encuadre sea el mismo, alejándonos con el teleobjetivo o acercándonos con el gran angular, 
la profundidad de campo será muy similar, si no igual (->). Con objetivos de focal fija, si 
queremos conseguir un determinado encuadre, tenemos que movernos, pero con los 
objetivos de focal variable solemos alterar la distancia focal reduciendo los movimientos. 
 
Podemos decir que la profundidad de campo, como porcentaje de la distancia al sujeto 
(DoF*100/s), depende inversamente de la distancia focal (->): si las distancias son las 
mismas, a mayor distancia focal menor profundidad de campo. En efecto, si hacemos DoF/s 
= G y mantenemos constante s (= s*), dado que G depende inversamente de la focal L, 
tendremos que si L1 > L2, G1 < G2 y por consiguiente DoF1 < DoF2 (s1 = s2 = s*). 
 
De igual forma, es fácil ver que hay una relación inversa entre el formato y la profundidad de 
campo, si igualamos el ángulo visual. En efecto, la profundidad de campo y la distancia 
hiperfocal (las variables DoF y H) mantienen una relación inversa entre sí, por lo que, si 
sustituimos el círculo de confusión por otro menor (dividiendo por un factor de recorte q), y 
hacemos lo propio con la distancia focal (L), tendremos una nueva distancia hiperfocal 
menor que la original. En efecto, H1 = L2 / (f * CoC1) > H2 = (L/q)2 / (f * CoC2), donde CoC2 = 
CoC1/q. Obsérvese que hemos dividido el numerador de H2 por q2 pero el denominador sólo 
por q. Dada la relación inversa antes mencionada, un formato menor, con un círculo de 
confusión menor, tendrá, para el mismo ángulo visual, abertura y distancia de enfoque, 
mayor profundidad de campo. 
 
Para cuantificar la relación entre profundidad de campo y formato vamos a acudir a una 
regla sencilla (->), que se cumple para unos valores fijos de la distancia de enfoque (s), 
ángulo visual y abertura (f), y según la cual 
 
DoF µ CoC / L2 
 
Es decir, la profundidad de campo es proporcional a la razón entre el círculo de confusión y 
el cuadrado de la distancia focal. Una vez más, la fórmula no funciona bien si la distancia de 
enfoque (s) está cerca de la distancia focal (L) o de la distancia hiperfocal (H). Si adoptamos 
el ángulo visual que corresponde a un objetivo de 50mm en el formato de 35mm (47 grados 
de ángulo de cobertura diagonal), y una distancia de enfoque y aberturas determinadas, 
obtendríamos la siguiente tabla con ayuda de la fórmula anterior para tres formatos distintos. 
Como puede verse, las diferencias en profundidades de campo se corresponden, 
 55 
aproximadamente, con los factores de recorte que relacionan los distintos formatos, de 
manera que la profundidad de campo es inversamente proporcional al tamaño del formato. 
 
Formato Factor de recorte 
CoC 
(micras) 
Distancia focal 
para 47 grados CoC / L
2 Profundidad de campo relativa 
4/3 2 15 25 0,024 2 
APS 1,5 20 33 0,018 1,5 
35mm 1 30 50 0,012 1 
 
Por tanto, en términos de factor de recorte (q) la regla quedaría como 
 
DoF µ 1 / (q*L2) 
 
Como se ve, la distancia focal tiene un efecto más poderoso sobre la profundidad de campo 
(al entrar al cuadrado) que el factor de recorte, y al emplear una distancia focal menor en la 
cámara de formato menor (para conseguir el mismo ángulo visual) compensamos de sobra 
la pérdida inicial de profundidad de campo del formato menor por reducción del círculo de 
confusión. 
 
A diferencia de lo que ocurre con la profundidad de campo, a igual distancia de enfoque la 
distancia focal no tiene efectos sobre la perspectiva. Ésta cambia sólo si nos movemos, 
como apuntamos en la cuarta sección de este documento. Si empleamos distintas 
longitudes focales desde el mismo punto para fotografiar un motivo la perspectiva captada 
será la misma (->). Sin embargo, ocurre que la distancia al motivo suele estar correlacionada 
positivamente con la distancia focal, de manera que a más distancia solemos emplear 
mayores longitudes focales, lo que nos puede llevar a pensar (erróneamente) que es la 
distancia focal lo que está condicionando nuestra experiencia con la perspectiva. 
 
Recordamos que la impresión visual que tenemos de la perspectiva en una foto impresa no 
se verá alterada si respetamos ciertas reglas al mirarla. La distancia de observación de una 
foto que nos proporciona una perspectiva natural viene dada por la fórmula 
 
e = L * v 
 
donde e es la distancia a la que se debe contemplar la foto, L es la distancia focal y v (=D/d) 
son las veces que hemos ampliado el fotograma para alcanzar el tamaño de la foto impresa. 
A esa distancia podremos ver la foto completa sin necesidad de mover los ojos. 
 
Si usamosun objetivo de 50mm y observamos el negativo directamente, necesitamos 50mm 
de distancia para evitar distorsiones en nuestra observación. Pero a menos de 250mm (25 
centímetros) el ojo humano no es capaz de captar todo el detalle, por lo que habría que 
imprimir la foto a un tamaño al menos 5 veces superior al fotograma, es decir, a 12x18cm ó 
5x7 pulgadas. 
 
Si la distancia de observación de 25 centímetros es incómoda por demasiado próxima (peor 
con la edad), y queremos ver la foto a más distancia, un tamaño de impresión mayor será 
necesario para tener una perspectiva natural que no distorsione nuestra percepción de la 
imagen. Pero si queremos mantener el tamaño de impresión original y una perspectiva 
natural observando a más distancia, necesitaremos un objetivo de mayor distancia focal, 
siguiendo la fórmula. 
 
 56 
Un retrato con un objetivo de 100mm hecho a dos metros del sujeto nos permite ver una foto 
impresa de 5 veces el tamaño del negativo a 50 centímetros. El mismo retrato con objetivo 
de 50mm (hecho a un metro del retratado para tener la misma foto) nos exigiría ver el 
resultado ampliado a sólo 25 centímetros, una distancia suficiente pero menos cómoda. Por 
esto, entre otras cosas, son ideales los teleobjetivos cortos para retratos. 
 
Recordemos que un A4 requiere, redondeando, una ampliación de unas 8 veces el 
fotograma de 35 milímetros (24x36mm). Para mirar un A4 a una distancia de 25 centímetros 
con una perspectiva natural la distancia focal debería ser de unos 30mm (≈250/8), mientras 
que para una distancia de observación de 50 centímetros la focal ideal es de unos 60mm 
(≈500/8). 
 
Hay un aspecto más a considerar. Es sabido que muchos objetivos tienen marcas que 
indican la profundidad de campo para cada abertura. ¿Cómo se ven afectadas esas marcas 
cuando empleamos uno de esos objetivos diseñados para el formato de 35mm sobre un 
sensor más pequeño? 
 
Las marcas de profundidad de campo dependen de unos supuestos que se establecieron en 
los años 30, y que eran aceptables para las costumbres y limitaciones técnicas de la época 
(también se basan en una estimación errónea de la capacidad de discernir detalle del ojo 
humano). Se asume un formato de 35mm y una ampliación máxima del negativo de unas 8 
veces, es decir, aproximadamente un A4, lo que determina un círculo de confusión de unas 
30 micras (aunque cada fabricante asumía un valor ligeramente distinto). Sin embargo hoy 
se emplean frecuentemente tamaños de papel mucho mayores, y el A3 es una referencia 
posiblemente más razonable. Por otro lado es verdad que los objetivos, películas y sensores 
actuales son capaces de resolver mucho más detalle que hace 80 años, y las fotografías a 
mayor tamaño requieren una mayor distancia de observación. Por tanto, como indicadores 
aproximados esas marcas de profundidad de campo siguen siendo válidas (aunque no todo 
el mundo estaría de acuerdo con esto, ->). 
 
Si asumimos que las convenciones sobre el círculo de confusión son útiles en la práctica, 
cuando el formato del medio de captura cambia el círculo de confusión cambia también, 
debido a la alteración en el factor de multiplicación que hay que aplicar al detalle captado 
para llevarlo al papel. Con un sensor más pequeño, el detalle se amplía más. Pensemos en 
el caso de la Leica M8 (->), que tiene un sensor con una diagonal 1,33 veces más pequeña 
que la del formato de 35mm. En ese caso tenemos que CoCf = CoCd*1,33, donde f indica 
película (formato 35mm) y d indica digital (recorte 1,33). El círculo de confusión de la Leica 
M8 (CoCd) es 1,33 veces más pequeño que el círculo de confusión de una Leica M equipada 
con película fotosensible (CoCf). Obviamente, esto afecta a la distancia hiperfocal (Hd = Hf * 
1,33) y a la profundidad de campo, dada su relación inversa con H (por tanto, DoFd < DoFf). 
En resumen, si las demás variables son iguales, las impresiones obtenidas a partir de 
imágenes de la M8 mostrarán una profundidad de campo menor que las impresiones que 
proceden de película fotográfica debido al menor círculo de confusión. Una conclusión 
interesante es esta: cuando se recorta una fotografía digital siempre estaremos perdiendo 
profundidad de campo en la imagen impresa. 
 
Pero ocurre que, por otra parte, debido al recorte en el tamaño del sensor, no todas las 
variables pueden ser iguales. El ángulo visual para cada distancia focal será diferente en 
uno y otro caso (película y sensor), y si modificamos la distancia al sujeto o la distancia focal 
para tener el mismo ángulo, la profundidad de campo se verá afectada una vez más. 
 
Centrémonos en las marcas que hay en los objetivos y en su uso para pre-enfocar. La 
distancia hiperfocal cambia por un factor igual a 1,33 en la Leica M8, y la consecuencia es 
 57 
que deben usarse las marcas de la abertura con un número inmediatamente inferior al que 
estamos usando. Por ejemplo, si estamos trabajando con una abertura f/11, hay que usar 
las marcas de f/8 para seleccionar la distancia hiperfocal. El recorte de 1,33 en el sensor se 
corresponde con una diferencia de un paso casi exacto en cuando a profundidad de campo 
para cada abertura. 
 
Veamos un ejemplo con un objetivo 35/2 M de Leica (una versión anterior a la actual, con 
una lente aesférica). Se ha seleccionado una abertura de f/11 y se está enfocando a la 
distancia hiperfocal, apuntando la marca derecha de f/11 a infinito. En este caso la distancia 
hiperfocal es de 3,3 metros (para un círculo de confusión típico de 33 micras, ->). La 
profundidad de campo iría de infinito a unos 1,7 metros en impresiones de tamaño A4 (8x12 
pulgadas). 
 
 
 
 
Ahora aplicamos la regla de usar las marcas del número f inmediatamente inferior para un 
sensor con un recorte de 1,33 y el mismo objetivo. El círculo de confusión se verá reducido a 
25 micras. La abertura seguirá siendo f/11, pero las marcas empleadas para seleccionar la 
distancia hiperfocal serán las de f/8. La marca derecha (según la vemos en la foto) de ese 
número f apunta ahora a infinito, siendo la distancia hiperfocal de 4,4 metros, y abarcando la 
profundidad de campo de infinito a 2,2 metros. 
 
 58 
 
 
La razón de las dos distancias hiperfocales es 4,4/3,3 = 1,33 (= 1/0,75). Por tanto, las 
diferencias en las distancias hiperfocales dependen de las diferencias en las diagonales de 
los distintos formatos. 
 
Un recorte de 1,33 permite aplicar una regla sencilla: usar las marcas del número f 
inmediatamente inferior a aquel con el que estamos trabajando. Si el recorte es el típico de 
las cámaras Canon de formato reducido, igual a 1,6, hay que seleccionar una abertura un 
paso y un tercio mayor (un número f menor) (->, ->). Es fácil hacer los cálculos para 
cámaras con otros recortes en sus formatos de captura (relativos al formato de cobertura del 
objetivo). 
 
 
10. Consideraciones adicionales sobre las diferencias entre formatos. 
 
Olympus ha propuesto un nuevo formato, llamado Cuatro Tercios (->), relativamente 
pequeño pero aprovechado al límite, basado en objetivos con unas excelentes prestaciones 
gracias a un diseño de gran calidad (de tipo telecéntrico en el plano de la imagen, que 
supone situar la pupila de salida en el infinito, -> ->, ->). La telecentricidad depende de tres 
factores: un diseño óptico que favorece un tránsito paralelo de los haces de luz; la distancia 
de la última lente al plano focal (que varía en los objetivos de distancia focal variable); y el 
diámetro de esa última lente (limitado por el de la montura). 
 
El concepto de Olympus hace posible proporcionar un nivel de resolución y contraste similar 
al de formatos mayores en impresiones de tamaño moderado (A4 o menores). Olympus 
tomó en 1999 (->) como punto de referencia la calidad de imagen potencial del formato APS-
C –que en aquel momento casi todos consideraban el nuevo estándar– o de la película de 
35mm. Probablemente tenían también en mente los equipos cinematográficos para formato 
35mm como modelo, en el sentido de hacer del sistemaóptico el eslabón fuerte de la 
cadena. El tamaño del sensor es de 13,5x18mm (de proporciones 2:2,7 = 1:1,35), que tiene 
 59 
3,6 veces menos superficie que el sensor de formato 35mm sin recorte y una diagonal de 
22,5mm. 
 
Aunque el soporte fílmico para el formato fotográfico de 35mm y para el formato 
cinematográfico de filmación es el mismo, el tamaño del negativo es distinto, ya que el 
recorrido de la película es horizontal en el primer caso y vertical en el segundo (salvo 
excepciones como el VistaVision, que se sigue usando hoy día para rodar escenas con 
efectos especiales). Los formatos cercanos al APS-C y al Cuatro Tercios, curiosamente, 
acercan el cine y la fotografía en este aspecto. Las distintas variantes cercanas al formato 
APS-C son en cierto sentido más cinematográficas, en el sentido de más cercanas en 
tamaño al 35mm Academy Aperture (16x21,95mm, de proporciones 1:1,37 y diagonal 
27,2mm), y los cineastas se sentirán cómodos con los parámetros asociados al mismo (por 
ejemplo, con la relación entre distancia focal y ángulo visual de los objetivos). En cambio, el 
Cuatro Tercios tiene proporciones más parecidas al 35mm Academy, pero el tamaño del 
formato de captura es algo menor. 
 
El formato 35mm Academy Aperture es de captura, y proviene de una especificación de 
Thomas Edison (24,89x18,67mm, proporciones 1:1,33 y diagonal de 31,1mm) empleada en 
el cine mudo, que después (en 1932) se corrigió para incluir una banda de sonido, 
reduciéndose el tamaño y alterándose ligeramente las proporciones. Otra cosa son las 
proporciones de salida (o de proyección), muy distintas, y variadas. Van desde el 3:4 (o 
1:1,33) para televisión a los rectangulares para salas de cine, de proporciones 1:1,66 (usual 
en Europa), 1:1,78 (nuevo estándar para cine y televisión, también conocido como 16:9), 
1:1,85 (más usual en Estados Unidos) o incluso 1:2,35 (CinemaSpope) (->). Esas 
proporciones se pueden conseguir de dos formas: enmascarando el negativo en el momento 
de proyectar (->), o enmascarándolo en el momento de filmar. Lo primero ha sido más usual 
en Estados Unidos, y lo segundo en Europa. Para colmo, hay formatos que emplean 
procedimientos más complicados, como el Super 35mm, que recupera el formato de Edison 
para ganar superficie (un 32%) y lo recorta después para ganar rectangularidad (24,4 x 
13,7mm), llegando incluso a unas proporciones 1:2,39 (con lo que queda un área de captura 
de sólo 10x24mm, diagonal de 26mm), lo que permite comprimir lateralmente la imagen en 
el laboratorio y conseguir un resultado similar al que permiten los objetivos anamórficos, 
pero evitándolos (eso sí, a cambio de un área de captura menor). Este formato Super 35mm 
(S35mm) está muy extendido en las modernas cámaras cinematográficas digitales, como las 
RED. Por tanto, ni las proporciones ni el tamaño del 35mm Academy son el único punto de 
referencia a tener en cuenta. 
 
 Proporciones X Y 
Academy Aperture (captura) 1,37:1 22.0mm (0.827”) 16.0mm (0.600”) 
Widescreen Academy (proyección) 1,85:1 21.0mm (0.825”) 11.3mm (0.446”) 
Super 35 (captura) 1,33:1 24.92mm (0.981”) 18.67mm (0.735”) 
Cinemascope (captura) 2,39:1 20.95mm (0.827”) 17.53mm (0.689”) 
 
 60 
Visualmente: 
 
 
 61 
 
Los sensores de 12 millones de fotocélulas de las cámaras Olympus tienen la frecuencia de 
muestreo más elevada conocida en cámaras réflex (superando los 100 pares de píxeles por 
milímetro). Olympus considera que esta resolución es suficiente, lo que coincide con el 
antiguo gráfico de Kodak para el sistema Cuatro Tercios (véase más abajo). 12MP en un 
sensor 4/3 implica una altísima densidad, que llevada a superficies más grandes daría... 
 
APS-C (recorte 1.6x, Canon): 17.5MP 
APS-C (recorte 1.5x, Nikon, Pentax, Sony): 19.8MP 
APS-H (recorte 1.3x, Canon, Leica): 29.2MP 
35mm (sin recorte): 46.1MP[/QUOTE] 
 
El sistema está basado en la idea de una montura de gran diámetro y distancia respecto al 
sensor, en proporción a la diagonal de éste. La distancia entre la montura y el plano focal 
(lens to flange distance, LTF) es, en el estándar 4/3, de 38,7 milímetros, mientras que el 
diámetro del círculo de luz (diagonal del sensor) es de 22,6 milímetros, siendo la proporción 
igual a 1,71 (= 38,7/22,6). El diámetro de la montura es el doble del diámetro del círculo de 
luz, y no ligeramente mayor, como en los sistemas convencionales, con lo que se relaja una 
restricción que afecta al diámetro de la última lente de los objetivos. La montura 4/3 es 
mecánicamente una copia de la montura OM, con una distancia montura-plano focal más 
corta. Por ello el adaptador 4/3-OM es un simple tubo de extensión (->). 
 
Como sabemos, en el formato de 35mm el diámetro del círculo de luz es de 43 milímetros, 
mientras que la distancia de la montura al plano focal depende de cada fabricante, siendo de 
47 milímetros en el sistema R de Leica (proporción igual a 1,09), de 28 milímetros en el 
sistema M de Leica (cámaras telemétricas, sin espejo, proporción igual a 0,65), de 44 
milímetros en el sistema EOS de Canon (proporción igual a 1,02) y de 46,5 en el sistema 
réflex de Nikon con montura F (proporción de 1,08) (->). 
 
Los parámetros del estándar 4/3 garantizan una escasa inclinación de los haces de luz, que 
inciden perpendicularmente sobre la superficie del sensor. Es exactamente la misma idea 
que lleva a Nikon a defender un formato reducido (llamado DX, una variante de APS de 
dimensiones 23,6x15,8mm) para sus réflex digitales, conservando la montura (el diámetro 
del círculo de cobertura pasa a ser de 28,4mm, y la proporción 1,64). Los recortes en el 
tamaño de los sensores incrementan esa proporción, que puede considerarse un factor de 
telecentricidad potencial del sistema. Sin embargo, esa mayor distancia relativa de la 
montura respecto al plano focal obliga a adoptar diseños retrofoco (como sabemos, un 
teleobjetivo vuelto del revés, por explicarlo de forma simple y gráfica) para todos los 
objetivos gran angulares. Dichos diseños son complejos, requieren más lentes e implican 
objetivos de más tamaño y peso, resultando más difícil conseguir luminosidades altas 
(números f bajos), aunque facilitan la telecentricidad. Como vemos, la valoración de la 
conveniencia de ésta depende de cada fabricante. Con su formato de 35mm sin recorte 
Canon considera suficiente una proporción igual a 1 y Leica ha encontrado la forma de 
cumplir con sus criterios de calidad en la M8 (factor de recorte q = 1,33) con una proporción 
de 0,86 (= 0,65*1,33). En cambio, en su día Nikon y Olympus la elevaron por encima de 1,5, 
sacrificando las dimensiones de sus formatos (factores de recorte de 1,5 y 2 
respectivamente), aunque Kodak ha fabricado cámaras réflex con la montura F de Nikon y 
sensores de formato 35mm sin recorte. La siguiente tabla resume estos datos: 
 
 62 
Montura y formato Distancia montura-sensor (mm) 
Diagonal del sensor 
(mm) 
Coeficiente de 
telecentricidad 
 A B C = A/B 
Nikon F/35mm 46,50 43,3 1,07 
Nikon F/DX 46,50 28,4 1,64 
Canon EOS/35mm 44,00 43,3 1,02 
Canon EOS/APS-C 44,00 27,0 1,63 
Contax N/35mm 48,00 43,3 1,11 
Pentax K/35mm 45,46 43,3 1,05 
Pentax K/APS-C 45,46 28,3 1,61 
Minolta AF/35mm 44,50 43,3 1,03 
Minolta AF/APS 44,50 28,4 1,57 
Olympus OM/35mm 46,00 43,3 1,06 
Olympus 4/3 38,67 22,5 1,72 
Leica R/35mm 47,00 43,3 1,09 
Leica R/1.37 crop 47,00 31,7 1,48 
Leica M/35mm 27,95 43,3 0,65 
Leica M/1.33 crop 27,95 32,4 0,86 
 
 
El volumen de un objetivo relativo al diámetro de su círculo de luz es una restricción muy 
poderosa con la que el diseñador óptico tiene que trabajar. Los Zuiko de Olympus son 
pequeños comparados con objetivos equivalentes diseñados para el formato de 35mm, pero 
muy voluminosos comparados con la diagonal del sensor que cubren. A continuación puede 
verse un Canon 28-70mm f/2,8 L comparado con un Zuiko 14-54mm (equiv. 28-100mm) 
f/2,8-3,5. Como puede apreciarse, la diferencia de tamaños es notable, pero en proporción 
al sensor que cubre con su círculo deluz, el Zuiko de Olympus es un objetivo enorme. No 
podía ser de otra forma, si tenemos en cuenta que, para ser competitivo, el formato 4/3 tiene 
que resolver el mismo detalle que formatos más grandes en menos espacio (mayor 
capacidad resolutiva), y ello con un rango de aberturas más limitado (no es aconsejable 
cerrar más allá de f/11), lo que obliga a alcanzar un alto grado de corrección de las 
aberraciones. Esta es otra de las causas por las que resulta complicado desarrollar objetivos 
muy luminosos de focal corta para este formato. 
 
En 2019 Fuji presenta el valor angular (Value Angle) como indicador del grado de dificultad 
al que se enfrenta un diseñador óptico para cámaras digitales de un determinado sistema. El 
valor angular es función de la diagonal del sensor, del diámetro de la montura y de la 
distancia entre ambos elementos. Dos haces deben unir el borde del sensor con el borde 
interior de la montura y converger en un punto tras el sensor. En ángulo que forman es el 
valor angular, y cuanto mayor es este La siguiente tabla presenta los valores para distintas 
monturas actuales: 
 
 63 
 
 
 
 
 
 
 64 
 
Canon 28-70mm f/2,8 L vs. Zuiko 14-54mm (equiv. 28-108mm) f/2,8-3,5 (Valentín Sama©) 
 
 
Las restricciones en cuanto a número de ‘píxeles’ admisibles por los sensores y el 
rendimiento a altas sensibilidades (valores ISO) son las mayores limitaciones del formato. Lo 
mismo podría decirse de otras cámaras con sensores más pequeños que el fotograma de 
35mm equipadas con objetivos diseñados específicamente para ellos. Por tanto, es posible 
compensar un menor tamaño de sensor con una buena óptica, pero sólo hasta cierto punto, 
dependiendo de la diferencia de tamaño entre sensores y del tamaño de la impresión. 
Recomendamos una interesante reflexión de Lars Kjellberg sobre comparación de formatos 
(->), y un análisis de Erwin Puts sobre la importancia relativa de los objetivos en el medio 
digital (->). 
 
 
 65 
 
Los límites previstos del sistema Cuatro Tercios de Olympus (Kodak©). 
 
 
Por otro lado, supeditar el diseño de un sistema al objetivo de conseguir una escasa 
inclinación de los haces de luz que inciden en el sensor podría tener sentido al principio de 
la revolución digital, pero la tecnología ha avanzado y las microlentes permiten incluso el 
desarrollo de cámaras telemétricas digitales, por no hablar de cámaras con sensores de 
24x36mm que ofrecen un rendimiento igual o mejor que la película química en lo que a 
viñeteo se refiere. Véase esta prueba de una Canon 1Ds con un 16-35mm f/2,8L a 16mm, o 
esta que compara los resultados de la Canon 5D y la Canon 20D con un zoom EF 24-70mm 
f/2,8L y EF 50mm f/1,4. 
 
 
Nos detendremos un poco más en este tema de la diferencia entre formatos para tratar de 
profundizar un poco más en él. Observemos el siguiente gráfico, que representa unas 
curvas MTF clásicas, radiales y tangenciales para cuatro resoluciones básicas (5, 10, 20 y 
40 pares por milímetro), con el nivel de contraste en el eje de ordenadas (vertical) y la 
distancia respecto al centro del círculo de imagen en el eje de abscisas (horizontal). El 
objetivo es un Noctilux-M 50mm f/1 de Leica, que cubre con su círculo de luz un fotograma 
de paso universal, cuyo radio es de 21,6 milímetros. Puede observarse cómo, incluso para 
una abertura moderada de f/5,6, el nivel de contraste se deteriora sensiblemente hacia las 
esquinas. Si empleáramos una película o sensor de tamaño menor ese deterioro se evitaría 
(->). Hemos trazado dos líneas verticales, una situada aproximadamente a los 11,3 
milímetros, que es el radio del círculo de luz de un objetivo de formato 4/3, y otra a 14,4 
milímetros, el radio de un círculo de luz adaptado a un sensor de formato APS (16x24 mm). 
Puede observarse cómo el nivel de contraste transmitido por el objetivo en las esquinas de 
esos sensores es muy superior al nivel de contraste en las esquinas del sensor sin recorte. 
Con algunas aberraciones ocurre exactamente lo mismo. 
 
 66 
 
Curvas MTF de una Leica Noctilux 50mm f/1 a una abertura de f/5,6 (Leica Camera AG©). 
 
 
El argumento es válido, pero incompleto, pues la otra forma de representación de las MTF, 
con la resolución en el eje horizontal en vez de la distancia al centro del fotograma, nos 
cuenta la otra mitad de la historia: un formato mayor necesita resolver menos detalle en el 
sensor (o la película) para alcanzar un determinado nivel de detalle en la impresión, como 
hemos explicado ya. Dicho de otro modo, para poder comparar con un formato más 
pequeño habría que trazar para éste curvas de transferencia de contraste equivalentes que 
tengan en cuenta la mayor ampliación a que se somete la imagen de un formato menor para 
una impresión dada (->). Lo usual es encontrarse con curvas de transferencia de contraste 
para 5, 10, 20, 30 y 40 pares por milímetro o cualquier selección de esos números en el 
caso de objetivos para el formato 35mm. Obsérvese que 40 dividido por 8 (factor de 
ampliación) nos da 5 pares por milímetro en una impresión 8x12, que es más de lo que el 
ojo humano puede resolver a simple vista. 
 
Para poder comparar esas curvas con las de un objetivo APS hay que tener en cuenta el 
factor de recorte (q = 1,5) de manera que las correspondencias serían 7,5, 15, 30, 45 y 60 
pares por milímetro. Los objetivos de formato 4/3 (q = 2) pueden ver comparadas sus curvas 
MTF con las del formato de 35mm si se trazan para 10, 20, 40, 60 y 80 pares por milímetro. 
Sin embargo, Nikon sólo presenta curvas para 10 y 30 pares en su documentación de los 
objetivos DX (->), que corresponderían a curvas para 7 y 20 pares en formato 35mm. Por su 
parte, Olympus sólo las ofrece a 20 y 60 pares por milímetro (->) para sus objetivos Zuiko, 
que serían comparables sólo con curvas trazadas para 10 y 30 pares en formato 35mm. 
 
Hasselblad lo explica así al comparar su objetivo 28mm f/4 con un Canon 16-35mm f/2,8 (a 
20mm) en la revista Víctor (1/2008): 
 67 
 
 
 
En principio, las curvas equivalentes de los formatos más pequeños estarán situadas por 
debajo de las correspondientes al formato más grande, pues se miden o calculan para 
resoluciones superiores. Un ejemplo extremo serían los objetivos de las cámaras 
compactas, que deben alcanzar altísimas resoluciones, y ello con aberturas relativamente 
grandes, pues no es posible dotarlos de números f muy altos (aberturas muy cerradas), por 
lo que el grado de corrección de aberraciones debe ser también muy elevado. 
 
Si hablamos de un objetivo diseñado para un formato mayor y empleado en un formato 
menor, dos son los efectos del recorte a tener en cuenta. Primero, los bordes del círculo de 
luz se descartan, con lo que nos quedamos con un círculo de luz más pequeño, donde el 
rendimiento del objetivo es mayor. Segundo, por otro lado, las curvas relevantes para 
resolver determinado nivel de detalle son otras, trazadas para resoluciones superiores y 
situada bajo las curvas originales, como hemos visto. El efecto conjunto, que es el 
rendimiento del objetivo sobre el formato recortado, es muy diferente del rendimiento sobre 
el formato original, como explica detalladamente Erwin Puts (->). 
 
Podemos volver a una fórmula, presentada ya en la primera sección, según la cual la 
resolución del sensor, vendrá dada por la resolución que queremos en el papel multiplicada 
por la razón de las diagonales de la impresión y el formato de captura, sólo que esta vez 
fijamos un formato de referencia e introducimos un factor de recorte 
 
Rs = rf * (D/d1) * q 
 
donde Rs es la resolución que debe alcanzar el sistema (objetivo y sensor) en pares por 
milímetro, rf es la resolución final en el papel en pares por milímetro, D es la diagonal de la 
fotografía impresa, d1 la diagonal del fotograma o sensor de referencia (que puede ser 
43mm) y q (= d1/d2) el factor de recorte del formato en que estemos interesados respecto del 
 68 
formato de referencia. Es obvio que cuanto mayor sea q mayor tendrá que ser tambiénRs 
dados unos valores cualesquiera para las otras dos variables. Ese menor esfuerzo resolutivo 
de los formatos más grandes se traduce generalmente en mayores niveles de contraste para 
una resolución cualquiera en el papel impreso, o en resoluciones superiores para un nivel de 
contraste dado. 
 
 
No obstante, se dice que los formatos pequeños pueden presumir de una ventaja 
interesante en teleobjetivos respecto de los formatos mayores, aunque, como todo, es una 
verdad a medias que hay que matizar. 
 
En efecto, dado que la abertura regula no sólo la cantidad de luz que puede acceder al 
sensor por unidad de tiempo, sino también la profundidad de campo, la proclamada ventaja 
sería esta: para conseguir un mismo ángulo visual y una misma profundidad de campo, el 
formato menor requiere una focal menor y una mayor abertura que el formato mayor, y por 
tanto consigue la profundidad de campo deseada con un tiempo de exposición menor (o con 
una sensibilidad equivalente ISO menor). 
 
En general, podemos decir que hay que dividir la abertura por el factor de recorte para hallar 
la ‘abertura equivalente’ (en términos de ‘profundidad de campo’), de la misma forma que se 
hace con la ‘distancia focal equivalente’ (en términos de ‘ángulo visual’). 
 
Las fórmulas para la profundidad de campo introducidas en la sección 6 muestran esto con 
toda claridad. Allí vimos que la profundidad de campo dependía de la distancia a la que 
enfocamos (s) y de la distancia hiperfocal (H), que venía dada por H = L2 / (f * CoC). 
Imaginemos dos formatos cualesquiera para los que CoC2 = CoC1 / q, donde q (=d1/d2>1) es 
el factor de recorte. Es obvio que las distancias hiperfocales se igualarán si dividimos la 
distancia focal y la abertura por q para el formato menor, de manera que H = L2 / (f * CoC1) = 
(L/q)2 / [(f/q) * CoC2]. Por consiguiente, igualando el ángulo visual y tomando una abertura 
proporcional al factor de recorte, las dos cosas, dada una distancia de enfoque, igualamos 
las profundidades de campo. 
 
Tenemos pues que una abertura f/2 en un objetivo para el formato 4/3 de Olympus (q = 2) 
equivale en términos de profundidad de campo a una abertura f/4 en un objetivo de 35mm 
sobre un sensor de ese formato sin recorte, dado un mismo ángulo visual. Para conseguir el 
control sobre la profundidad de campo que da una abertura f/2 en el formato de 35mm, un 
objetivo 4/3 con ángulo visual equivalente necesitaría una abertura f/1. Por ejemplo, un 
28mm f/2 en formato de 35mm equivaldría, en cuanto a ángulo visual y profundidad de 
campo, a un 14mm f/1 en formato 4/3; pero también un 200mm f/2,8 en paso universal 
equivaldría a 100mm f/1,4 en 4/3. 
 
Por tanto, la única ventaja de los formatos menores, en cuanto a profundidad de campo, es 
que si necesitas más, el formato menor te la puede brindar con una abertura mayor, lo que 
posibilita reducir el tiempo de exposición o utilizar una sensibilidad equivalente ISO menor 
en el sensor. Esta parte de la historia, por tanto, es cierta. Sin embargo, si bien los formatos 
más pequeños ofrecen menores ángulos de visión con mayor luminosidad, también es 
verdad que no pueden igualar esa oferta para los grandes angulares, como muestra la 
siguiente tabla de objetivos actualmente en producción: 
 
 69 
 Canon Nikon DX Olympus 4/3 
Formato: 24 x 36mm 15,8 x 23,6mm 13,5 x 18mm 
Recorte respecto al formato de 
35mm q = 1 q = 1,5 q = 2 
Distancia focal más corta en 
términos del formato de 35mm 
para objetivos rectilíneos 
12mm (Sigma 12-
24/4,5-5,6) (->) 
14mm (Canon 
14/2,8L) (->) 
18mm (Sigma 12-
24/4,5-5,6) (->) 
18mm (Nikon 12-
24/4,0) (->) 
14mm (Zuiko ED 7-
14/4,0) (->) 
Distancia focal más corta en 
términos del formato de 35mm 
para objetivos f/1,4 
24mm (Canon 
24/1,4L) (->) 
35mm (Canon 
35/1,4L) (->) 
42mm (Nikon 
28/1.4) (->) 
50mm (Leica D 
25/1,4) (->) 
60mm (Sigma 
30/1,4) (->) 
Distancia focal más corta en 
términos del formato de 35mm 
para objetivos f/2 
28mm (Canon 
28/1,8) (->) 
35mm (Canon 
35/2,0) (->) 
52,5mm (Nikon 
35/2) (->) 
70mm (Zuiko 35-
100/2,0) (->) 
48mm (Sigma 
24/1,8) (->) 
Distancia focal más corta en 
términos del formato de 35mm 
para objetivos descentrables 
24mm (Canon 
24/3,5L Tilt and 
Shift) (->) 
157,5mm (Nikon 
105/2 DC) (->) - 
Distancia focal más larga en 
términos del formato de 35mm 
1.200mm (Canon 
f/5,6L) (->) 
900mm (Nikon 
600/4,0) (->) 
600mm (Zuiko 
300/2,8) (->) 
1.600 mm (Sigma 
300-800/5,6) (->) 
Distancia focal más larga en 
términos del formato de 35mm 
para objetivos f/2 
135mm (Canon 
135/2,0L) (->) 
300mm (Nikon 
200/2,0) (->) 
300mm (Zuiko 
150/2,0) (->) 
Distancia focal más larga en 
términos del formato de 35mm 
para objetivos f/2,8 
400mm (Canon 
400/2,8L) (->) 
600mm (Nikon 
400/2,8) (->) 
600mm (Zuiko 
300/2,8) (->) 
 
 
Además, no hay que precipitarse y suponer que una mayor luminosidad del objetivo implica 
necesariamente una mayor razón señal-ruido (->). Recordemos que los valores para una 
exposición correcta son los mismos independientemente del formato. Por tanto, si el 
exposímetro nos da un par de valores (abertura-tiempo de exposición), éstos serán válidos 
para cualquier cámara. 
 
A igual abertura, bajo el supuesto de una transmisión lumínica igual (ver 1.1), la cantidad 
relativa de luz que alcanza el sensor en formatos diferentes por unidad de tiempo viene 
determinada por el factor de recorte q, es decir, en un segundo y a una abertura de f/2 un 
sensor de formato 4/3 recogerá 1/q2 = 4 veces menos luz que un sensor de formato 35mm 
sin recorte, donde q es la razón entre las diagonales de los sensores en este caso (q = 2). 
Así pues, si el número de píxeles es el mismo, los formatos más pequeños construyen una 
imagen final de igual tamaño a partir de mucha menos información. Ningún avance en 
electrónica puede cambiar esto. La fórmula sería 
 
SNR2 = SNR1 / q2 = SNR1 / (d1/d2)2 
 
donde SNR es la razón señal-ruido, q es el factor de recorte, igual a la razón de las 
diagonales de los formatos (d1 y d2, donde d1 > d2 ), suponiendo que el número de píxeles es 
el mismo y que todos los factores que afectan a la razón señal-ruido distintos del ruido 
fotónico (photon noise) no cambian con el formato. Es obvio que el deterioro de la razón 
 70 
señal-ruido por píxel se agrava aún más cuando se emplean mayores sensibilidades 
(valores ISO superiores, ->) en los formatos más pequeños. 
 
Por consiguiente, la única forma de igualar, para cada abertura, la cantidad de luz que llega 
a cada ‘píxel’ sería reducir el número de estos en los formatos menores por un factor de 
1/q2. Por ejemplo, un sensor de tipo 4/3 debería tener cuatro veces menos ‘píxeles’ –es 
decir, ¡la misma frecuencia de muestreo!– que un sensor de formato 35mm sin recorte, para 
de esa forma garantizar la misma cantidad de señal en cada celdilla. 
 
Volviendo a un ejemplo previo, una cámara con un sensor de formato 4/3 y un objetivo 
100mm f/1,4 sería equivalente a otra con un sensor de formato 35mm y un objetivo de 
200mm f/2,8 en términos de ángulo visual, profundidad de campo y razón señal-ruido sólo si 
además el número de ‘píxeles’ de la primera es cuatro veces menor al de la segunda, 
aunque en ese caso la resolución no sería ya la misma. Una equivalencia completa entre 
formatos es imposible. 
 
Hay que señalar algo más: conforme se cierra el diafragma la cantidad de luz recogida se 
reduce rápidamente en todos los formatos y las diferencias relativas entre formatos tienden 
a desaparecer, es decir, con aberturas de f/16 en adelante las diferencias entre los formatos 
se hacen muy pequeñas, en lo relativo a profundidad de campo y señal recibida en cada 
píxel. El siguiente gráfico muestra cómo la cantidad total de luz transmitida al sensor por 
unidad de tiempo cae al cerrar el diafragma, pero también, lógicamente, con el tamaño del 
sensor (suponemos la misma transmisión lumínica para cada objetivo, concepto que vimos 
en 1.1). Hemos comparado tres formatos. 
 
 
Índicesdel total de luz transmitida (100 es la cantidad correspondiente al formato de 35mm 
a f/1,4) (Leica Fotografie International©, LFI, 3/2006). 
 
0
10
20
30
40
50
60
70
80
90
100
f/1,4 f/2 f/2,8 f/4 f/5,6 f/8 f/11 f/16 f/22
35mm (q=1) APS (q=1,5) Cuatro Tercios (q=2)
 71 
La siguiente tabla muestra los cálculos, para los que hemos aplicado la sencilla regla de 
multiplicar los valores para el formato de 35mm por 1/q2 para pasar a un formato menor, 
donde q es el factor de recorte o razón entre las diagonales de los formatos. Hemos 
supuesto una misma distancia focal equivalente (la que sea). Los valores de la columna 
dedicada al formato de 35mm están normalizados, pues se le ha asignado un valor 100 a la 
primera casilla, dividiendo cada valor por 2 para obtener el siguiente (cada paso de 
diafragma reduce la cantidad de luz por unidad de tiempo y superficie en la mitad, como 
vimos en su momento). Obsérvese que la diferencia en términos absolutos entre formatos 
se reduce conforme cerramos el diafragma y que el valor absoluto para los formatos más 
pequeños tiende a cero rápidamente (y esta es otra de las causas, además del tamaño del 
círculo de confusión, por las que éstos no alcanzan números f muy altos). 
 
 (1) (2) (3) 
Abertura 35mm (q=1) APS (q=1,5) Cuatro Tercios (q=2) Diferencia (1) - (3) 
f/1,4 100 44,4 25 75,0 
f/2 50,0 22,2 12,5 37,5 
f/2,8 25,0 11,1 6,3 18,8 
f/4 12,5 5,6 3,1 9,4 
f/5,6 6,3 2,8 1,6 4,7 
f/8 3,1 1,4 0,8 2,3 
f/11 1,6 0,7 0,4 1,2 
f/16 0,8 0,3 0,2 0,6 
f/22 0,4 0,2 0,1 0,3 
Alteración del índice de cantidad de luz transmitida (formato 35mm, f/1,4) en función de los 
distintos formatos y las aberturas. 
 
 
La profundidad de campo está estrechamente relacionada con estos valores de transmisión 
efectiva de luz. Obsérvese que un sensor de formato Cuatro Tercios recibe por unidad de 
tiempo a f/2 la misma cantidad de luz que un sensor 24x36mm a f/4. Las profundidades de 
campo se igualan para los pares de formato y abertura en los que esos índices de 
transmisión lumínica son también iguales. 
 
Para más detalles puede consultarse el excelente artículo de Peter Karbe, citado al final, o 
una referencia indispensable de R. N. Clark (->). 
 
Para resumir, diremos que hay cuatro parámetros básicos en la comparación de dos 
formatos: ángulo visual, determinado por la focal real relativa a la diagonal del sensor; 
luminosidad, determinada por la abertura máxima; profundidad de campo, que depende de 
abertura, distancia al motivo, focal, formato y tamaño de impresión; y razón señal-ruido, que 
depende (simplificando) del número de fotones capturado en cada ‘píxel’. Estos dos últimos 
factores están íntimamente ligados a la variable ‘transmisión de luz’, que es la cantidad de 
luz que el objetivo transmite al conjunto del sensor por unidad de tiempo. Una equivalencia 
total entre formatos es imposible. 
 
Volvamos a tomar ahora, y para cerrar, el tema de la resolución. Se ha considerado, a partir 
de estudios empíricos de Zeiss, que 40 lp/mm de detalle real era un valor clave para la 
percepción de calidad en una imagen fotográfica, para el formato de 35mm e incluso el 
formato medio (->). Podríamos emplear el argumento del círculo de confusión para 
fundamentar los cálculos, como se suele hacer normalmente (->), y como vimos ya en la 
primera sección. El teorema de Nyquist obliga a sobremuestrear, pero no sabemos cuánto. 
Depende del motivo, de la interpolación Bayer, y de muchos factores más. R. N. Clark habla 
 72 
en su ejercicio de triplicar la frecuencia Nyquist (x3) al escanear un patrón de pares de 
líneas, nada menos (el teorema de Nyquist no se aplica tal cual a estos casos). 
Normalmente, en motivos típicos fotográficos, es suficiente con aplicar un factor x1,5. 
Nosotros hemos elaborado una tabla comparativa de formatos con distintos casos, bajo el 
supuesto de un sensor monocromático: la resolución necesaria para resolver esos 40 lp/mm 
(o equivalentes) bajo el supuesto de que la frecuencia Nyquist es suficiente (2 píxeles para 
un par de líneas), con 1,5 veces la frecuencia Nyquist (3 píxeles para un par de líneas) y con 
el doble de la frecuencia Nyquist (4 píxeles para un par de líneas) como caso extremo; y 
también hemos considerado que una buena razón señal-ruido sea la prioridad; o que lo sea 
un determinado número de píxeles para una impresión directa con determinado tamaño y 
resolución. Cada formato multiplica o divide el requerimiento de resolución con su factor de 
recorte respecto al formato de 35mm. La siguiente tabla presenta los resultados de la 
comparativa. 
 
 Cuatro Tercios (13,5x18) APS-C (16x24) 35mm (24x36) MF (36x48) 
Priorida
d Objetivo p/mm µ MP p/mm µ MP p/mm µ MP p/mm µ MP 
40 
lp/mm 
de 
detalle 
real 
x1 Nyquist 
ratio 160 6,3 6,2 120 8,3 5,5 80 12,5 5,5 60 16,7 6,2 
x1.5 
Nyquist 
ratio 
240 4,2 14 180 5,6 12,4 120 8,3 12,4 90 11,1 14 
x2 Nyquist 
ratio 320 3,1 25 240 4,2 22 160 6,3 22 120 8,3 25 
Buena 
razón 
señal / 
ruido 
6µ de 
espaciado 166,6 6 6,75 166,6 6 10 166,6 6 22 166,6 6 48 
5µ de 
espaciado 200 5 9,7 200 5 15,4 200 5 34,6 200 5 69 
Tamaño 
de foto 
Suficiente 
para un 
A4 a 
300ppp 
190 5,3 8,7 150,8 6,6 8,7 100,6 9,9 8,7 71,4 14 8,7 
Suficiente 
para un 
A3 a 
300ppp 
267,4 3,7 17,4 212,8 4,7 17,4 142 7,1 17,4 100 10 17,4 
 
 
Se argumenta que el valor empírico de los 40 pares por milímetro, o el cálculo basado en el 
círculo de confusión de cada formato, no es una aproximación razonable cuando se trata de 
tener en cuenta la capacidad límite de un sistema. Además, como explicamos en su 
momento, los valores aceptados para el círculo de confusión son muy discutibles, como lo 
son los valores de agudeza visual que los soportan, por no hablar del cambio de costumbres 
en lo que toca al tamaño de impresión usual (que ha aumentado, generalizándose el A3 o la 
inspección en pantalla). Por todo ello hay que ir más allá, y tratar de estimar el límite 
resolutivo de un sistema fotográfico digital, considerando los distintos formatos. Podemos 
considerar, si se quiere, que el círculo de confusión es el píxel. 
 
Para ello asumiremos un sistema óptico perfecto, es decir, un objetivo sólo limitado por la 
difracción, sin aberraciones. Calcularemos entonces la máxima resolución ofrecida por un 
objetivo de ese tipo y la frecuencia de muestreo necesaria para reproducirla. El espectro 
visible va de los 0,00038 a los 0,0007 milímetros, pero tomaremos el ya conocido valor de 
0,000555 (verde-amarillo para el que el ojo es más sensible), 0,0004 (azul) y 0,0007 (rojo). 
La resolución máxima y el diámetro del círculo de Airy depende de la longitud de onda de la 
luz. 
 
 73 
Aquí hay que introducir ahora un tema delicado. El criterio de Rayleigh, que permite estimar 
una resolución asociada a unos discos de Airy con determinada separación entre ellos, no 
es un criterio adecuado para los sensores digitales. El criterio de Rayleigh es adecuado para 
la percepción visual en telescopios, con motivos brillantes sobre fondo oscuro (estrellas, 
planetas). Para los sensores digitales hay que adoptar un criterio mucho más exigente (->). 
Los píxeles no son como los conos de la fóvea, que reaccionan de forma distinta a los 
puntos y las líneas. 
 
El diámetro de los discos de Airy sólo depende de la abertura y la longitud de onda de la luz. 
La resolución para un objetivo sólo limitado por la difracción depende de la separación y el 
diámetro de los discos de Airy. El criterio de Rayleigh es sólo un criterio sobre la mínima 
separación aceptable entre discos de Airy (los centros de los discos deben estar separados 
por el radio del disco). El criterio se aplica independientemente del diámetro, que depende 
de la longitud de onda de la luz y la abertura del objetivo. Se resolvían 2 líneas con cada 
radio al 9% de contraste tomando estas separaciones. 
 
Otros criterios de resolución, es decir, de separación, ofrecían valores distintos de contraste, 
resultando resoluciones superiores (en elcaso del criterio de Dawes, con 0% de contraste) e 
inferiores (cuando exigíamos valores de contraste superiores, como 10%, 50%, 80%). Si 
elevamos la exigencia de contraste estaremos exigiendo también más separación entre 
discos. Ésta se puede estimar a partir de las resoluciones presentadas en aquella tabla de la 
sección primera de este trabajo. En el caso del criterio de Dawes los discos están más 
juntos aún, y cada diámetro separaría 5 líneas. Con un contraste del 80% cada disco 
completo resuelve una línea, por lo que debe haber una separación entre discos de al 
menos un diámetro. Como es obvio, los “píxeles” deben estar lo suficientemente separados 
para poder captar una diferencia relevante en la intensidad de la señal. Es 
(aproximadamente) el caso del gráfico: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
rAiry = lp/4 
2 1 3 
1 lp = 2 pixels 
 74 
Con un contraste del 50% cada disco completo resuelve dos líneas, con una separación 
nula, pero sin superposición. Resolver ese detalle exige “píxeles” más pequeños. Es el caso 
del siguiente gráfico: 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
En el siguiente gráfico volvemos a presentar el caso de Rayleigh. En teoría se podría 
resolver hasta 1 par por radio, lo que requeriría “píxeles” mucho más pequeños aún. No 
obstante, el nivel de contraste es tal que esa frecuencia de muestreo adicional apenas 
resuelve nada. 
 
rAiry = lp/2 
2 4 1 3 5 
 75 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Cuanto más próximos están los discos de Airy, mayor es la resolución espacial del objetivo y 
menor el contraste. Si los “píxeles” son demasiado grandes, esa resolución extra por 
proximidad entre discos se perdería, y el sistema estaría limitado por la frecuencia de 
muestreo, o por el tamaño de los “píxeles”. Pero si el “píxel” es menor que el diámetro del 
disco de Airy, las posibles ganancias de resolución se pierden rápidamente debido a las 
pérdidas de contraste asociadas a la menor separación entre discos (->, ->). 
 
¿Dónde está el tamaño óptimo de “píxel” a efectos de resolución? Dependerá de la longitud 
de onda de la luz y la abertura, además de las propiedades del objetivo (control de las 
aberraciones). Sólo objetivos muy luminosos con un alto grado de corrección de las 
aberraciones se podrán beneficiar de “píxeles” más pequeños. En principio el “píxel” debe 
ser aproximadamente igual al tamaño al disco de Airy o algo menor (los primeros casos que 
hemos visto). 
 
Como señalan Catrysse y Wandell (2005, página 6), un sensor monocromo necesitaría, para 
evitar el aliasing, dos muestreos por cada diámetro del disco de Airy, es decir, el espaciado 
de los “píxeles” debe ser como mucho igual al radio del disco de Airy (la mitad de lo que 
indicaría el criterio de Rayleigh). 
 
rAiry = 1 lp 
1 2 3 4 5 6 7 
 76 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Esto debe cumplirse al menos para la longitud de onda más exigente, por lo que los dos 
pares por disco de Airy deben adaptarse a la luz azul, que tiene los discos de menor 
diámetro. Esto determina un tamaño de píxel. Catrysse y Wandell (2005, página 7) calculan 
que para un objetivo sólo limitado por la difracción a una abertura de f/2.8, evitar el aliasing 
en todas las longitudes de onda requiere píxeles de 1,36 micras de espaciado, o menores, 
dados los discos de Airy de 2,7 micras de diámetro (véase la tabla); mientras que para una 
abertura f/8, para la que es más verosímil encontrar un objetivo limitado por la difracción, se 
requerirían píxeles de 3,9 micras (discos de 7,8 micras para esa longitud de onda). 
 
Catrysse y Wandell (2005, página 7) o Rhodes et al. (2004, página 9), explican que en los 
sensores con mosaico Bayer los píxeles se agrupan en matrices de 2x2 de tipo RGBG que 
forman una unidad en el siguiente sentido: se usa la información de los cuatro píxeles para 
calcular el color definitivo en cada uno de ellos, lo que implica asumir implícitamente que esa 
pequeña matriz mide un punto de la escena. Por tanto, la frecuencia de muestreo efectiva es 
la que tiene a esa matriz Bayer como unidad de muestreo. En resumen, para evitar el moiré 
cromático hay que multiplicar la frecuencia de muestreo por dos (dos píxeles donde en el 
caso monocromo había uno). Lo que nos llevaría a multiplicar por dos los requerimientos de 
resolución espacial. 
 
rAiry = 1 píxel 
4 pixels = 1 lp 
2 4 1 3 5 
 77 
F/# (1) (2) (3) (4) (5) (1) (2) (3) (4) (5) (1) (2) (3) (4) (5) 
 Luz azul de 0,0004 milímetros de longitud de onda 
Luz verde-amarillo de 0,000555 
milímetros de longitud de onda 
Luz roja de 0,0007 milímetros de 
longitud de onda 
f/1 2049 4098 1,0 2049 4098 1490 2981 1,3 1490 2981 1171 2342 1,7 1171 2342 
f/1,4 1464 2927 1,4 1464 2927 1065 2129 1,9 1065 2129 836 1673 2,4 836 1673 
f/2 1025 2049 2,0 1025 2049 745 1490 2,7 745 1490 585 1171 3,4 585 1171 
f/2,8 732 1464 2,7 732 1464 532 1065 3,8 532 1065 418 836 4,8 418 836 
f/4 512 1025 3,9 512 1025 373 745 5,4 373 745 293 585 6,8 293 585 
f/5,6 366 732 5,5 366 732 266 532 7,5 266 532 209 418 9,6 209 418 
f/8 256 512 7,8 256 512 186 373 10,7 186 373 146 293 13,7 146 293 
f/11 186 373 10,7 186 373 135 271 14,8 135 271 106 213 18,8 106 213 
f/16 128 256 15,6 128 256 93 186 21,5 93 186 73 146 27,3 73 146 
f/22 93 186 21,5 93 186 68 135 29,5 68 135 53 106 37,6 53 106 
(1) Máxima resolución teórica según el criterio de Rayleigh (lp/mm) MTF 9%, 4 lp/mm por disco de Airy 
(2) Frecuencia de muestreo asociada a la máxima resolución según Rayleigh, a 2 píxeles por ciclo, 4 por disco, en píxeles por 
milímetro 
(3) Diámetro del disco de Airy en micras 
(4) Frecuencia de muestreo a 2 pixeles por disco de Airy en píxeles por milímetro. Ideal para sensores monocromáticos. 
(5) Frecuencia de muestreo a 4 pixeles por disco de Airy en píxeles por milímetro. Necesario para sensores Bayer. 
 
 
Ahora nos queda tan sólo calcular el número de “píxeles” para un sistema limitado por la 
difracción, considerando una frecuencia de muestreo suficiente para no tener problemas de 
muaré siempre que haya un filtro de paso bajo. De no haberlo sería necesario aumentar 
más aún la frecuencia de muestreo. El filtro de paso bajo tiene un efecto similar al 
incremento de la frecuencia de muestreo en lo que toca al aliasing. Tiene sentido usarlos 
porque a altas frecuencias el aliasing se evita, pero sin apenas ganancias de resolución 
adicional. El cálculo se hace a partir del diámetro del disco de Airy para cada longitud de 
onda, y aplicando 2 píxeles por diámetro. 
 
 
Millones 
de 
“píxeles” 
Cuatro Tercios (13,5x18) APS-C (16x24) 35mm (24x36) MF (36x48) 
Abertura w = 0,4 µ 
w = 
0,55 µ 
w = 
0,7 µ 
w = 
0,4 µ 
w = 
0,55 µ 
w = 
0,7 µ 
w = 
0,4 µ 
w = 
0,55 µ 
w = 
0,7 µ 
w = 
0,4 µ 
w = 
0,55 µ 
w = 
0,7 µ 
f/1 1020 530 333 1612 838 527 3628 1885 1185 7256 3769 2369 
f/1,4 521 270 170 823 427 269 1851 962 604 3702 1923 1209 
f/2 255 133 83 403 209 132 907 471 296 1814 942 592 
f/2,8 130 68 42 206 107 67 463 240 151 926 481 302 
f/4 64 33 21 101 52 33 227 118 74 454 236 148 
f/5,6 33 17 11 51 27 17 116 60 38 231 120 76 
f/8 16 8 5 25 13 8 57 29 19 113 59 37 
f/11 8 4 3 13 7 4 30 16 10 60 31 20 
f/16 4 2 1 6 3 2 14 7 5 28 15 9 
f/22 2 1 1 3 2 1 7 4 2 15 8 5 
 
 
 78 
 
Algunos números son extremadamente altos, pero no son muy relevantes. Es difícil 
encontrar en fotografía objetivos limitados por la difracción. Lo es por el ejemplo el Leica 
APO-Telyt-R 280mm f/4 a todas las aberturas (->), o el APO-Summicron-R 180mm f/2 (->), 
pero sólo a partir de f/5,6. Hemos sombreado en la tabla la zona con implicaciones 
prácticas, y eso sólo sería válido para objetivos muy especiales. Otro factor que debe 
tenerse en cuenta es la longitud de onda de la luz. Tomando la luz verde-amarilla como 
representativa de la luz-día tenemos unos valores intermedios, pero a veces tenemos 
escenas con luz azulada o rojiza, y eso nos lleva a valores distintos. 
 
 
 
Aquí la difracción afectanegativamente más al formato más pequeño. Si teníamos que con 
unos 22-25 millones de “píxeles” conseguíamos un factor x2 de frecuencia Nyquist en todos 
los formatos, la difracción limita la resolución de los más pequeños a mucho menos. Esto es 
así cuando cerramos el diafragma, pero también cuando lo abrimos, pues son las 
aberraciones las que se encargan entonces de limitar. 
 
Podemos asumir que la difracción limita la resolución efectiva de los formatos de manera 
que en ningún caso resultarían rentables más de 60 millones de píxeles en un sistema de 
36x48mm, 30 millones en un 24x36mm, 13 millones en un formato APS-C y 8 millones en un 
formato 4/3. Visto de otra forma, si quieres más resolución, no queda otra posibilidad que 
saltar a un formato mayor, o bien optar por un formato menor ópticamente más 
perfeccionado (->), vía alternativa ésta que tiene sus límites en el medio digital (por la razón 
señal-ruido). 
 
 
 79 
 
11. Conclusiones. 
 
Se conoce perfectamente desde hace tiempo la evolución de la tecnología digital, al menos 
en esta primera fase de ajuste y sustitución del paradigma anterior basado en soporte 
químico, como demuestran las predicciones de Kodak: 
 
 
Previsiones de la evolución de las resoluciones en sensores digitales (Kodak©). 
 
 
Decíamos que una cámara de 35mm podía resolver en el negativo, bajo condiciones muy 
controladas, con película blanco y negro de alta resolución, unos 80-90 pares, pero mucho 
menos en condiciones normales. Ese negativo tiene que ampliarse (o escanearse) para que 
podamos obtener una copia en papel de la fotografía, lo que supone una pérdida de 
resolución o detalle y contraste. Esa pérdida de transmisión no se da con la tecnología 
digital. Los sensores digitales, por tanto, permiten ofrecer idealmente más calidad en la 
imagen impresa resolviendo menos detalle, y especialmente si comparamos con películas 
de mayor sensibilidad y menor resolución. Además, hay límites al detalle que el ojo humano 
puede percibir en impresiones de tamaño moderado. Por tanto, no es necesario obtener una 
resolución real de 80-90 pares por milímetro en un sensor de 35mm ni siquiera para igualar 
la calidad de la foto impresa proporcionada por la película de alta resolución, lo que explica 
que sensores más pequeños con alta densidad o sensores de 35mm con densidad más baja 
ya proporcionen imágenes impresas que superan en calidad a las obtenidas a partir de 
emulsiones de alta resolución, especialmente en color y a sensibilidades altas. 
 
Se ha comprobado (->) que la película de grano fino (sensibilidad equivalente ISO 50 a 100) 
escaneada equivale a fotografías digitales de entre 8 y 16 millones de píxeles, mientras que 
la película de más sensibilidad (ISO 400) equivaldría a fotos de 4 millones de píxeles. A 
pesar de esos resultados ya superiores, podemos esperar mejoras adicionales en la calidad 
de las fotografías tomadas digitalmente. 
 
 80 
La evolución reciente de la tecnología fotográfica ha venido explicada por los condicionantes 
de la calidad de la fotografía impresa, pero en un sentido más complejo del que muchos 
entienden. El tamaño de la impresión, con un detalle al límite de lo que el ser humano puede 
distinguir a simple vista, determina una exigencia de resolución para el objetivo y el sensor. 
Un mayor sensor facilita al objetivo la tarea de servir esa resolución con el mayor nivel de 
contraste posible. Sin embargo, controlar las aberraciones para un círculo de luz mayor es 
mucho más complicado, para una focal y abertura dadas. Por otro lado, llevar el sistema al 
límite de sus posibilidades choca con la difracción, que afecta a todos los objetivos por igual. 
Si bien una mayor frecuencia de muestreo reduce las degradaciones causadas por el 
exceso de señal, y aumenta la transferencia de contraste del sensor, también hay que tener 
en cuenta que la razón señal-ruido se deteriora, y que hay un límite a la mejora de 
resolución que se puede conseguir. Dado un tamaño de sensor la frecuencia de muestreo 
determina el tamaño, en píxeles, de la fotografía digital. Dicho tamaño ha venido 
experimentando un incremento continuo en las cámaras digitales (la llamada carrera de los 
megapíxeles), lo que no ha sido en modo alguno producto del marketing o del capricho, sino 
de los mismos principios técnicos que gobernaron la evolución de la fotografía fotoquímica 
durante más de 100 años. 
 
Esa tendencia empieza a agotarse en estos momentos (año 2008) en algunos segmentos 
del mercado. Por un lado, el tamaño de las imágenes plantea problemas (almacenamiento, 
procesado) y, por otro, sólo se aprovecha una parte de la capacidad de contener 
información que tiene una matriz de píxeles (debido al carácter multiplicativo de la MTF 
combinada de objetivo y sensor, a los problemas de exceso de señal y a las interpolaciones 
de los colores). Por tanto, los incrementos adicionales en el tamaño de dicha matriz tienen 
costes marginales que empiezan a superar las ganancias marginales esperables, una vez 
explotadas buena parte de las ventajas potenciales iniciales. Aumentar la cantidad y calidad 
de la información realmente contenida en la matriz de píxeles (detalle real y su definición, 
escala tonal, gama tonal, precisión y gama de colores), que supone una mejora en la 
eficiencia, será el siguiente paso en la evolución de los sensores y objetivos. 
 
 
12. Referencias. 
 
Son absolutamente recomendables tres referencias básicas para entender el tema de la 
resolución y la calidad de imagen en general, reforzando el razonamiento que hemos 
presentado en este mismo artículo: el contraste es tan importante como la resolución para la 
calidad percibida en una imagen; a menores resoluciones los objetivos proporcionan mayor 
nivel de contraste, y los sensores más grandes tienen que hacer menores esfuerzos 
resolutivos para cualquier impresión; y por último, la capacidad resolutiva de un sensor 
(frecuencia de muestreo) debe ser lo más alta posible, para de esa forma eliminar los 
efectos degradantes del exceso de señal, si bien hay una relación inversa con la razón 
señal-ruido y con el porcentaje de aprovechamiento real de la capacidad resolutiva del 
sensor. 
 
• Primero, un famoso artículo de Erich Heynacher y Fritz Köber (1969), y otro de 
Kämmerer (1979), ingenieros de Carl Zeiss, que trata de forma muy accesible la 
importancia del contraste en la percepción de la calidad de una fotografía. Véase 
Heynacher, E. y Köber, F. 1969. Resolving Power and Contrast, Zeiss Information, 
51; y Kämmerer, J. 1979. When is it advisable to improve the quality of camera 
lenses? Optics & Photography Symposium, Les Baux, 1979. Habría que añadir la 
consideración del ruido en dicha percepción, tema tratado por Norman Koren. 
 
 81 
• En segundo lugar debería consultarse el análisis de Bob Atkins sobre la importancia 
del tamaño del sensor, por su relación con el nivel de contraste de la imagen impresa 
(otro tema es el de la calidad relativa de la imagen en los bordes del fotograma, que 
también hay que considerar). Erwin Puts ha publicado sus reflexiones (1, 2, y 
especialmente 3) sobre el tema, en última instancia coincidentes con las 
apreciaciones de Atkins. 
 
• En tercer lugar, un importante documento del Dr. Karl Lenhardt, de la firma 
Schneider-Kreuznach, que añade consideraciones sobre el exceso de señal, en 
relación con el número de píxeles requeridos para la impresión y la frecuencia de 
muestreo. 
 
Hay referencias adicionales muy instructivas, y que no deberían dejar de estudiarse para 
conseguir una buena comprensión de los temas tratados, aunque son técnicamente más 
difíciles. 
 
Los dos artículos de Ronald W. Harris dedicados al tema de la resolución, pero no referidos 
al medio digital específicamente (Parte I, sitio a o b; Parte II, sitio a o b), son fantásticos. Las 
referencias exactas son Ronald W. Harris. (1991): Understanding Resolution. Lens, Flim and 
Paper. Darkroom & Creative Camera Techniques, Mar-Apr., pp. 26-66; yRonald W. Harris. 
(1991): Understanding Resolution. Using Modulation Transfer Function. Darkroom & 
Creative Camera Techniques, May-Jun., pp. 55-57. 
 
Es recomendable también la serie explicativa dedicada al tema de la resolución por Bob 
Atkins (1, 2, 3, 4, 5 y 6), a la que habría que añadir dos breves comentarios muy instructivos 
(1, 2) y un interesante análisis adicional (3). Atkins ha resumido sus planteamientos en un 
análisis que cierra muy bien sus puntos de vista sobre el tema (1 y 2 con ejemplos en 3a, 
3b). Los cálculos de resolución de Makoto Honda son muy interesantes, junto con sus 
comentarios, y es recomendable consultar sus artículos (1). Excelente el curso de fotografía 
de Luis Monje Arenas. 
 
Para acabar, son imprescindibles los estudios, muy técnicos, de Roger N. Clark (1) y 
Norman Koren (2), este último aporta interesantes referencias adicionales, y el documento 
de Zeiss “How to read MTF curves”, de H. H. Nasse. 
 
La Tesis doctoral de Charles Dickinson, “An Evaluation of the Current State of Digital 
Photography”, de 1999, es otra fuente importante, y se puede acceder a ella libremente (->). 
Otra Tesis Doctoral: Garrett M. Johnson, “Measuring Images: Differences, Quality And 
Appearance”, de 1998 (->). El artículo “How Small Should Pixel Size Be?” de Chen, 
Catrysse, El Gamal y Wandell, de 2000, es otra referencia de gran interés (->), así como 
“CMOS Imager Technology Shrinks and Image Performance“, de Rhodes et all (2004) (->) y 
“Roadmap for CMOS image sensors: Moore meets Planck and Sommerfeld”, de Catrysse y 
Wandell (2005) (->), para el tema de difracción y tamaño óptimo de “píxel”. 
 
Para el tema de la interpolación de colores en sensores de cámaras digitales es muy 
recomendable consultar “A Study of Spatial Color Interpolation Algorithms for Single-
Detector Digital Cameras”, también de Ting Chen, del Departamento de Ingeniería Eléctrica 
de la Universidad de Stanford (->), que repasa los distintos tipos de algoritmos y compara 
los resultados. 
 
Peter Karbe, actual jefe del departamento óptico de Leica, ha publicado en la revista LFI, 
número de marzo de 2006, el artículo “Form Follows Format”, que aporta claves muy 
 82 
interesantes para entender las diferencias entre formatos, explicado de forma sencilla e 
intuitiva. Igualmente, en el número de febrero de 2007, Michael J. Hussmann publica el 
artículo “The Nuts and Bolts” que resulta de gran interés para entender el concepto de 
profundidad de bits. 
 
Un excelente libro es “Leica Lens Compendium”, de Erwin Puts (Hove Books, 2003), que 
trata con mucho detalle temas genéricos de óptica y fotografía, además de ofrecer un 
apasionante análisis de los objetivos Leica. Muy asequible para un lector medio, aunque en 
inglés, son los temas de óptica fotográfica tratados por Paul van Walree. Por último, son 
muy recomendables los libros de óptica de Rudolf Kingslake, durante muchos años jefe del 
departamento de diseño óptico de Kodak y profesor en la Universidad de Rochester, 
especialmente “A History of the Photographic Lens” (Academic Press, 1989), para la historia 
de la óptica fotográfica, y “Lens Design Fundamentals” (Academic Press, 1978), para los 
principios del diseño de objetivos fotográficos. 
 
La Tesis Doctoral del que fuera director del departamento de diseño de Leica en Canadá, 
Walter Mandler, de 1980, dedicada a la optimización de los objetivos de tipo Doble Gauss, 
es una referencia aún hoy día. Se publicaron a partir de ella dos artículos en alemán en la 
revista científica Optik, y uno en inglés, de título “Design of basic double Gauss lenses”, en 
el International Optical Design Conference, Fisher ed., Proceedings SPIE 0237, pp. 222-232. 
Mandler publica “Leica lenses and early computers” en dos partes, en 1989, en Viewfinder, 
Leica Historical Society of America 22(1) y 22(2). Otro interesante artículo sobre la filosofía 
de diseño de Mandler, de Reginald P. Jonas y Michael D. Thorpe, se ha publicado en 2006 
(Proceedings SPIE 6342) con el título “Double Gauss lens design: a review of some 
classics”. Por último, hay un libro, difícil de encontrar, que es una absoluta referencia sobre 
estos temas. Se trata de "Image Clarity: High-Resolution Photography", de John B. Williams 
(Focal Press, 1990). 
 
Agradecemos a Norman Koren (programador de la aplicación Imatest), Erwin Puts (conocido 
experto en óptica fotográfica, analista y consultor), Peter D. Burns (ingeniero de Kodak, 
Imaging Research and Development Labs) y Valentín Sama (óptico y profesor de la 
Universidad Complutense) por atender a las consultas puntuales que les hemos planteado 
en algún momento de la elaboración de este trabajo. 
 
Rubén Osuna ©