Los televisores 4K prometen ofrecer una experiencia visual mucho mejor que la de las tecnologías previas.
Esto se argumenta por el tamaño de los píxeles, la unidad mínima que forma una imagen digital. Se dice que si su tamaño es menor, el ojo es capaz de percibir muchos más detalles en la imagen. Por lo tanto, la experiencia sería mucho más realista. Pero, ¿es esto cierto?
Hoy en día pretendemos que el ser humano se maquinice y la máquina se humanice. Por eso no es de extrañar que el mercado proponga productos transhumanistas que vayan más allá de nuestras capacidades naturales. Una de estas fatuas pretensiones es la de que el ojo humano sea capaz de discernir objetos diminutos.
Los antiguos griegos tenían a Linceo, héroe mitológico que, según el poeta Píndaro, era "el hombre que tenía los ojos con la mayor agudeza de todos los que vivían en la tierra".
Podría ser que el nombre provenga del griego lynx (lince), animal que se creía que poseía una mayor agudeza visual. Así que, si no somos Linceo, lo primero que hay que preguntarse es: ¿cuál es la agudeza visual normal de un ojo humano?
Se llama agudeza visual a la capacidad del ojo de distinguir objetos pequeños, un concepto que se puede cuantificar. Depende no solo del tamaño del objeto observado, sino también de la distancia a la que este se encuentra respecto al observador.
De esta forma diríamos, por ejemplo, que Juan ve una hormiga de 2 cm si esta se encuentra a una distancia menor de 1 metro. Una manera de ahorrar lenguaje y simplificar esta dependencia de la distancia es usar tamaños angulares.
Veámoslo con un ejemplo:
La Luna tiene un radio ecuatorial de 1.737 km y se encuentra a una distancia de la Tierra de unos 406.400 km en su apogeo (punto más cercano en la órbita).
Si formamos un triángulo rectángulo cuyos catetos son esas dos distancias, tenemos que el ángulo que forma la distancia entre la Tierra y la Luna con la hipotenusa es aquel cuya tangente es dos veces el cociente entre el radio de la Luna y su distancia.
Este cálculo da como resultado 29,39 minutos de arco. De manera similar a lo que sucede con las medidas de tiempo de un reloj, 60 minutos de arco son un grado y 60 segundos de arco, un minuto de arco.
En este caso se dice que la luna subtiende 29,39 arcominutos. Cuando el satélite se acerca a nuestro planeta (perigeo) disminuye su distancia a 356.000 km, en cuyo caso el tamaño angular aumenta a 33,55 minutos de arco.
Esta diferencia de 4,15 arcominutos explica fenómenos como la superluna. Por eso vemos con más detalle la Luna llena en su perigeo que en su apogeo.
Conos, bastones y píxeles
La agudeza visual de un ojo está limitada por la densidad de células fotosensibles -conos y bastones, los píxeles de nuestro ojo- de nuestra retina y el llamado límite de difracción -la acción de una apertura hace que la luz proveniente de una fuente puntual no converja en un único punto-.
Estos dos límites, uno anatómico y otro físico, establecen un primer valor máximo de agudeza visual entorno a los 48 segundos de arco. Cualquier objeto cuyo tamaño angular sea menor que ese no se podría distinguir.
Sin embargo, existen otros factores que limitan aún más la agudeza visual. Por un lado, la visión no es solo óptica, también hay un proceso de conversión de señal luminosa en eléctrica y procesado neuronal.
Por el otro, la óptica del ojo no es perfecta: las llamadas aberraciones ópticas degradan la formación de imágenes.
Algunos estudios sitúan el umbral real en un minuto y medio de arco. Un valor intermedio es el que se utiliza en las ópticas. Cuando vamos a una óptica a medir nuestra agudeza visual nos piden que observemos lo que se denomina un test de Snellen.
Este asume que un ojo sin errores refractivos (miopía, hipermetropía o astigmatismo) u otras patologías debería ver una letra que subtiende un tamaño angular de un minuto de arco.
Un televisor solo apto para linces
Cuando hablamos de televisores 4K, 8K o cualquier otro dispositivo conformado por píxeles, el parámetro importante no es su número. Como hemos visto, tampoco su tamaño en micras. Lo importante es el tamaño angular que cada uno de estos píxeles proyecte sobre nuestra retina.
Por lo tanto, lo aconsejable es estimar la distancia a la que se situaría el televisor, averiguar el tamaño de píxel real de la pantalla y obtener el tamaño angular que este forma en nuestra retina.
Si este número está por debajo de los valores dados podremos concluir que nuestros ojos no aprovecharían de forma plena la resolución de la pantalla.
Supongamos que el tamaño de píxel de la pantalla del televisor es de 0,25 mm. En tal caso, asumiendo una agudeza visual de un minuto de arco, solo aprovecharíamos completamente la resolución del dispositivo situándonos a una distancia menor de 860 mm.
Así que, volviendo a los griegos, sugiero, permítaseme la broma, que algunas pantallas se llamen TeleLynx.
Solo Linceo, con su vista de lince, podría apreciarlas.
The Conversation. Sergio Barbero Briones es científico especialista en óptica, en Instituto de Óptica del Consejo Superior de Investigaciones Científicas (IO - CSIC), de España.
Sergio Barbero Briones
BBC MundoOtras noticias de Televisión de alta definición
Más leídas de Tecnología
Llega Halloween. Así se vería Chucky en la vida real, según la inteligencia artificial
Viral en TikTok. La pregunta que debés hacerle a ChatGPT si quieres saber qué conoce acerca de uno mismo
Paso a paso. Por qué recomiendan desactivar el Meta IA de WhatsApp: cómo hacerlo
Listado completo. Los códigos secretos de Netflix para ver películas ocultas en la plataforma