Vamos a suponer que contamos con una nueva unidad de longitud que no es igual a un metro, ni a un centímetro, ni a una pulgada, sino igual a un aguacate. Para denotar las distancias podríamos entonces comenzar a utilizar esta nueva unidad: "eso te queda cerquita, a unos quinientos aguacates doblando la esquina". Podríamos también indicar la altura de las personas adoptando esta unidad. Por ejemplo, una persona alta quizá pueda llegar a medir 25 aguacates, y alguien no muy alto mediría a lo mejor unos 15 aguacates. Simple.
Pero vamos a ponernos un poco complicados, así quizá nos crean más listos. En vez de decir que la gente mide tantos aguacates de alto, lo que haremos será, primero, decretar una altura que llamaremos "normal", y esa altura normal de ahora en adelante vamos a decir que son exactamente 20 aguacates. Segundo, si usted por casualidades de la vida mide justo esos 20 aguacates de alto, pues no diremos que usted mide 20 aguacates, no señor. De nuevo, vamos a tratar de sonar sofisticados.
Si usted mide 20 aguacates de alto, su altura se denotará como de "20/20".
(Silencio) (Caras de incomprensión)
Este "20/20" es por supuesto una fracción, es decir, una división de un número entre otro. Lo mismo que "8/4" es un ocho dividido entre un cuatro, lo cual recordemos que nos da como resultado un dos. Pues "20/20" es un veinte dividido entre otro veinte, lo cual nos da como resultado un uno. Y este "uno" será lo que nos interesará en cuanto a su altura. Este "uno" denotará que usted mide exactamente lo mismo que la altura que decretamos como "normal", que son 20 aguacates. ¡Já! ¿Lo ve? Así que si usted mide 20 aguacates de alto, pues de ahora en adelante no medirá ningunos 20 aguacates de alto, no señor. Usted medirá "20/20".
(Silencio) (Todavía caras de incomprensión)
A ver, vamos con otro ejemplo. Si usted tiene una altura de 40 aguacates, entonces su altura será de 20/10.
(Algunos rumores y comentarios) (Más caras de absoluta incomprensión)
¿Que por qué 20/10? Veamos: la cosa es que 20 dividido entre 10 nos da como resultado un dos, y este dos es el que nos interesa, pues "dos" denota que su altura es el doble de la altura normal: 40 aguacates en vez de 20. ¿Se entiende la idea? En ningún momento diremos que alguien simplemente mide 40 aguacates de altura, no. Diremos que mide 20/10, y con eso estaremos diciendo lo mismo, pero de manera mucho más elegante e ilustrada: 20/10 nos da dos, es decir, esta persona es pues un tarajallo que mide el doble de lo normal, ja ja. Por el contrario, si alguien mide sólo 10 aguacates de alto, es decir, la mitad de altura decretada como normal, entonces su altura diremos que es 20/40... ¿Que por qué 20/40? Pues porque 20 entre 40 nos da 0.5, que denota mitad. Su altura es pues la mitad de la decretada como normal, 10 en vez de 20 aguacates, quizá un enano pues, ja ja...
(Rumores) (Todavía caras de incomprensión)
Por ridículo que suene todo lo anterior, algunos genios hace tiempo decidieron denotar la agudeza visual precisamente con ese esquema. La agudeza visual "normal" del ojo humano se suele designar como "visión 20/20", y ese 20/20 se interpreta tal cual como todo lo escrito arriba.
Si uno tiene visión 20/10, uno tiene mejor visión (el doble) que una persona con visión normal. Y si uno tiene visión 20/40, entonces uno tiene peor visión (la mitad) que alguien con visión "normal" 20/20. Nótese que esta notación se caracteriza por tener un numerador que nunca cambia: no importa si usted ve mejor o peor que lo "normal", el numerador es siempre igual a 20.
¿Y qué tan bien ve una persona con visión 20/20? Una persona con visión 20/20 puede distinguir entre sí dos líneas paralelas separadas por un minuto de arco, o lo que es lo mismo, puede distinguir dos líneas separadas por unos 1.75 mm (1/16 de pulgada) desde una distancia de 20 pies (por eso los 20). La visión 20/20 se denomina de hecho visión 6/6 en el sistema métrico, porque 20 pies son unos 6 metros.
¿Y los 1.75 mm, de dónde salen? Un círculo tiene 360 grados, y cada grado está dividido en 60 minutos de arco. Recordemos una fórmula sencilla de geometría: la circunferencia de un círculo de radio R es igual a 2 * PI * R. Para un círculo de 20 pies de radio, es decir, de 6 metros de radio, la circunferencia sería entonces de 2 * PI * 6 metros. Eso da aprox. 37.7 metros. Si dividimos eso entre 360 (los grados en el círculo) nos da que cada grado mide aprox. 10.47 cm. Y si dividimos eso entre 60 (el número de minutos de arco en el grado) nos da que cada minuto de arco de ese gran círculo mide 1.75mm. Una visión 20/20 a más de 20 pies o más de 6 metros no logra distinguir esas líneas paralelas separadas por apenas 1.75 mm; las ve como una sola raya.
Una visión 20/10 es mejor que la normal; puede distinguir a 20 pies las cosas que una persona con visión normal (o 20/20) solo puede distinguir a 10 pies o menos. Una visión 20/40 es peor que la visión normal; sólo a 20 pies o menos puede distinguir lo que una persona con visión normal puede distinguir a 40 pies. En los Estados Unidos, una persona con una visión de 20/200 o peor se considera "legalmente ciega" (legally blind).
De manera natural hay personas que tienen una agudeza visual mejor que 20/20, tan buena como 20/10 o 20/8. Los halcones y otras aves tienen una agudeza visual que está por el orden de 20/2.
¿Por qué se decidió usar esa notación? No tengo idea. Si alguien tiene la misma agudeza visual que lo considerado normal, ¿por qué no llamar a eso simplemente agudeza visual=1? Y si el halcón ve 10 veces mejor que nosotros, ¿por qué no llamar a eso simplemente agudeza visual=10? O si querían fracciones: si el halcón distingue a 200 metros lo que una visión "normal" humana distingue sólo a 20 metros o menos, ¿por qué no denotar eso directamente como "200/20"? Pues no. Se les ocurrió que entre todas las fracciones que dan como resultado diez, 20/2 es mejor que 200/20, pese a que los números que están comparándose sean, de hecho, 200 y 20, y no 20 y 2.
Desde mi punto de vista, la notación para agudeza visual es arbitraria, enredada y absurda. Cualquier unidad directa, o una fracción con numerador variable y denominador fijo (y no al revés), sería más conveniente. Pero con todo y su enredo, la notación que se usa es la que se usa, así que no me reclamen a mí. Yo sólo puedo decir que hubiera preferido unos simples aguacates.
En fin, quise escribir sobre agudeza visual porque en el próximo post hablaré de resoluciones de pantallas y su relación con nuestros ojos. Una resolución muy alta no siempre es necesaria o aprovechable, y esto es algo que viene muy al caso frente a esta nueva resolución "4K" que está mercadeándose como si fuera un avance gigantesco en calidad de imagen sobre la "vieja" resolución Full HD de 1920x1080. Resulta que disfrutar o aprovechar una resolución superior depende de una combinación de variables: la resolución del contenido, la resolución de la pantalla, el tamaño de esa pantalla, la distancia (super importante) a la cual estén nuestros ojos de esa pantalla, y por supuesto, nuestra agudeza visual.
Pero me estoy adelantando. Todo esto para el próximo post.
2 comments:
Excelente, no sabía mucho de la agudeza visual, como se medía. Muy buena explicación. Cierto que es complicada la notación, tal como el sistema imperial de unidades.
Por fin encuentro una buena explicación a como se mide la agudeza visual y de paso la complicación que tiene la unidad que decidieron emplear pues mucho mas sencillo de entender sería si a 20' lo tomaran como unidad y esta unidad comparada con la agudeza la expresaran en fraccionar o decimal, realmente seria mucho mas compresible decir que tiene una agudeza visual de 1/5 o 0,2 que una de 20/100. En alguna ocasión una optometra me explico lo de los 20 pies pero ello no es suficiente para comprender el asunto y además cuando he buscado mas allá , las explicaciones suelen volverse una galimatias y no ser completas. Muchas gracias por tan buena entrada.
Post a Comment