lunes, 31 de julio de 2017

3.2. instrumentos de medición directa


INSTRUMENTOS DE MEDICIÓN DIRECTA

La mayoría de los instrumentos básicos de medición lineal o de propósitos generales están representados por la regla de acero, vernier, o el micrómetro.

Las reglas de acero se usan efectivamente como mecanismo de medición lineal; para medir una dimensión la regla se alinea con las graduaciones de la escala orientadas en la dirección de medida y la longitud se lee directamente. Las reglas de acero se pueden encontrar en reglas de profundidad, para medir profundidades de ranuras, hoyos, etc.

También se incorporan a los calibradores deslizables, adaptados para operaciones de mediciones lineales, a menudo más precisos y fáciles de aplicar que una regla de medición. Un tipo especial de regla de acero es el vernier o calibrador.

Clasificación de instrumentos y aparatos de medición

 Instrumentos de medición analógica y digital

Instrumentos Analógicos.

El término: Analógico Se refiere a las magnitudes o valores que varían con el tiempo en forma continua como la distancia y la temperatura, la velocidad, que podrían variar muy lento o muy rápido como un sistema de audio.

Voltímetro análogo

En la vida cotidiana el tiempo se representa en forma analógica por relojes (de agujas), y en forma discreta (digital) por displays digitales .En la tecnología analógica es muy difícil almacenar, manipular, comparar, calcular y recuperar información con exactitud cuando esta ha sido guardada, en cambio en la tecnología digital (computadoras, por ejemplo), se pueden hacer tareas muy rápidamente, muy exactas, muy precisas y sin detenerse. La electrónica moderna usa electrónica digital para realizar muchas funciones que antes desempeñaba la electrónica analógica.

Instrumentos Digitales.

El término: Digital Se refiere a cantidades discretas como la cantidad de personas en una sala, cantidad de libros en una biblioteca, cantidad de autos en una zona de estacionamiento, cantidad de productos en un supermercado, etc.

Multímetro digital

Los Sistemas digitales tienen una alta importancia en la tecnología moderna, especialmente en la computación y sistemas de control automático. La tecnología digital se puede ver en diferentes ámbitos: Analógico y Digital. ¿Cuál es la diferencia? mecánico: llaves electromecánico: el relé/relay hidráulico neumático electrónico .Los dos últimos dominan la tecnología.

3.1.4. errores de las mediciones

Al hacer mediciones, las medidas que se obtienen nunca son exactamente iguales, aun cuando se efectué  por la misma persona, sobre  misma pieza, con el mismo instrumento, el mismo método y el mismo ambiente, en sentido estricto, es imposible hacer una medición totalmente exacta por lo tanto siempre se presentan errores al hacer las mediciones. Los errores pueden ser despreciables o significativos dependiendo de las circunstancias en que se dé la medición.

 Medida del error
En una serie de lecturas sobre una misma dimensión constante:

La precisión y la exactitud no son términos intercambiables entre sí y los métodos estadísticos dan específicamente una medida de la precisión y no de la exactitud.

Inexactitud o Incertidumbre = valor máximo – valor mínimo


En este artículo hemos visto las diferencias entre dos conceptos muy relacionados entre si: la incertidumbre y la precisión.  Hemos visto que la precisión es un componente muy importante de la incertidumbre. Sin embargo, la incertidumbre incluye otras fuentes de error que permiten afirmar que el valor considerado verdadero esta dentro del intervalo de  valores asociado a verificar la trazabilidad del método. Es aquí, por tanto, donde vemos otra diferencia muy importante entre incertidumbre y precisión: incertidumbre y trazabilidad están muy relacionados entre si, no así la precisión.

Error absoluto = valor leído – valor convencionalmente verdadero correspondiente.

  • Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.

  • Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. no tiene unidades.

Clasificación de errores en cuanto a su origen

Atendiendo al origen donde se producen el error, puede hacerse una clasificación general de estos en errores causados por el instrumento de medición (errores humanos) y causados por el medio ambiente en que se hace la medición.

Errores por el instrumento o equipo de medición
Las causas de errores atribuibles al instrumento, pueden deberse a defectos de fabricación (dado que es imposible construir aparatos perfectos). Estos pueden ser deformaciones, falta de linealidad, imperfecciones mecánicas, falta de paralelismo.
El error instrumental tiene valores máximos permisibles, establecidos en normas o información técnica de fabricantes de instrumentos, y puede determinarse mediante calibración.

Errores del operador o por el método de medición
Las causas del error aleatorio se deben al operador, falta de agudeza visual, descuido, cansancio, alteraciones emocionales. Para reducir este tipo de errores es necesario adiestrar al operador, otro tipo de error son debidos al método o procedimiento con que se efectúa  medición, el principal es  falta de un método definido y documentado.

Error por el uso de instrumentos no calibrados
Los instrumentos no calibrados o cuya fecha de calibración esta vencida, así como instrumentos sospechosos de presentar alguna anormalidad en su funcionamiento no deben utilizar para realizar mediciones hasta que no sean calibrados y autorizados para su uso. Para efectuar mediciones de gran exactitud es necesario corregir s lecturas obtenidas con un instrumento o equipo de medición, en función del error instrumental determinado mediante calibración.

  Error por  fuerza ejercida al efectuar mediciones (flexión a lo largo de la superficie de referencia)
La fuerza ejercida al efectuar mediciones puede provocar deformaciones en  pieza por medir, el instrumento o ambos, por lo tanto es un factor importante que debe considerarse para elegir adecuadamente el instrumento de medición para cualquier aplicación particular.


Error por instrumento inadecuado
Antes realizar cualquier medición es necesario determinar cuál es el instrumento o equipo de medición más adecuado para  aplicación de que se trate, además de  fuerza de medición es necesario tener presente otros factores tales como:
*cantidad de piezas por medir.
*tipo de medición (externa, interna, altura, profundidad.)
*tamaño de pieza y exactitud deseada.

Existe una gran variedad de instrumentos y equipos de medición, abarcando desde un simple calibrador vernier hasta  avanzada tecnología de s máquinas de medición por coordenadas de control numérico, comparadores ópticos micrómetros ser y rugosímetros, cuando se miden las dimensiones de una pieza de trabajo  exactitud de  medida depende del instrumento de medición elegido. Por ejemplo si se ha de medir el diámetro exterior de un producto de hierro fundido, un calibrador vernier sería suficiente; sin embargo, si se va a medir un perno patrón, aunque tenga el mismo diámetro del anterior, ni siquiera un micrómetro de exteriores tendría  exactitud suficiente para este tipo de aplicaciones, por lo tanto se debe usar un equipo de mayor exactitud.

Error por método de sujeción del instrumento
El método de sujeción del instrumento puede causar errores, un indicador de caratula está sujeto a una distancia muy grande del soporte y al hacer  medición  fuerza ejercida provoca una desviación del brazo.  La mayor parte del error se debe a  deflexión del brazo, no del soporte para minimizarlo se debe colocar siempre el eje de medición lo más posible al eje del soporte.

Error por posición
Este error lo provoca  coloración incorrecta de s caras de medición de los instrumentos, con respecto de s piezas por medir.

Error por desgaste
Los instrumentos de medición como son cualquier otro objetivo, son susceptibles de desgaste, natural o provocado por el mal uso. En caso concreto de los instrumentos de medición el desgaste puede provocar una serie de errores durante su utilización, deformaciones de sus partes, juego entre sus ensambles falta de paralelismo o plenitud entre sus caras de medición.

Error por condiciones ambientales
Entre las causas de errores se encuentran las condiciones ambientales en que se hace  medición; entre las principales destacan  temperatura,  humedad, el polvo y s vibraciones o interferencias (ruido) electromagnéticas extraña.

Humedad: debido a los óxidos que se pueden formar por humedad excesiva en s caras de medición del instrumento o en otras partes o a las expansiones por absorción de humedad en algunos materiales, establece como norma una humedad relativa.

Polvo: los errores debidos a polvo o mugre se observan con mayor frecuencia de lo esperado, algunas veces alcanzan el orden de 3 micrómetros. Para obtener medidas exactas se recomienda usar filtros para el aire que limiten  cantidad y el tamaño de s partículas de polvo ambiental.

Temperatura: en mayor o menor grado, todos los materiales que se componen tanto s piezas por medir como los instrumentos de medición, están sujetos a variaciones longitudinales debido a cambios de temperatura.

Error de paralaje
Cuando una escala y su línea índice no se encuentran en el mismo plano, es posible cometer un error de lectura debido al paralaje, como es mostrado abajo. Las direcciones de visión (a) y (c) producirán este error, mientras que la lectura correcta es la vista desde la dirección (b).
Este error ocurre debido a  posición incorrecta del operador con respecto a  escala graduada del instrumento de medición,  cual está en un plano diferente, es más común de lo que se cree. El error de paraje es más común de lo que se cree, en una muestra de 50 personas que usan calibradores con vernier  dispersión fue de 0.04 mm. Este defecto se corrige mirando perpendicularmente el plano de medición a partir del punto de lectura.

Error de Abbe
El principio de Abbe establece que la exactitud máxima es obtenida cuando los ejes de la escala y de medición son comunes. Esto es debido a que cualquier variación en el ángulo relativo (q) de la punta de medición de un instrumento, tal como la de un micrómetro tipo calibrador causa desplazamiento que no es medido sobre la escala del instrumento y esto es un error de Abbe (e=I-L en el diagrama). El error de rectitud del husillo o variación de la fuerza de medición pueden causar que q varié y el error se incrementa conforme lo hace R.

3.1.3. clasificación de instrumentos y aparatos de medición

Clasificación de instrumentos y aparatos de medición en metrología dimensional Linear Con trazos o divisiones.

Calibrador vernier.
El calibrador vernier es uno de los instrumentos mecánicos para medición lineal de exteriores, medición de interiores y de profundidades más ampliamente utilizados. Se creé que la escala vernier fue inventado por un portugués llamado Petrus Nonius. El calibrador vernier actual fue desarrollado después, en 1631 por Pierre Vernier. 

Micrómetro. 
El micrómetro (del griego micros, pequeño, y metros, medición), también llamado Tornillo de Palmer, es un instrumento de medición cuyo funcionamiento está basado en el tornillo micrométrico y que sirve para medir las dimensiones de un objeto con alta precisión, del orden de centésimas de milímetros (0,01 mm) y de milésimas de milímetros (0,001mm).

Bloques de patrón. 
Los bloques patrón son los dispositivos de longitud materializada más precisa que existe y es, además, donde inicia la diseminación de la unidad de longitud hasta sus últimas consecuencias (producto final). 

Calibradores de espesor. 
Dispositivo que a veces se usa en estampado para determinar si existe un espacio libre aceptable entre el perforador y los componentes del troquel. Calibradores limite Tolerancias estrechas o estrictas que aseguran que un calibrador de inspección proporcione una certidumbre razonable de medición. Las tolerancias de calibración son típicamente diez veces más exactas que la pieza que el calibrador de inspeccionar. Esto es que el limite e ampliamente amplio y facilita la excelencia en la calidad. 

Comparadores mecánicos. 
El equipo de medición óptico mas usado en muchas empresas es el comparador óptico, también conocido como proyector de perfiles, porque es un equipo que sirve para medir piezas relativamente pequeñas por medio de una imagen amplificada y proyectada a una pantalla. 

Comparadores neumáticos. 
La base neumática permite realizar sujeciones sobre el mármol de granito o sobre cualquier superficie plana mecanizada Maquina de medición de redondez Dispositivo sofisticado de inspección con un husillo de precisión que mide diversas características circulares o cilíndricas. 

Medidores de espesor de recubrimiento. 
Instrumentos disponemos de medidores de espesores de capas para determinar el espesores de las capas y pintura Maquinas de medición por coordenadas. La Máquina de Medición por Coordenadas (CMM) puede ser definida como "una máquina que emplea tres componentes móviles que se trasladan a lo largo de guías con recorridos ortogonales, para medir una pieza por determinación de las coordenadas X, Y y Z de los puntos de la misma con un palpador de contacto o sin él y sistema de medición del desplazamiento (escala), que se encuentran en cada uno de los ejes". 

Reglas ópticas. 
Funcionan igual que los codificadores ópticos, pero en lugar de un disco utilizan una regla Rugosimetros. Los rugosímetros sirven para determinar con rapidez la rugosidad de las superficies. Los rugosímetros muestran la profundidad de la rugosidad media.

 Goniómetro. 
El goniómetro es un instrumento de medición que se utiliza para medir ángulos, comprobación de conos y puesta a punto de las máquinas -herramientas de los talleres de mecanizado. 

Regla de senos. 
Las reglas de senos son patrones que permiten materializar ángulos con muy elevada precisión, mediante el auxilio de patrones longitudinales. Además de esta primera misión específica es metrología dimensional, las reglas de senos pueden utilizarse también como elementos auxiliares en la medida de ángulos, en el trazado angular de referencias y en la calibración de otros instrumentos de medida como niveles, autocolimadores, etc«

3.1.2. campo de aplicaciones de la metrología dimensional

CAMPOS DE APLICACIÓN DE LA METROLOGÍA

  • Dar a conocer al asistente de forma práctica el campo de aplicación y la importancia de la metrología dimensional.
  •  Dar a conocer al asistente las magnitudes de influencia en el campo de Metrología dimensional.
  •  Explicar los requisitos de los distintos métodos de calibración en Metrología dimensional.-Proporcionar criterios y conocimientos básicos para desarrollar una estimación de incertidumbre de la medición.

Tipos de Metrología

La metrología tiene varios campos: metrología legal, metrología industrial y metrología científica son divisiones que se ha aceptado en el mundo encargadas en cubrir todos los aspectos técnicos y prácticos de las mediciones:

La Metrología Legal
Este término está relacionado con los requisitos técnicos obligatorios. Un servicio de metrología legal comprueba estos requisitos con el fin de garantizar medidas correctas en áreas de interés público, como el comercio, la salud, el medio ambiente y la seguridad. El alcance de la metrología legal depende de las reglamentaciones nacionales y puede variar de un país a otro.

La Metrología Industrial
Esta disciplina se centra en las medidas aplicadas a la producción y el control de la calidad. Materias típicas son los procedimientos e intervalos de calibración, el control de los procesos de medición y la gestión de los equipos de medida. En la Metrología industrial la personas tiene la alternativa de poder mandar su instrumento y equipo a verificarlo bien sea, en el país o en el exterior. Tiene posibilidades de controlar más este sector, la metrología industrial ayuda a la industria en su producción, aquí se distribuye el costo, la ganancia.

La Metrología Científica
Se ocupa de los problemas teóricos y prácticos relacionados con las unidades de medida (como la estructura de un sistema de unidades o la conversión de las unidades de medida en fórmulas), del problema de los errores en la medida; del problema en las propiedades metrológicas de los instrumentos de medidas aplicables independientemente de la magnitud involucrada.


3.1.1. introducción a la metrología dimensional

La METROLOGÍA DIMENSIONAL es la ciencia que se ocupa de la medición de MAGNITUDES GEOMÉTRICAS: 

- Dimensiones: longitudes y ángulos. 
- Formas: planitud, cilindricidad, … 
- Acabado Superficial: rugosidad. 

Es una parte fundamental del Control de Calidad en una empresa de Fabricación Mecánica. 
Permite: 

- Verificar la producción (tolerancias y acabados de las piezas que se fabrican). 
- Verificar el estado de nuestras máquinas.

Los costes asociados a la medición aumentan exponencialmente con la precisión exigida a la cota a medir debido a: 

- Tiempo necesario para la medida. 
- Cualificación del personal. 
- Coste, mantenimiento y certificación de los instrumentos de medida.


DEFINICIONES BÁSICAS(*): 

- RESOLUCIÓN: mínima variación de la magnitud a medir que es detectable por el instrumento.

- INCERTIDUMBRE: error máximo. Máxima diferencia entre el resultado obtenido y el verdadero valor de una medida. 

- REPETIBILIDAD: intervalo de variación de los resultados de la medición de una cierta magnitud, repitiendo la medición con los mismos instrumentos, procedimiento y condiciones. 

- CALIBRACIÓN: procedimiento que permite determinar la incertidumbre de un instrumento hasta su próxima calibración.

3. metrología electromecánica 3.1. conceptos básicos de la metrología dimensional

Metrología legal
La metrología legal se ocupa de la verificación de los patrones e instrumentos de medida utilizados en las transacciones comerciales, en la salud, en la seguridad pública y en el medio ambiente. Esta rama de la metrología asegura que las partes involucradas en una medición obtengan resultados confiables dentro de los márgenes de error tolerados por la reglamentación vigente. Es de fundamental importancia para el comercio exterior ya que los países involucrados en una transacción deben medir de manera uniforme.
Metrología científica
También conocida como “metrología general”. “Es la parte de la Metrología que se ocupa a los problemas comunes a todas las cuestiones metrológicas, independientemente de la magnitud de la medida”. Se ocupa de los problemas teóricos y prácticos relacionados con las unidades de medida (como la estructura de un sistema de unidades o la conversión delas unidades de medida en fórmulas), del problema de los errores en la medida; del problema en las propiedades metrológicas de los instrumentos de medidas aplicables independientemente de la magnitud involucrada .En la Metrología científica hay diferentes áreas específicas. Algunas de ellas son las siguientes:
• Metrología de masa, que se ocupa de las
• Medidas de masa
• Metrología dimensional, encargada de las medidas de longitudes y ángulos.
• Metrología de la temperatura, que se refiere a las medidas de las temperaturas.
• Metrología química, que se refiere a todos los tipos de mediciones en la química.
Metrología tecnológica
La caracterización de materiales es uno de los pilares que sostiene el auge en el desarrollo de nuevas tecnologías y nuevos materiales.
Además de las propiedades básicas como estructura, morfología, textura, color o propiedades mecánicas, cobran gran importancia en esta revolución tecnológica. En este marco de efervescencia tecnológica, la presencia de Metrología es obligada.

 Metrología. Ciencia de las mediciones y sus aplicaciones.
ISO. La ISO (Organización Internacional de Normalización) es una federación mundial de organismos nacionales de normalización (miembros ISO). La labor de preparación de normas internacionales es normalmente llevada a cabo a través de los comités técnicos de ISO.
Sistema Internacional de Magnitudes (ISQ2). Sistema de magnitudes basado en las siete magnitudes básicas: longitud, masa, tiempo, corriente eléctrica, temperatura termodinámica, cantidad de sustancia e intensidad luminosa.
Sistema internacional de Unidades (Sistema SI). Sistema de unidades basado en el Sistema Internacional de Magnitudes, con nombres y símbolos de las unidades, y con una serie de prefijos con sus nombres y símbolos, así como reglas para su utilización, adoptado por la Conferencia General de Pesas y Medidas (CGPM).
Medición: es el conjunto de operaciones que tiene por objeto determinar el valor de una magnitud.
Medición: Proceso que consiste en obtener experimentalmente uno o varios valores que pueden atribuirse razonablemente a una magnitud.
Medida: es la evaluación de una magnitud hecha según su relación con otra magnitud de la misma especie adoptada como unidad. Tomar la medida de una magnitud es compararla con la unidad de su misma especie para determinar cuántas veces ésta se halla contenida en aquella.
Magnitud: atributo de un fenómeno que puede ser distinguido cualitativamente y determinado cuantitativamente.
Magnitud: Propiedad de un fenómeno, cuerpo o sustancia, que puede expresarse cuantitativamente mediante un número y una referencia.
Magnitud de base, magnitud básica:Magnitud de un subconjunto elegido por convenio, dentro de un sistema de magnitudes dado, de tal manera que ninguna magnitud del subconjunto pueda ser expresada en función de las otras.
La primera magnitud base es: Longitud, su unidad es el metro.
Patrón: es la medida materializada de un aparato o de un sistema de medición destinado a definir, realizar, conservar o reproducir una unidad.
Mensurando: Magnitud que se desea medir.
Método de medida: Descripción genérica de la secuencia lógica de operaciones utilizadas en una medición.
Exactitud de medida (exactitud): Proximidad entre un valor medido y un valor verdadero de un mensurando.
Precisión de medida (precisión): Proximidad entre las indicaciones o los valores medidos obtenidos en mediciones repetidas de un mismo objeto, o de objetos similares, bajo condiciones especificadas.
Calibración: Operación que bajo condiciones especificadas establece, en una primera etapa, una relación entre los valores y sus incertidumbres de medida asociadas obtenidas a partir de los patrones de medida, y las correspondientes indicaciones con sus incertidumbres asociadas y, en una segunda etapa, utiliza esta información para establecer una relación que permita obtener un resultado de medida a partir de una indicación.
Instrumento de medida: Dispositivo utilizado para realizar mediciones, solo o asociado a uno o varios dispositivos suplementarios.

domingo, 16 de julio de 2017

2.3.11. Radiómetros.

El radiómetro, es un instrumento para detectar y medir la intensidad de energía térmica radiante, en especial de rayos infrarrojos.
Un radiómetro es un tubo de vidrio o cuarzo en el que se ha hecho un vacío parcial; dentro del tubo se encuentra un eje con cuatro paletas muy ligeras. Una cara de las paletas está ennegrecida, mientras que la otra es de metal pulimentado. Al recibir radiación externa el lado negro de una paleta absorbe más radiación que el lado pulimentado de la paleta opuesta, lo que hace que la primera paleta se aleje de la fuente de radiación. Dicho efecto produce una rotación constante de las paletas, con una velocidad que depende de la intensidad de la energía radiante.
Estos radiómetros mecánicos, que antes se empleaban en instrumentos meteorológicos para efectuar medidas en las capas altas de la atmósfera, han sido sustituidos casi por completo por dispositivos electrónicos de estado sólido que miden la energía radiante de forma más directa y precisa.

2.3.10. Calorimetros.

Un colorímetro es cualquier herramienta que identifica el color y el matiz para una medida más objetiva del color.
El colorímetro también es un instrumento que permite medir la absorbancia de una disolución en una frecuencia de luz específica. La frecuencia es determinada por el operario del colorímetro. Por eso hace posible descubrir la concentración de un soluto conocido que sea proporcional a la absorción.
Diferentes sustancias químicas absorben diferentes frecuencias de luz. Los colorímetros se basan en el principio de que la absorbancia de una sustancia es proporcional a su concentración Ley de Beer-Lambert, y por eso las sustancias más concentradas muestran una lectura más elevada de absorbancia. Se usa un filtro en el colorímetro para elegir el color de luz que más absorberá el soluto, para maximizar la precisión de la lectura. Note que el color de luz absorbida es el opuesto del color de la muestra, por lo tanto un filtro azul sería apropiado para una sustancia naranja.
Los sensores miden la cantidad de luz que atraviesa la disolución, comparando la cantidad entrante y la lectura de la cantidad absorbida.
Se realiza una serie de soluciones de concentraciones conocidas de la sustancia química en estudio y se mide la absorbancia para cada concentración, obteniendo así una gráfica de absorbancia respecto a concentración. Por extrapolación de la absorbancia en la gráfica se puede encontrar el valor de la concentración desconocida de la muestra.
Otras aplicaciones de los colorímetros son para cualificar y corregir reacciones de color en los monitores, o para calibrar los colores de la impresión fotográfica. Los colorímetros también se utilizan en personas con déficit visual (ceguera o daltonismo), donde los nombres de los colores son anunciados en medidas de parámetros de color, p. ej. saturación y luminiscencia.

2.3.9. Fotómetros.

En un amplio sentido, un fotómetro es cualquier instrumento usado para medir la intensidad de la luz. Los que se utilizan para la fotometría, son instrumentos para detectar:
Los dos más importantes en la astronomía son el fotómetro fotoeléctrico y el fotómetro CCD: el primero de ellos, aunque se utiliza todavía, está en desuso ya que el chip CCD presenta numerosas ventajas frente al anterior (linealidad, precios más reducidos, mayor fiabilidad, amplia respuesta al espectro electromagnético, mayor precisión, etc.).
Aparato que sirve para medir la luz visible, los rayos infrarrojos, así como los rayos ultravioleta en las películas para vidrio. Sobre todo las inteligentes fabricadas con Nanotecnología, mismas que se adhieren a los vidrios, ya sea para su seguridad, decoración o para filtrar el paso de la luz visible y reducir las temperaturas de los interiores de casa habitación o comercios, oficinas, automóviles.
Antes de que se desarrollaran los elementos electrónicos sensibles a la luz, la fotometría se realizaba mediante la estimación a ojo. El flujo luminoso relativo de una fuente se comparaba con una fuente estándar. El fotómetro se colocaba de tal manera que la iluminancia de la fuente que se investigaba era igual a la de fuente estándar, ya que el ojo humano puede juzgar iluminancias iguales. Los flujos luminosos relativos podían calcularse entonces ya que la iluminancia disminuye proporcionalmente al inverso del cuadrado de la distancia. Un ejemplo estándar de tal fotómetro consistía en un pedazo de papel con un punto de aceite que volvía el papel levemente más transparente: cuando la mancha no era visible desde ningún lado, la iluminancia de ambos lados era igual.
En 1861, tres tipos eran de uso común: el fotómetro de Rumford, el fotómetro de Ritchie y los fotómetros que usaban la extinción de sombras, que era considerado el más preciso.1​ ​
El fotómetro fotoeléctrico nació en Inglaterra a fines del siglo XIX, se mejoró en los Estados Unidos a inicios del siglo XX y alcanzó su madurez en la década de 1950, cayendo en desuso a medida que la tecnología digital primero, y los CCD después, fueron aumentando la precisión y reduciendo su precio.
En los artículos astronómicos más recientes (año 2005) se ha presentado la magnitud de las estrellas del cúmulo abierto M67 con una precisión de 0,0001 magnitudes o más, algo impensable hace sólo unos pocos años cuando la máxima precisión era de 0,001 magnitudes (puede compararse con las 0,01 magnitudes que puede extraerse de la fotometría fotográfica, empleando para ello microdensitómetros de alta calidad).

2.3.8. Interferómetros.

El interferómetro es un instrumento óptico que emplea la interferencia de las ondas de luz para medir con gran precisión longitudes de onda de la misma luz.
Hay muchos tipos de interferómetros, en todos ellos se utilizan dos haces de luz que recorren dos trayectorias ópticasdistintas, determinadas por un sistema generalmente de espejos y prismas que, finalmente, convergen para formar un patrón de interferencia.
Áreas de aplicación: agricultura, biotecnología, cosméticos, ciencias de la tierra, de la atmósfera y mineralogía, control medioambiental, alimentos y bebidas, ciencia forense, medicina y química clínica, investigación militar, industria del petróleo, industria farmacéutica, ciencia de los polímetros, ciencia de los materiales, industria textil, etc.
Para medir la longitud de onda de un rayo de luz monocromática se utiliza un interferómetro dispuesto de tal forma que un espejo situado en la trayectoria de uno de los haces de luz puede desplazarse una distancia pequeña, que puede medirse con precisión, con lo que es posible modificar la trayectoria óptica del haz. Cuando se desplaza el espejo una distancia igual a la mitad de la longitud de onda de la luz, se produce un ciclo completo de cambios en las franjas de interferencia. La longitud de onda se calcula midiendo el número de ciclos que tienen lugar cuando se mueve el espejo una distancia determinada.
Cuando se conoce la longitud de onda de la luz empleada, pueden medirse distancias pequeñas en la trayectoria óptica analizando las interferencias producidas. Esta técnica se emplea, por ejemplo, para medir el contorno de la superficie de los espejos de los telescopios.

2.3.7. Cámaras fotográficas.

Una cámara fotográfica o cámara de fotos es un dispositivo utilizado para capturar imágenes o fotografías. Es un mecanismo antiguo para proyectar imágenes, en el que una habitación entera desempeñaba las mismas operaciones que una cámara fotográfica actual por dentro, con la diferencia que en aquella época no había posibilidad de guardar la imagen a menos que esta se trazara manualmente. Las cámaras actuales se combinan con elementos sensibles (películas o sensores) al espectro visible o a otras porciones del espectro electromagnético, y su uso principal es capturar la imagen que se encuentra en el campo visual.
Las cámaras fotográficas constan de una cámara oscura cerrada, con una abertura en uno de los extremos para que pueda entrar la luz, y una superficie plana de formación de la imagen o de visualización para capturar la luz en el otro extremo. La mayoría de las cámaras fotográficas tienen un objetivo formado de lentes, ubicado delante de la abertura de la cámara fotográfica para controlar la luz entrante y para enfocar la imagen, o parte de la imagen. El diámetro de esta abertura (conocido como apertura) suele modificarse con un diafragma, aunque algunos objetivos tienen apertura fija.
Mientras que la apertura y el brillo de la escena controlan la cantidad de luz que entra por unidad de tiempo, en la cámara durante el proceso fotográfico, el obturador controla el lapso en que la luz incide en la superficie de grabación. Por ejemplo, en situaciones con poca luz, la velocidad de obturación será menor (mayor tiempo abierto) para permitir que la película reciba la cantidad de luz necesaria para asegurar una exposición correcta.

2.3.6. Niveles.

El nivel topográfico, también llamado nivel óptico o equialtímetro es un instrumento que tiene como finalidad la medición de desniveles entre puntos que se hallan a distintas alturas o el traslado de cotas de un punto conocido a otro desconocido.
Pueden ser manuales o automáticos, según se deba calibrar horizontalmente el nivel principal en cada lectura, o esto se haga automáticamente al poner el instrumento "en estación"
El nivel óptico consta de un anteojo similar al del teodolito con un retículo estadimétrico, para apuntar y un nivel de burbuja muy sensible (o un compensador de gravedad o magnético en el caso de los niveles automáticos), que permita mantener la horizontalidad del eje óptico del anteojo, ambos están unidos solidariamente de manera que cuando el nivel está desnivelado, el eje del anteojo no mantiene una perfecta horizontalidad, pero al nivelar el nivel también se horizontaliza el eje óptico.
En los últimos treinta años se ha producido un cambio tal en estos instrumentos, que por aquella época, principios de la década del ´80 casi todos los instrumentos que se utilizaban eran del tipo "manual" pero en este momento es raro encontrar uno de aquellos instrumentos, incluso son raras la marcas que aun los fabriquen ya que las técnicas de fabricación se han perfeccionado tanto que los automáticos son tan precisos y confiables como los manuales, a pesar de la desconfianza que despertaban en los viejos topógrafos los primeros modelos automáticos.
Este instrumento debe tener unas características técnicas especiales para poder realizar su función, tales como burbuja para poder nivelar el instrumento, anteojo con los suficientes aumentos para poder ver las divisiones de la mira, y un retículo con hilos para poder hacer la puntería y tomar las lecturas, así como la posibilidad de un compensador para asegurar su perfecta nivelación y horizontalidad del plano de comparación.

2.3.5. Telescopios.

Un telescopio es un dispositivo que posibilita la visualización de algo que se halla a gran distancia, de una manera más detallada que si se lo observara directamente con los ojos. Ofrece, por lo tanto, una imagen agrandada del objeto en cuestión.
Su historia está vinculada a diversos descubrimientos ópticos y físicos. El primero de estos artilugios fue creado en 1608 por el científico alemán Hans Lippershey (15701619). Se trataba de un telescopio refractor con un lente ocular cóncavo y un objetivo de tipo convexo: la refracción de la luminocidad en la lente de estos dispositivos genera que los rayos, que discurren de forma paralela, terminen convergiendo en un mismo punto que forma parte del plano focal.
Con el tiempo surgieron los telescopios reflectores que, en vez de lentes, usaban espejos para concretar el enfoque de la luz y lograr la formación de la imágenes. También hay otros que se llaman catadióptricos y que combinan las propiedades de los espejos y de las lentes.
El primer telescopio astronómico fue registrado en 1609 por Galileo Galilei, quien logró observar al planeta Júpiter, la Luna y diversas estrellas. A partir de entonces, los telescopios fueron la base del desarrollo de la astronomía (la ciencia que se dedica al análisis de los cuerpos celestes).
El diámetro del objetivo (ya sea del espejo o de la lente principal del telescopio), la distancia focal (la distancia existente entre el espejo o lente y el foco donde se ubica el ocular), el filtro (un accesorio que se usa para opacar la imagen del cuerpo observado) y el aumento (el número de veces que puede multiplicarse el diámetro aparente de lo visualizado) son algunos de los parámetros que permiten caracterizar a un telescopio.