Características de los Instrumentos de Medida

 


Características principales

 
Dado que existe una gran variedad de instrumentos de medida, y teniendo en cuenta que no todos poseen las mismas prestaciones, es necesario conocer cuáles son las características principales que permiten caracterizar a los instrumentos de medida con el fin de poder seleccionar el instrumento que mejor se adapte a los requisitos de nuestras mediciones. 
Siendo que en ocasiones estos conceptos suelen tener múltiples interpretaciones en función del campo de aplicación y la bibliografía de referencia utilizada, los conceptos que se definirán a continuación toman como base las definiciones dadas en el Vocabulario Internacional de Metrología (VIM) 3ª edición (2012), y la norma ANSI/ISAS51.1-1979 (R 1993).



Exactitud
La exactitud es definida por el Vocabulario Internacional de Metrología (VIM) como la "proximidad entre un valor medido y un valor verdadero de un mensurando", por lo que un instrumento será más exacto cuanto mayor sea la proximidad entre estos valores. 
Ahora bien, sabemos que el “valor medido” hace referencia al “valor de una magnitud que representa un resultado de medida”, pero ¿qué se entiende por valor verdadero? Dicho vocabulario lo define como el "valor de una magnitud compatible con la definición de la magnitud" . Pongámoslo de la siguiente forma, el valor verdadero puede ser entendido como el resultado obtenido por una medición ideal, perfecta, lo cual en la práctica es imposible de obtener y, por lo tanto, es un valor imposible de determinar.


Entonces, ¿qué valor utilizamos? Tenemos dos opciones, utilizar un valor convencional, o valor convencionalmente verdadero, el cual es atribuido a una magnitud específica por convención; o bien podemos utilizar un valor de referencia el cual consiste en el valor de una magnitud utilizado como base para la comparación con valores de magnitudes del mismo tipo.

Por lo tanto, cuando hablamos de la exactitud de un instrumento nos referimos a la capacidad del instrumento de dar valores lo más cercano posible al valor convencionalmente verdadero (o de referencia) de una magnitud.

Error

Este es defino como la "diferencia entre un valor medido de una magnitud y un valor de referencia". Debido a que cada vez que realicemos una medición el valor de medida siempre tendrá una diferencia con respecto al valor de referencia (o verdadero), se dice que en toda medición existirá un error.

De lo dicho anteriormente, podemos afirmar que un instrumento de medida será más exacto cuando menor sea el error cometido por el mismo. Esto es un dato que generalmente proveen los fabricantes y puede ser indicado en el instrumento mismo, o su manual, como exactitud o clase.
 
Siendo que este concepto amerita un apartado exclusivo dada la extensión del tema, será retomado y desarrollado más adelante. No obstante, tomaremos la definición dada y de momento la interpretaremos como el “error absoluto máximo” cometido por un instrumento.

Precisión

El VIM define a la precisión como la "proximidad entre las indicaciones o los valores medidos obtenidos en mediciones repetidas de un mismo objeto, o de objetos similares, bajo condiciones especificadas".

Para el caso de un instrumento, la precisión del mismo se refiere a la capacidad que este posee para dar el mismo resultado en diferentes mediciones realizadas al mismo objeto, en las mismas condiciones.
 
Diferencia entre Exactitud y Precisión 

Si bien las definiciones de ambos conceptos son diferentes, con frecuencia estos conceptos suelen ser confundidos entre sí.

Hagamos un pequeño repaso. La exactitud se refiere a la capacidad de dar valores los más cercanos posibles al valor verdadero, en tanto que la precisión hace referencia a la capacidad de dar valores lo más cercanos entre sí.

Un ejemplo muy común para explicar esta diferencia es el siguiente. Imaginemos que vamos a disparar flechas hacia un blanco, y que todos los disparos los realizará la misma persona, a la misma distancia, con el mismo arco, todas las flechas son idénticas entre sí y no existe ningún factor externo que pueda alterar los disparos.

Hacemos nuestro primer disparo y este da en el centro del blanco. En este caso diremos que el disparo fue exacto. Si nuestro disparo se hubiera alejado del centro del blanco, ya no sería un disparo exacto.

Ahora imaginemos que disparamos varias flechas y todas dan en la misma zona del blanco, no importa cuál. En este caso diremos que nuestros disparos fueron precisos. Si nuestras flechas hubieran dado en distintos lugares del blanco, nuestros disparos ya no serían precisos.

Veamos la siguiente imagen en donde se presenta cuatro posibilidades distintas según lo expuesto anteriormente.



Si aplicamos este mismo criterio a la medición de una magnitud determinada, observaremos que los valores obtenidos pueden ser exactos, precisos o carecer de ambas cualidades, dependiendo del instrumento de medición empleado. Por tal motivo es necesario tener en cuenta que, aunque la exactitud y la precisión influyen en la calidad de la medición, estas características son independientes entre sí. Un instrumento puede ser preciso, pero no necesariamente exacto, y viceversa.

Escala 

La escala de medida de un instrumento es definida por el VIM como el "conjunto ordenado de valores de magnitudes de una determinada naturaleza, utilizado para clasificar magnitudes de esta naturaleza, en orden creciente o decreciente según sus valores cuantitativos".

Cuando la definición habla de "valores de magnitudes de una misma naturaleza" quiere decir que dicha escala se realiza únicamente para un tipo de magnitud, por ejemplo, longitud. Tiene sentido, ¿no? Pensemos en una regla. Su escala está formada por un conjunto de marcas ordenadas, a las cuales se les asocia un valor numérico que responde a una determinada unidad de medida. De la misma forma, el resto de los instrumentos de medida poseen escalas que responderán al tipo de mediciones para los cuales fueron desarrollados.

Rango

El rango, entendido como campo de indicación, es definido como el "conjunto de los valores de magnitudes de una misma naturaleza que un instrumento o sistema de medida dado puede medir..." dentro de los límites superior e inferior de la capacidad de medida del instrumento y se lo expresa estableciendo los dos valores extremos, mínimo y máximo.

Por ejemplo, podemos encontrar micrómetros con rangos de medida de 0mm a 25mm, o de 25mm a 50mm. En el caso de un voltímetro, podemos encontrar con rangos de 0 a 10V.

Alcance 

El alcance de un instrumento de medida no debe confundirse con el valor máximo del rango de medición. Si bien, en ocasiones este valor puede coincidir con lo mencionado, la forma correcta de definir al alcance es entendiéndolo como “la amplitud de un intervalo nominal de indicaciones”. De esto se deduce que el alcance de un instrumento es el resultado de la diferencia algebraica entre los valores superior e inferior del campo de medida del instrumento. Algunas veces este término es denominado con el término proveniente del idioma inglés “span”.


Para los ejemplos antes mencionados, ambos micrómetros tendrán alcances de 25mm en tanto que el voltímetro tendrá un alcance de 10V.

 
NOTA: Existe bibliografía que interpreta a este término alcance como el valor máximo que puede medir un instrumento. En este apunte, no se seguirá esa línea y, para hacer referencia a este valor, se lo llamará como “valor a fondo de escala” o “valor a plena escala”.

Campo de medida
 
El campo de medida, entendido como “intervalo de medida”, se encuentra comprendido por el conjunto de los valores que un instrumento puede medir con una incertidumbre instrumental especificada, es decir, comprende aquella parte de la escala en la cual resultan válidas sus indicaciones.

En las siguientes figuras se encuentran indicados los campos de indicación (rango), campo de medida y alcance de dos voltímetros. Puede observar que en la primera figura el rango del instrumento es 0V a 500V, no obstante, su campo de medida va de 100V a 500V. A su vez, si bien el valor a plena escala es de 500V, su alcance es de 400V.

Por su parte, en la segunda figura, el rango y campo de medida coinciden, siendo ambos de -5V a 5V, siendo su valor a plena escala de 5V y su alcance de 10V.







Como puede observarse, el alcance de un instrumento de medida debe entenderse en función del campo de medida y no debe confundirse con valor de fondo de escala.

Sensibilidad

Al hablar de sensibilidad el VIM lo define como el "cociente entre la variación de una indicación de un sistema de medida y la variación correspondiente del valor de la magnitud medida". Es decir, representa la capacidad de respuesta del instrumento en relación al cambio en la magnitud.

Por lo que la sensibilidad puede ser entendida como la capacidad del instrumento de percibir las variaciones mínimas de una magnitud.

Cuando se habla de la sensibilidad de un instrumento, no debe confundirse con la resolución del mismo. Veamos en qué consiste la misma.

Resolución  

El VIM define a la resolución como "mínima variación de la magnitud medida que da lugar a una variación perceptible de la indicación correspondiente". Y agrega que la resolución de un dispositivo visualizador, es entendida como "la mínima diferencia entre indicaciones visualizadas, que puede percibirse de forma significativa". Donde dispositivo visualizador hacer referencia al indicador del instrumento de medición.

En otras palabras, cuando se habla de resolución de un instrumento se hace referencia a la capacidad de un instrumento de medida de permitirnos observar las variaciones mínimas de la magnitud que estamos midiendo.

Pongamos un ejemplo. Para medir nuestra temperatura corporal tomamos un termómetro de mercurio con una resolución de 0,1ºC. Nuestras mediciones podrán ser 36,4ºC ó 37,2ºC; pero nunca 36,45ºC ó 36,19ºC. Esto se debe a que el instrumento no nos permite percibir (u observar) las variaciones en la magnitud a medir menores a su valor de resolución.

Ahora imagine que tenemos dos calibres, el primero con una resolución de 0,5mm y el segundo con una de 0,2mm ¿Cuál cree que nos dará el valor de medida con mayor exactitud?

Pues bien, aquel instrumento que nos permita observar las variaciones más pequeñas de la magnitud a medir será el instrumento con mejor calidad de resolución, y por lo tanto nos dará valores de medida más exactos. Para el caso del ejemplo anterior, el calibre con resolución de 0,2mm será el más exacto.

Constante de lectura 

La escala de los instrumentos de medida analógicos, ya sea que posean una o más escalas, las mismas estarán caracterizadas por la cantidad de divisiones que estas posean. De la relación entre el valor del alcance de la escala a utilizar y la cantidad de divisiones de la misma, podemos extraer la constante de lectura, es decir, de cada división de la escala y así, obtener el valor de medida indicado por el instrumento durante una edición.



Veamos la siguiente figura. Esta posee tres escalas con rangos de 0V a 10V; 0V a 50V y 0V a 250V, y posee 100 divisiones.
 





Para el caso de que la aguja indicadora se posicione sobre la división número 52 la lectura que tendremos para cada una de las escalas será:




Nota: Es común encontrar el término “factor de escala” cómo sinónimo de constante de lectura.

Cuentas y Dígitos 

En instrumentos digitales suele utilizarse los conceptos de número de dígitos o cuentas como una forma de hacer referencia a la resolución con la cual pueden mostrar los valores en sus display. Si bien la forma de aplicar estos términos puede variar entre fabricantes, veamos como pueden ser entendidos.

Cuando se habla de la cantidad de dígitos que posee un instrumento de medida digital, suele hacerse indicando un número entero acompañado de una fracción, por ejemplo 3½ dígitos. En estos casos el número entero indica la cantidad de dígitos que pueden tomar valores de 0 a 9 y por medio de la fracción se indica el valor máximo que puede tomar el dígito más significativo el cual solo puede tomar dos valores, siendo 1 (uno) el valor máximo. En ocasiones este valor suele ser llamado cómo dígito de sobre rango.



Para el ejemplo 3½ dígitos, el número entero indica que los tres primeros dígitos que representan a la unidad, decena y centena pueden tomar valores de 0 a 9, en tanto la fracción indica que el digito más significativo puede tomar valores de 0 a 1.

En la siguiente tabla puede encontrar más ejemplos.




Otra forma de indicar esto mismo es a través del número de cuentas, el cual indica la cantidad de valores que pueden ser mostrados en el display del instrumento. Por ejemplo, si se dice que un instrumento posee 2.000 cuentas, quiere decir que los valores que puede mostrar pueden ir desde 0 a 1999.

Clase

Se la entiende como el error absoluto máximo que puede cometer un instrumento de medida, en cualquier parte de la escala, referido a su alcance y expresado en valor porcentual.
 


El valor de esta característica suele ser indicada en las especificaciones dadas por los fabricantes y da cuenta de la calidad del instrumento. Estos valores se encuentran estandarizados y pueden resumirse en los expresados en la siguiente tabla.


A su vez, por medio del valor de clase del instrumento podemos conocer el valor de error porcentual máximo que cometerá el instrumento cuando su indicación coincida con el alcance del instrumento. Este valor se conoce como “error de clase” y, partiendo de la formula anterior encontramos que.


Pongamos el siguiente ejemplo. Si tenemos un voltímetro con un alcance de 100V y su clase es de 1,5 tendremos que el error de clase será de 1,5V, lo cual quiere decir que el error instrumental asociado a la medición será del 1% de su alcance.




Campos nominales de Referencia y de Utilización 

El campo nominal de referencia se refiere al rango específico de un parámetro dentro del cual un instrumento mantiene su clase. Dado que en instrumentos de medida destinado a las mediciones eléctricas este campo suele indicarse tomando a la frecuencia como parámetro, este concepto muchas veces es entendido como “banda de frecuencia”. Por ejemplo, si un instrumento indica una banda de frecuencia de "40...60 Hz", significa que su desempeño y precisión se mantienen óptimos siempre que se utilice dentro de esos límites.
 
Por otro lado, el campo nominal de utilización se refiere al margen de variación de un parámetro que puede influir en el funcionamiento del instrumento, donde el error cometido por el instrumento se considera aceptable, ya que corresponde a dos veces la clase del mismo. Esto implica que el instrumento puede operar con cierta variabilidad en sus condiciones de uso, siempre y cuando el error no exceda dicho umbral y suele ser indicado a continuación del campo nominal de referencia. Retomando el ejemplo anterior, si el campo nominal de utilización es el comprendido entre 60Hz y 400Hz, la forma de indicar los campos de referencia y utilización será la siguiente.



Tensión de prueba de aislamiento 

La tensión de prueba es un parámetro a través del cual se describe la evaluación de la resistencia del aislamiento de los instrumentos de medida eléctricos, con el fin de garantizar que dicho aislamiento sea adecuado para prevenir fugas de corriente y diferencias de potencial que puedan comprometer tanto la seguridad del equipo como la de los usuarios. Generalmente, esta tensión se aplica al aislamiento para detectar fallas o debilidades que no se evidencian en condiciones normales de operación.
Esta tensión suele ser mayor que la tensión nominal del equipo, típicamente de 1,5 a 2 veces dicha tensión, aunque puede variar según el tipo de dispositivo y su aplicación. Durante la prueba, se aplica tensión alterna a frecuencia de línea (50 o 60 Hz) entre los terminales del equipo y su carcasa, o entre los terminales y otros componentes del 40…60……400Hz Campo nominal de Referencia Campo nominal de Utilización circuito. La duración de la prueba suele ser de 1 a 5 minutos, dependiendo de las especificaciones del fabricante o de las normativas aplicables.

La tensión de prueba en los instrumentos se indica generalmente en la documentación técnica del equipo, como en el manual del usuario o en las etiquetas adheridas al propio instrumento. A su vez, una forma común de representar la tensión de prueba en los instrumentos de cuadro es mediante el símbolo de una estrella ☆, que puede aparecer junto a un número en su interior que indica la tensión específica que debe aplicarse durante la prueba. Este símbolo sugiere que el instrumento ha sido diseñado para soportar esa tensión de prueba particular. Para los casos donde la estrella no se encuentre acompañada por ningún número la tensión de prueba corresponde a 500V.

Categoría Eléctrica 

Debido a la naturaleza de los sistemas eléctricos y con el fin de garantizar la protección contra descargas eléctricas tanto en condiciones normales como en situaciones de falla única (transitoria), tales como cortocircuitos, circuitos abiertos, fallas de conexión a tierra y sobrecargas, la norma IEC 61010-1 establece distintas categorías de seguridad a través de la cual se indica el nivel de protección que proporcionan los instrumentos en diferentes entornos.

Esta clasificación está determinada por dos parámetros: uno que indica el nivel del sistema y el otro que especifica la tensión nominal de funcionamiento.
 
En cuanto al nivel del sistema, la norma define cuatro categorías de medición.
 
CAT I: cuando las mediciones se realizan sobre equipamiento no conectado en forma directa a la red, o derivado de la misma a través de protecciones especiales, como pueden ser baterías, o componentes electrónicos pequeños separados de la red.

CAT II: cuando las mediciones se realizan sobre cargas conectadas a toma corrientes monofásicos para trabajo en máquinas y herramientas portátiles.

CAT III: cuando las mediciones se realizan sobre el sistema o equipos de distribución trifásica para plantas industriales y sistemas de iluminación comercial monofásica.
 
CAT IV: cuando las mediciones se realizan sobre la zona de la red directamente conectada a la fuente de suministro de baja tensión, como puede ser el tablero y el circuito alimentador de baja tensión en los transformadores, líneas de distribución y acometidas de suministro.

El segundo parámetro que debe indicarse según la norma corresponde a la tensión nominal de funcionamiento para la cual esa categoría es válida. Se consideran cinco tipos de valores de tensión de trabajo ya sea para corriente continua o su equivalente en corriente alterna: 50 V, 150 V, 300 V, 600 V y 1000 V; sin embargo, la gran mayoría de los dispositivos de medición está diseñada y probada para tensiones de valores entre600 V y 1000 V.

A continuación, se presenta una tabla con las categorías y tensiones nominales más frecuentes.



Debe tenerse mucho cuidado con los productos que especifican la clasificación CAT, pero no mencionan el nivel de tensión. No proporcionar un nivel de tensión significa que la información está incompleta y esa ausencia puede ser costosa en términos de un funcionamiento seguro. Por tal motivo, un ejemplo de cómo debe indicarse la categoría eléctrica del instrumento puede ser “CAT III-300V”.

Pongamos otro ejemplo, supongamos que un multímetro muestra las siguientes especificaciones: "CAT II-300V / CAT I-600V". Al leer esta indicación por parte del fabricante entendemos que el instrumento puede soportar hasta 2,500V de pico de voltaje. Además, esta indicación informa al usuario que el instrumento que debe ser conectar a la red de circuitos CAT II cuando se realicen mediciones por encima de 300V. Por último, el usuario no debe utilizar este instrumento con circuitos Categoría III o IV.

 

Licencia de Creative Commons

Entradas que pueden interesarte