calibración_Mesa de trabajo 1

Calibración

Calibración

¿Por qué calibrar los equipos de comprobación?

Posted by Fluke Calibración on 24/1/19 09:40

Se toma en serio sus equipos de comprobación eléctricos. Compra las mejores marcas, y espera que los aparatos sean precisos. Conoce gente que envía sus instrumentos digitales a un laboratorio de metrología para su calibración, y se pregunta por qué. Después de todo, son electrónicos, no se van a descalibrar por algún movimiento durante la medición. ¿Qué es lo que hacen esos calibradores? ¿Se limitan a cambiar la batería?

Son preocupaciones lógicas, especialmente porque no puede utilizar el instrumento de medición mientras está en el laboratorio de calibración. Pero tengamos en cuenta otras dudas que también pueden ser relevantes. Por ejemplo, ¿qué pasaría si por algún motivo su instrumento de medición perdiese precisión, o incluso dejase de resultar seguro? ¿Qué pasaría si trabaja con tolerancias estrictas y una medición precisa es la clave para el funcionamiento correcto de sistemas de seguridad o procesos costosos? ¿Qué pasaría si está analizando datos de tendencias para el mantenimiento y dos dispositivos utilizados para la misma medición muestran diferencias significativas?

¿Qué es la calibración?

Muchos realizan una comprobación de campo con dos medidores, y los consideran "calibrados" si ofrecen la misma lectura. Eso no es calibración, solo se trata de una comprobación de campo. Puede indicar si existe un problema, pero no indica cuál de los instrumentos de medición es el correcto. Si ambos instrumentos están descalibrados en la misma medida y en la misma dirección, nunca lo sabrá. Tampoco le mostrará tendencia alguna; no sabrá si su instrumento está comenzando a descalibrarse.

Para una calibración eficaz, el estándar de calibración debe ser más preciso que el instrumento que se está comprobando. La mayoría de nosotros tiene un microondas u otro dispositivo que indique el tiempo en horas y minutos. La mayoría de nosotros vive en lugares donde se cambia la hora de los relojes al menos dos veces al año, más en aquellas ocasiones en que se produce un corte en el suministro eléctrico. Cuando ajusta la hora en esos dispositivos ¿qué utiliza como referencia de tiempo? ¿Utiliza un reloj que muestra segundos? Probablemente ajusta la hora en el dispositivo "digital" cuando el reloj de referencia se encuentra al "principio" de un minuto (es decir, a cero segundos). Un laboratorio de metrología sigue la misma filosofía. Comprueban con qué precisión sus "minutos completos" controlan el número de segundos correcto. Y lo hacen en varios puntos de las escalas de medición.

La calibración suele requerir un estándar 10 veces más preciso que el instrumento que se está comprobando. De otro modo, estará calibrando dentro de tolerancias superpuestas, y las tolerancias de su estándar mostrarán un instrumento "calibrado" como "descalibrado" o viceversa. Veamos cómo funciona.

Dos instrumentos, A y B, miden 100 V con una tolerancia de un 1 %. A 480 V ambos están dentro de la tolerancia admitida. A 100 V de entrada, A indica 99,1 V y B indica 100,9 V. Pero si considera B como su estándar, A parecerá estar fuera de tolerancia. No obstante, si B es preciso dentro de un 0,1 %, lo máximo que B indicará a 100 V es 100,1 V. Ahora, si compara A con B, A se encuentra dentro de la tolerancia. También puede ver que A se encuentra en el extremo más bajo del rango de tolerancias. Si modificamos A para incrementar el valor de la lectura, probablemente evitaremos que A nos dé una falsa lectura, puesto que experimentará una desviación normal entre calibraciones.

La calibración, en su sentido más estricto, es la comparación de un instrumento con un estándar reconocido. Una calibración correcta implica el uso de un estándar trazable por el NIST, uno que disponga de documentación que demuestre que se compara correctamente con una serie de estándares que se remontan a un estándar principal: el que mantiene el National Institute of Standards and Technology (Instituto estadounidense de normas y tecnología).

En la práctica, la calibración incluye corrección. Normalmente, cuando envía un instrumento para su calibración, autoriza la reparación para que se restablezca el instrumento al valor calibrado si se encontraba "descalibrado". Recibirá un informe que le muestra hasta qué punto estaba descalibrado el instrumento y cómo ha quedado tras la calibración. En el caso del dispositivo con minutos y segundos, verá que el error de calibración requería una corrección que mantuviera el dispositivo en el valor "exacto", pero el error se encontraba dentro de las tolerancias necesarias para las mediciones que había hecho desde la última calibración.

Si el informe muestra grandes errores de calibración, puede que sea necesario que repita el trabajo que realizó con ese instrumento y efectúe nuevas mediciones hasta que no aparezcan errores. Debería empezar por las mediciones más recientes, y seguir hacia las más antiguas. En trabajos relacionados con la seguridad nuclear, tendría que repetir todas las mediciones realizadas desde la calibración anterior.

Causas de los problemas de calibración

¿Qué “descalibra” un instrumento digital? En primer lugar, los componentes principales de los instrumentos de comprobación (p. ej. las referencias de voltaje, divisores de entrada, derivadores de corriente) pueden cambiar a lo largo del tiempo. Estos cambios son poco relevantes, y normalmente son inofensivos si mantiene un buen calendario de calibraciones. Habitualmente estos cambios son los que la calibración detecta y corrige.

Pero supongamos que se le cae una pinza amperimétrica y recibe un golpe fuerte. ¿Cómo sabe si esa pinza continuará midiendo con precisión? No lo sabe. Podría presentar graves errores de calibración. Del mismo modo, exponer un multímetro digital a una sobrecarga podría descalibrarlo. Hay quien piensa que esto apenas ejerce efecto alguno, puesto que las entradas están protegidas por fusibles o disyuntores. Pero es posible que estos dispositivos de protección no se disparen en caso de transitorios. Además, una parte del voltaje lo suficientemente grande podría saltarse el dispositivo de protección por completo. Esto es mucho menos probable con multímetros digitales de alta calidad, uno de los motivos por los que estos resultan más rentables que los de importación, más baratos.

Frecuencia de calibración

La pregunta no es si calibrar o no, ya hemos visto que es imprescindible. La pregunta es cuándo calibrar. No existe una respuesta generalizada. Deben tenerse en cuenta las frecuencias de calibración siguientes:

  • Intervalo de calibración recomendado por el fabricante. Las especificaciones del fabricante indicarán cada cuánto tiempo deben calibrarse sus herramientas, pero las mediciones importantes pueden requerir intervalos distintos.
  • Antes de un gran proyecto de medición de especial importancia. Supongamos que va a comprobar una plata que requiere mediciones de gran precisión. Decida qué instrumento utilizará para esa comprobación. Envíelo a calibrar y, a continuación "guárdelo bajo llave" en su lugar de almacenamiento para que nadie lo utilice antes de esa comprobación.
  • Tras un gran proyecto de medición de especial importancia. Si ha reservado instrumentos de comprobación para una operación de comprobación en particular, envíe ese mismo equipo para su calibración tras la comprobación. Cuando reciba los resultados de la calibración sabrá si puede considerar que esa comprobación ha sido completa y fiable.
  • Tras un suceso. Si su instrumento ha recibido un golpe, si algo ha estropeado la sobrecarga interna o la unidad ha recibido un impacto especialmente fuerte, envíelo a calibrar y que le comprueben también su seguridad.
  • Si los requisitos así lo exigen. Algunos trabajos de medición requieren un equipo de comprobación calibrado y certificado, independientemente del tamaño del proyecto. Tenga en cuenta que puede ser que estos requisitos no se indique explícitamente, sino que simplemente se supongan. Revise las especificaciones antes de realizar la comprobación.
  • Mensual, trimestral o semestralmente. Si suele efectuar mediciones de especial importancia, un intervalo de calibración más breve significará una menor probabilidad de obtener resultados de comprobación dudosos.
  • Anualmente. Si su trabajo consiste en algunas mediciones de especial importancia y otras más habituales, una calibración anual suele suponer el equilibrio ideal entre prudencia y costes.
  • Bianualmente. Si rara vez efectúa mediciones de especial importancia y su dispositivo de medición no está expuesto a suceso alguno, los intervalos de calibración más prolongados pueden resultar más económicos.
  • Nunca. Si su trabajo requiere únicamente comprobaciones de voltaje aproximadas (p. ej., “Sí, son unos 480 V”), la calibración parece resultar innecesaria. Pero, ¿y si su instrumento sufre algún accidente? La calibración le permitirá utilizar el instrumento con confianza.

Una nota final

Aunque este artículo se centra en la calibración de los multímetros digitales, el mismo razonamiento es aplicable al resto de sus herramientas manuales de comprobación, incluyendo los calibradores de procesos.

La calibración no solo consiste en "ajustar" sus instrumentos de comprobación. Es algo más: garantiza que pueda utilizar estos instrumentos con seguridad y confianza para obtener los resultados de comprobación precisos que necesita. Es un modo de aseguramiento de la calidad. Conoce la importancia de comprobar el equipo eléctrico, de lo contrario, para empezar, no tendría instrumentos de comprobación. Al igual que el equipo eléctrico requiere ser comprobado, lo mismo sucede con sus instrumentos de comprobación.

Link a Notas de Aplicación por parte Fluke Calibration-Electrical:

https://la.flukecal.com/category/literature-type/articles-and-education/electrical-calibration/application-notes

Desea una cotización o visita? Nuestros asesores con gusto le ayudarán.