Introdução à precisão de medição de multímetros digitais

Oct 02, 2022

Deixe um recado

Precisão refere-se ao erro máximo permitido em um ambiente de uso específico. Em outras palavras, a precisão é usada para indicar

Quão próxima a medição do DMM está do valor real do sinal que está sendo medido.

Para DMMs, a precisão geralmente é expressa como uma porcentagem da leitura. Por exemplo, o significado de 1 por cento de precisão de leitura é: quando a exibição do multímetro digital é 100.0V, a tensão real pode estar entre 99,0V e 101,0V .

Valores específicos podem ser adicionados à precisão básica na descrição detalhada. Seu significado é o número de palavras a serem adicionadas para transformar a extremidade mais à direita da tela. No exemplo anterior, a precisão pode ser marcada como ±(1 por cento mais 2). Portanto, se o GMM ler 100,0 V, a tensão real estará entre 98,8 V e 101,2 V.

A precisão de um medidor analógico é calculada em termos de erro de fundo de escala, não a leitura exibida. A precisão típica de um medidor analógico é ±2 por cento ou ±3 por cento da escala total. A precisão básica típica de um DMM está entre ±(0,7 por cento mais 1) e ±(0,1 por cento mais 1) de leitura, ou até mais.

Enviar inquérito