Qual é a precisão de um multímetro
A precisão de um multímetro digital é a combinação de erros sistemáticos e aleatórios nos resultados das medições. Representa o grau de consistência entre o valor medido e o valor verdadeiro e também reflete a magnitude do erro de medição. De modo geral, quanto maior a precisão, menor o erro de medição e vice-versa.
Existem três maneiras de expressar precisão, como segue:
Precisão=± (um percentual de RDG mais b percentual de FS) (2.2.1)
Precisão=± (uma porcentagem de RDG mais n palavras) (2.2.2)
Precisão=± (um percentual de RDG mais b percentual de FS mais n palavras) (2.2.3)
Na equação (2.2.1), RDG representa o valor de leitura (ou seja, valor de exibição), FS representa o valor da escala completa, o item anterior entre parênteses representa o erro abrangente do conversor A/D e do conversor funcional (como divisor de tensão, divisor, conversor True RMS), e o último item é o erro causado pelo processamento digital. Na equação (2.2.2), n é a mudança no erro de quantização refletida no último dígito. Se o erro de n palavras for convertido em percentual do fundo da escala, torna-se a equação (2.2.1). A equação (2.2.3) é bastante singular e alguns fabricantes utilizam esta expressão. Um dos dois últimos representa erros introduzidos por outros ambientes ou funções.
A precisão de um multímetro digital é muito melhor do que a de um multímetro de ponteiro analógico. Tomando como exemplo o índice de precisão da faixa básica para medição de tensão CC, ele pode atingir ± {{0}},5 por cento para 3 bits e meio e 0,03 por cento para 4 bits e meio. Por exemplo, multímetros OI857 e OI859CF. A precisão de um multímetro é um indicador muito importante, que reflete a qualidade e a capacidade de processo do multímetro. Um multímetro com baixa precisão é difícil de expressar o valor verdadeiro, o que pode facilmente levar a erros de julgamento na medição.
