quarta-feira, 14 de setembro de 2016

Teoria probabilística dos erros de medição

A medição de uma quantidade não pode ser despida de imprecisões ou incertezas, quer seja devido às limitações técnicas dos aparelhos ou técnicas usadas, ao confluir de uma série de factores que dificultam a sua execução ou a qualquer outra situação adversa. Distinguem-se dois tipos de erros, nomeadamente, os erros aleatórios e os erros sistemáticos. Os erros aleatórios devem-se ao conjunto de factores que não estão submetidos ao controlo do experimentador, variando entre medições. Os erros sistemáticos resultam de processos inválidos de medição e são transversais a todas as medições efectuadas mediante esses mesmos processos.
Os erros sistemáticos poderão ser eliminados pela correcção dos processos de medição ao contrário dos erros aleatórios. Interessa, pois, estudar o quão precisa é uma medição, sabendo que esta se encontra sujeita a erros aleatórios. Seja \(x\) uma grandeza que se pretenda medir e \(y_i\), com \(i=1,\cdots,n\), um conjunto de \(n\) valores medidos da grandeza \(x\). Supondo que o processo de medição não introduz erros sistemáticos, é possível escrever \(y_i-x=\delta_i\) onde \(\delta_i\) representa o erro aleatório. Pretende-se determinar a função que permite determinar a probabilidade de um erro \(\delta\) de uma medição se encontrar no intervalo \((a,b)\).
De acordo com os processos habituais da teoria das probabilidades, é pretendido a obtenção da forma da função \(\varphi(\delta)\) tal que a probabilidade \(P(a\lt\delta\lt b)\) do erro \(\delta\) se encontrar confinado ao intervalo \((a,b)\) seja dada por
\[P(a\lt\delta\lt b)=\int_a^b{\varphi(\delta)d\delta}\]
De modo a que \(\varphi(\delta)\) seja uma distribuição, tem de ser verificada a relação
\[\int_{-\infty}^{+\infty}{\varphi(\delta)d\delta}=1\]
Para possibilitar a determinação da forma da distribuição, é necessária a introdução das hipóteses simplificativas:


  1. Erros com a mesma magnitude são igualmente prováveis, isto é, \(\varphi(-\delta)=\varphi(\delta)\).
  2. A probabilidade é máxima para \(\delta=0\).
  3. A probabilidade da ocorrência de um erro suficientemente grande é nula.
  4. A função de distribuição é contínua (hipótese simplificativa).

Se for efectuada uma série de \(n\) medições a probabilidade que os seus valores sejam \(y_i\), \(i=1,2,\cdots,n\) sabendo que o valor da grandeza se encontra cingido ao intervalo infinitesimal compreendido entre \(x\) e \(x+dx\) é dada por
\[\varphi\left(x-y_1\right)\varphi\left(x-y_2\right)\cdots\varphi\left(x-y_n\right)dx=\Omega dx\]
Foi aqui assumido que as medições são processos estocásticos independentes.
Como é pretendita a probabilidade do valor da grandeza se encontrar no intervalo \((x,x+dx)\), sabendo que os valores medidos são \(y_i\), é útil o recorrer ao conhecido conceito da probabilidade condicionada. Assim, se \(p(y|x)\) representar a probabilidade das medições proporcionarem os valores \(y_i\) sabendo que \(x\) se encontra no intervalo compreendido entre \(x\) e \(x+dx\), tem-se
\[p(x|y)p(y)=p(y|x)p(x)\]
Se for efectuado um novo processo de medição, a probabilidade da grandeza a ser medida se encontrar no intervalo \((x,x+dx)\) será a mesma, uma vez que não depende do processo. É seguro, também, assumir que a probabilidade de o conjunto de valores ser \(y_i\), \(i=1,2,\cdots,n\) não depende do processo e seja, portanto, igual à probabilidade anterior. Assim,
\[\frac{p(x|y)}{p'(x|y)}=\frac{p(y|x)}{p'(y|x)}\]
Segue-se daqui que
\[p(x|y)=\lambda\Omega dx\]
O valor mais provável da grandeza é aquele para o qual o erro é nulo, isto é, é aquele que maximiza a função \(\Omega\). Este valor satisfaz, portanto, a equação
\[\sum_{i=1}^n{\frac{\partial\Omega}{\partial\delta_i}\frac{d\delta_i}{dx}}\]
Para determinar uma forma para a função de distribuição é necessária a introdução da hipótese adicional de que o valor mais provável \(\mu\) corresponde à média, isto é,
\[\mu=\frac{1}{n}\sum_{i=1}^n{y_i}\]
Ora, como
\[\frac{\partial\Omega}{\partial\delta_i}=\frac{\Omega}{\varphi\left(\delta_i\right)}\left.\frac{d\varphi}{d\delta}\right|_{\delta=\delta_i}\]
e \(\delta_i=\mu-y_i\), segue-se que
\[\sum_{i=1}^n{\frac{1}{\varphi\left(y_i-\mu\right)}\left.\frac{d\varphi}{d\delta}\right|_{\delta=y_i-\mu}}\]
Como o resultado das medições pode ser arbitrário, analise-se o sistema de valores \(y_i\) da forma
\[y_2=y_3=\cdots=y_n=y_1-nm\]
sendo \(m\) um valor escolhido aleatoriamente. Este sistema de valores proporciona
\[\mu=y_1-(n-1)m\]
A substituição na equação anterior conduz ao resultado
\[\frac{1}{\varphi\left((n-1)m\right)}\left.\frac{d\varphi}{d\delta}\right|_{\delta=(n-1)m}=(n-1)\frac{1}{\varphi(m)}\left.\frac{d\varphi}{d\delta}\right|_{\delta=m}\]
Denotando por \(f(m)\) a função
\[\frac{1}{\varphi(m)}\left.\frac{d\varphi}{d\delta}\right|_{\delta=m}\]
verifica-se facilmente que esta satisfaz a identidade \(f\left((n-1)m\right)=(n-1)f(m)\). Não é difícil constatar que \(f(0)=0\), \(f(n-1)=(n-1)f(1)\), fazendo \(m=0\) e \(m=1\) na identidade. Fazendo \(m=\frac{r}{n-1}\alpha\) obtém-se
\[f\left(\frac{r}{n-1}\alpha\right)=\frac{r}{n-1}f(\alpha)\]
Segue-se daqui que \(f(m)=rm\) onde \(r=f(1)\) para qualquer valor racional de \(m\). Como \(f\) é contínua, a sua forma estende-se para todos os valores de \(m\) reais. Assim,
\[\frac{1}{\varphi(m)}\frac{d\varphi}{dr}=\frac{d\log{\varphi(m)}}{dr}=rm\]
cuja solução é dada por
\[\varphi(m)=Ae^{\frac{1}{2}rm^2}\]
Como a probabilidade de erros suficientemente grandes tende a anular-se, então \(r=-2k^2<0\). Além disso, como
\[\int_{-\infty}^{+\infty}{e^{-k^2m^2}dm}=\frac{\sqrt{\pi}}{k}\]
a função de distribuição fica da forma
\[\varphi(m)=\frac{k}{\sqrt{\pi}}e^{-k^2m^2}\]
Esta é conhecida como a distribuição normal.