domingo, 30 de abril de 2017

Valores Médios para as Caminhadas Aleatórias Clássicas (Random Walk)

Coma já exposto na postagem "Caminhadas Aleatórias Clássicas (Random Walk)", foi visto que a probabilidade de se encontrar uma partícula que realiza uma caminhada aleatória em uma dimensão, dado $n_1$ passos paraa direita de um total de $N$ passos (passos para a esquerda é naturalmente $N-n_1 = n_2$) é,
\begin{equation}
P(n_1) = \frac{N!}{n_1! (N-n_1)!}p^{n_1}q^{N-n_1}
\end{equation}

Observe que $\sum^N_{n_1=0} P(n_1)=1$, dado que $P(n_1)$ é uma probabilidade, e a soma das probabilidades de todas as possibilidades de ocorrência de um certo fenômeno tem que ser $100\%$, ou simplesmente $1$ (quando normalizado).

Desta forma, pelo Teorema Binomial
\begin{equation}
\sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} = (p+q)^N = 1^N = 1
\end{equation}
verificando realmente que $\sum^N_{n_1=0} P(n_1)=1$.

Logo, pelo que foi exposta na postagem "Valores Médios e Dispersão", é possível determinar o número médio de passos para a direita (ou esquerda) que a partícula realiza em uma caminhada aleatória,
\begin{equation}
\overline{n_1} = \sum^N_{n_1=0} P(n_1) \cdot n_1 = \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \cdot n_1
\end{equation}

Portanto é necessário resolver este último somatório! Contudo, devido ao termo $n_1$, não é mais possível se aplicar diretamente o Teorema Binomial para se ter o resultado. Porém, encarando este problema puramente sob a óptica matemática, $p$ e $q$ são dois parâmetros arbitrários quaisquer, logo, $$ p\frac{\partial}{\partial p} (p^{n_1}) = p\cdot p^{n_1-1} = n_1\cdot p^{n_1}$$ utilizando-se deste fato,
\begin{equation}
\begin{split}
\sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1}\cdot n_1 & = \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} \left[ p \frac{\partial}{\partial p} \right] q^{N-n_1}\\


& = p \frac{\partial}{\partial p}\left[  \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \right]\\
& = p \frac{\partial}{\partial p}(p+q)^N\\
&= p\cdot N (p+q)^{N-1}
\end{split}
\end{equation}

Como esta solução é válida para quaisquer valores de $p$ e $q$, será válida para $p$ sendo uma constante e $q=1-p$, ou seja, $p+q=1$. Assim,
\begin{equation}
\boxed{
\overline{n_1} = Np
}
\end{equation}

Naturalmente, a quantidade média de passos para a direita somada a quantidade média de passo para a esquerda deverá ser a quantidade total de passos realizada, $$ \overline{n_1}+\overline{n_2} = N(p+q) = N$$ e o deslocamento $m$ (medido para a direita em unidades do comprimento de passos $l$), $$ \overline{m} = \overline{n_1-n_2} = \overline{n_1}-\overline{n_2} = N(p-q)$$ onde se $$p=q \quad \Rightarrow \quad \overline{m} =0$$

Cálculo da Dispersão:

Calculemos $\overline{(\Delta n_1)^2}$. Como visto na postagem "Valores Médios e Dispersão",é sabido que $$\overline{(u-\overline{u})^2} = \overline{u^2}- \overline{u}^2$$ portanto, $$\overline{(\Delta n_1)^2} = \overline{(n_1-\overline{n_1})^2} = \overline{n_1^2}- \overline{n_1}^2$$

Desta forma, $\overline{n_1}$ já é conhecido, falta agora calcular  $\overline{n_1^2}$.

\begin{equation}
\overline{n_1^2} = \sum_{n_1}^N P(n_1) n_1^2 = \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \cdot n_1^2
\end{equation}

Novamente, considerando o problema matematicamente, sejam $p$ e $q$ parâmetros arbitrários, logo, $$n_1^2p^{n_1} = n_1 \left( p \frac{\partial}{\partial p} \right) (p^{n_1}) = \left( p \frac{\partial}{\partial p}\right) ^2 (p^{n_1})$$

E de forma análoga, é possível calcular,
\begin{equation}
\begin{split}
\sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \cdot n_1^2
& = \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} \left[ p \frac{\partial}{\partial p} \right]^2p^{n_1} q^{N-n_1}\\
& = \left( p \frac{\partial}{\partial p}\right) ^2 \left[  \sum^N_{n_1=0} \frac{N!}{n_1! (N-n_1)!} p^{n_1}q^{N-n_1} \right]\\
& = \left( p \frac{\partial}{\partial p}\right)^2 (p+q)^N\\
&= \left( p \frac{\partial}{\partial p}\right)\left( pN(p+q)^N \right)\\
& = p \left[ N(p+q)^{N-1}+pN(N-1)(p+q)^{N-2} \right]
\end{split}
\end{equation}

Para o caso analisado, $p+q =1$, então
\begin{equation}
\begin{split}
\overline{n_1^2} & =  p \left[ N+pN(N-1) \right]\\
& = Np \left[1 + pN-p \right]\\
& = Np + (Np)^2 - Np^2\\
& = (Np)^2 + Np(1-p)\\
& = (Np)^2 + Npq
\end{split}
\end{equation}

mas $Np= \overline{n_1}$, e assim, $\overline{n_1^2} = (\overline{n_1})^2+Npq$ e portanto,
 \begin{equation}
\boxed{
\overline{(\Delta n_1)^2} = \overline{n_1^2}-(\overline{n_1})^2 = Npq
}
\end{equation}

Observe que $\overline{(\Delta n_1)^2}$ é uma medida quadrática no deslocamento. Desta forma, sua raiz quadrada será uma medida linear da largura do intervalo sobre o qual $n_1$ está distribuido. Uma boa medida de largura relativa desta distribuição é então,
\begin{equation}
\frac{\sqrt{\overline{(\Delta n_1)^2}}}{\overline{n_1}} = \frac{\sqrt{Npq}}{Np} = \sqrt{\frac{q}{p}}\frac{1}{\sqrt{N}}
\end{equation}

que para o caso particular em quye $p=q=0,5$ $$ \frac{\sqrt{\overline{(\Delta n_1)^2}}}{\overline{n_1}} = \frac{1}{\sqrt{N}}$$

Também é possível se calcular a dispersão do deslocamento $m$ $\left( m = n_2 - n_2 = 2n_ -N \right)$. Daí, $$\Delta m = m - \overline{m} = (2n_1-N)-(2\overline{n_1}-N) = 2(n_1-\overline{n_1}) = 2\Delta n_1$$

Portanto, $(\Delta m)^2 = 4 (\Delta n_1)^2$. Tomando a média,
\begin{equation}
\overline{(\Delta m)^2} = 4 \overline{ (\Delta n_1)^2} = 4Npq
\end{equation}

E no caso onde $p=q=0,5$, $$\boxed{\overline{(\Delta m)^2} = N} $$

Em termos estatísticos, a disperção é também chamada de variancia e a sua raiz quadrada de desvio padrão.

Referência: Federick Reif, "Fundamentals of Statistical and Thermal Physics". McGraw-Hill

segunda-feira, 24 de abril de 2017

Valores Médios e Dispersão

No artigo anterior foi abordado a temática das caminhadas aleatórias, ou Random Walk, onde foi mostrado que é possível determinar o comportamento probabilístico de um sistema cujos seus passos sejam independentes uns dos outros. Contudo, é muito desejável que se realiza alguma medida de valor centrarl do processo. Desta forma, como deve-se proceder?

Seja  $u$ uma variável a pode assumir qualquer um de $M$ valores, $$ u_1, u_2, \dots, u_M$$ com as respectivas probabilidades $$P(u_1), P(u_2), \dots, P(u_M)$$

Assim, o valor médio de $u$, denotado aqui por $\overline{u}$, é definido como,

\begin{equation}
\overline{u} = \frac{P(u_1) u_1 + P(u_2) u_2 + \cdots + P(u_M) u_M } {P(u_1) + P(u_2) + \cdots  +  P(u_M)}
\end{equation}
ou simplesmente,

\begin{equation}
\overline{u} = \frac{\sum^M_{i=0} P(u_i)\cdot u_i}{\sum^M_{i=0} P(u_i)}
\end{equation}

É possível ainda generalizar esta ideia de média! Seja $f(u)$ uma função da variável $u$. O valor mádio de $f(u)$ é definido de forma análoga,

\begin{equation}\label{eqn:valorEsperado}
\overline{f(u)} = \frac{\sum^M_{i=0} P(u_i) \cdot f(u_i)}{\sum^M_{i=0} P(u_i)}
\end{equation}

Contudo, observe que $P(u_i)$ é uma probabilidade. Logo, o somatório sobre todas as possibilidades tem que ser necessariamente 1 (100%). Portanto, a Equação \ref{eqn:valorEsperado} pode ser escrita de forma simples como,

\begin{equation}
\overline{f(u)} = \sum^M_{i=0} P(u_i) \cdot f(u_i)
\end{equation}

Logo, sejam duas funções $f(u)$ e $g(u)$, então:

\begin{equation}
\begin{split}
\overline{f(u)+g(u)} & = \sum^M_{i=0} P(u_i) \cdot \left( f(u_i) + g(u_i) \right) \\
& = \sum^M_{i=0} P(u_i) \cdot f(u_i) +  \sum^M_{i=0} P(u_i) \cdot g(u_i) \\
& = \overline{f(u)} + \overline{g(u)}
\end{split}
\end{equation}

De maneira análoga, seja $c$ uma constante qualquer, então

\begin{equation}
\overline{c \cdot f(u)} = c \cdot \overline{f(u)}
\end{equation}

Estes cálculos de valores médios são bastante aplicáveis para a descrição de traços característicos médios de distribuições de probabilidades, sendo estes uma medida de valor central do processo.

Desta forma, também é possível se calcular a distância que um dado valor observado pontualmente de $u$ está do seu valor médio $\overline{u}$, $$\Delta u = u - \overline{u}$$ Logo, $$\overline{\Delta u} = \overline{u - \overline{u})} = \overline{u}-\overline{u} = 0$$ ou seja, a dispersão média sempre é nula!

Outro valor médio muito usável é o valor médio do quadrado da dispersão,

\begin{equation}\label{eqn:var}
\overline{(\Delta u)^2} = \sum^M_{i=1} P(u_i) (u_i - \overline{u})^2 \geq 0
\end{equation}

o qual é chamado de segundo momento de $u$ com respeito a sua média. Este nunca pode ser negativo, visto que pw o quadrado de um número! Assim, como $(\Delta u)^2 \geq 0$, cada termo da Equação \ref{eqn:var} contribui de forma não negativa, onde apenas no caso onde $u_i=\overline{u}$ o termo do somatório será zero. Desta forma, quanto maior a distância de $u_i$ para $\overline{u}$, maior a sua dispersão.

Portanto, a dispersão $\overline{(\Delta u)^2}$ (tmabém chamada de variância)  mede o quanto espalhado (em média) $u_i$ se encontra da sua média $\overline{u}$. Vale frisar que,

\begin{equation}
\begin{split}
\overline{(\Delta u)^2} & = \overline{(u - \overline{u})^2}\\
& = \overline{(u^2 -2 uu + \overline{u}^2)}\\
& = \overline{u^2} - 2 \overline{u} \overline{u} + \overline{u}^2\\
& = \overline{u^2} - \overline{u}^2
\end{split}
\end{equation}
e como $\overline{(u-\overline{u})^2} \geq 0$, então implica que $\overline{u^2} \geq \overline{u}^2$.

De forma análoga também é possível se definir os momentos de mais alta ordem $\overline{(\Delta u)^n}$ para $n> 2$.

sábado, 22 de abril de 2017

Caminhadas Aleatórias Clássicas (Random Walk)

Embora a natureza tenha as suas leis muito bem determinadas (mesmo que nós não tenhamos consciência de todas elas!), mas em uma análise rigoroso sempre há alguma fração de não determinismo em todos os processos naturais, mesmo que este fração seja diminuta em alguns casos.

Desta forma, sempre é possível ter uma visão estatística do que se deseja descrever física, matemática ou computacionalmente. Ou seja, modelos rigorosamente realísticos devem utilizar de alguma forma a teoria da probabilidade em seus processos. Para tanto, ao olhar da mecânica estatística (física) é possível definir um sistema macroscópico como sendo um conjunto de sistemas microscópicos (ou do inglês, um ensemble), de cardinalidade muito alto (tendendo ao infinito).

Uma forma muito simples conceitualmente, e também muito interessante, de se modelar vários processos naturais  (pelo menos em primeira aproximação) é o procedimento chamado "Caminhada Aleatória", ou do inglês Ramdom Walk. Este procedimento tem inúmeras aplicabilidades, desde o mundo microscópico até o astronômico, permeando as ciências da física, matemática, estatística, química, biologia, dentre outras.

Hipoteticamente, é possível de definir uma Caminhada Aleatória através do enunciado do  seguinte problema:  Seja um indivíduo que se encontra em um estado de embriagues alcoólica. Este indivíduo está bêbado o suficiente para não ter controle sobre os seus passos, mas está sóbrio o suficiente para conseguir ficar de pé e caminhar. Inicialmente o indivíduo está em um bar, e visto que o seu dinheiro acabaou, só resta para ele voltar a pé para sua residência.

Por simplicidade, considere o problema unidimensional, ou seja, o bêbado só poderá dar um passo por unidade de tempo, sendo este ou para a direita ou para a esquerda. Dado o estado de embriagues do indivíduo, todos os seus passos são considerados independentes dos respectivos passos anteriores. Suponha também que todos os passos tenham o mesmo tamanho $l$. Logo, cada vez que o bêbado dá um passo, a probabilidade deste passo ser para a direita será $p$ e para a esquerda será $q=1-p$. No caso mais simples $p=q$, o que no nosso problema significa que a caminhada do bêbado está ocorrendo em uma região plana, não havendo nenhum privilégio para o passo a direita ou a esquerda. Contudo, no caso geral $p \neq q$, o que implicaria, por exemplo, a caminhada do bêbado em uma ladeira.

Assim, admitindo que o ponto de partida do bêbado seja o bar (localizado em $x=0$) e que toada a sua caminhada ocorrerá sobre o eixo $x$ (uma dimensão), a localização do bêbado tem que ser da forma,

\begin{equation}
x = ml
\end{equation}
onde $m$ é um inteiro (positivo, negativo ou zero)em um dado instante qualquer.



Desta forma, a questão natural é: depois de $N$ passos, qual a probabilidade do bêbado estar na posição $x=ml$? Ou equivalentemente, se sua residência está a $k$ passos do bar ($N \geq k$), qual a probabilidade do bêbado chegar em sua casa depois de $N$ passos?

Em uma visão estatística, seria necessário realizar várias vezes a observação do bêbado andando ou considerar vários homens bêbados realizando a caminhada em busca de sua casa ou mesmo tempo. Neste último senário, depois de $N$ passos, qual a fração destes homens estaria na posição $x=ml$? Ou ainda, qual a fração destes homens teria alcançado a sua casa (todos estão tentando chegar até a mesma casa!).

Este problema fictício (assim espero...) aparentemente bob, ilustra alguns resultados fundamentais da teoria da probabilidade. Assim, sendo o bêbado representado por uma partícula, depois de $N$ passos , cada um de tamanho $l$, tal partícula estará localizada em $x=ml$, sendo $m$ um inteiro de valor,
\begin{equation}
-N \leq m \leq N
\end{equation}

Deseja-se calcular a probabilidade de se encontrar a partícula na posição $x=ml$ depois de $N$ passos. Para tanto, seja $n_1$ o número de passos dados para a direita, e $n_2$ o número de passos para a esquerda. Portanto,
\begin{equation}
N=n_1 + n_2
\end{equation}

O deslocamento medido em unidades de comprimento de um passo, medidos a partir da posição do bar ($x=0$), é dado por
\begin{equation}\label{eqn:m}
m=n_1-n_2
\end{equation}
Observe que $m$ também poderia ser definido como $m=n_2-n_1$. Contudo, como está sendo considerado que a direção positiva está para a direita, utiliza-se a Equação \ref{eqn:m}. Vale também frisar que se for conhecida a quantidade de passos para a direita $n_1$ (ou para a esquerda $n_2$) é possível se determinar sua posição, visto que se conhece $N$,
\begin{equation}
m=n_1-n_2 = n_1-(N-n_1) = 2n_1 - N
\end{equation}
Dado que $2n_1$ é um número par, $m$ será par se $N$ for par, e será ímpar se $N$ também assim for.

Como todos os passos são estabelecidos independentemente, cada passo é caracterizado para sua respectiva probabilidade,

  • $p$ - probabilidade do passo ser para a direita;
  • $q=1-p$ - probabilidade do passo ser para a esquerda.
Portanto, qualquer sequência de $n_1$ passos para a direita e $n_2$ passos para a esquerda terá uma probabilidade dada por,
\begin{equation}
\underbrace{p \cdot p \dots p}_{n_1} \cdot \underbrace{q \cdot q \dots q}_{n_2} = p^{n_1} \cdot q^{n_2}
\end{equation}

Entretanto, observe que pode existir muitas formas de se ter $N$  passos compostos por $n_1$ passos para a direita e $n_2$ passos para a esquerda. A quantidade de possibilidades de arranjos para uma dada configura de $N$ passos é,
\begin{equation}
\frac{N!}{n_1! n_2!}
\end{equation}

Daí, a probabilidade $P_N(n_1)$ de se ter $n_1$ pasos para a direita e $n_2 = N-n_1$ passos para esquerda (em um total de $N$ passos) é,
\begin{equation}\label{eqn:binomial}
P_N(n_1) = \frac{N!}{n_1! n_2!} p^{n_1} q^{N-n_1}
\end{equation}

A Equação \ref{eqn:binomial} é chamada de distribuição binomial, visto que esta é um termo típico encontrado na expansão de $(p+q)^N$ pelo teorema binomial,
\begin{equation}
(p+q)^N = \sum^N_{n=0}\frac{N!}{n! (N-n)!}p^n q^{N-n}
\end{equation}

Desta forma, escrevendo, $$ n_1 = \frac{1}{2}(N+m) $$ $$n_2 = \frac{1}{2} (N-m)$$ a probabilidade de uma partícula (bêbado) ser encotrada na posição $m$ depois de $N$ passos é,
\begin{equation}
P_N(m) = \frac{N!}{ \left( \frac{1}{2}(N+m)\right) ! \left( \frac{1}{2}(N-m)\right) !} p^{ \frac{1}{2}(N+m)}q^{ \frac{1}{2}(N-m)}
\end{equation}
onde para o caso especial de $p=q=\frac{1}{2}$, 
\begin{equation}
P_N(m) = \frac{N!}{ \left( \frac{1}{2}(N+m)\right) ! \left( \frac{1}{2}(N-m)\right) !} \left( \frac{1}{2} \right) ^N
\end{equation}

As figuras abaixo apresentam as probabilidades de encontrar a partícula (o bêbado) na posição $m$ para três situaçãoes, $p=q=0,5$; $p=0,70$ e $q=0,30$; e, $p=0,30$ e $q=0,70$. Vale frisar que, computacionalmente, poder existir alguma dificuldade em  calcular a função fatorial para números não inteiros. Desta forma, é possível utilizar a função $\Gamma$ (gama), onde $$Z! = \Gamma(Z+1) = \int^\infty_0 t^Z \exp(-t) dt$$




sexta-feira, 18 de novembro de 2016

Sonomulinescência - Sua estrela particular!

Exite um fenômeno muito curioso e interessante que pode ser reproduzido a baixo custo, inicialmente observado em 1933/1934, chamado de sonomulinescência, que como o próprio nome induz a deduzir é a geração de luz a partir do som. Este processo, pode ser observado por meio de um problema chamado de cavitação, onde por exemplo uma bolha de ar é "aprisionada" por uma onde acústica na água.

O processo de cavitação pode ser coloquialmente descrito como um criação de uma força oscilante por meio de um campo acústico que funciona como um ponto atrator em um fluido para uma bolha de gás, como pode ser visto na figura abaixo.
Fonte: http://spaceplasma.tumblr.com/post/51074228039/sonoluminescence-how-bubbles-turn-sound-into

Dado o campo acusto produzido pelos piezoelétricos, ao introduzir uma bolha de ar na água, esta é capturada e fica presa neste campa. Desta forma, a bolha começa a interagir com o campa acústico entrando em ressonância, onde seu raio começa a oscilar. O gráfico abaixo mostra a dinâmica típica do raio da bolha.

Fnte: http://www.sonoluminescence.com/id6.html

É possível verificar que o raio da bolha cresce e abruptamente colapsa para um valor muito próxima de zero. Dado que o volume de uma esfera escala com o seu raio ($R$) ao cubo, $$V_{esfera} = \frac{4}{3} \pi R^3 $$, existirá um aumento drástico da pressão no interior da bolha. Assim, este efeito irá compactar o ar dentro da bolha de forma tão intensa que gerará um plasma super aquecido, funcionando literalmente como um estrela! A qual emite luz!

Este é um fenômeno bastante interessante e utilizada inclusive por alguns tipos de camarões para atacar suas prezas, onde com um movimento ultrassônico de sua pata, o camarão gera uma bolha que emite luz! [Referência - Nature].

Uma ideia que vem sendo perseguida por vários grupo de pesquisa com a utilização da sonoluminescência é a possibilidade de fusão nuclear a frio. Dado que a bolha funciona tipicamente como uma estrela, onde há fusão nuclear, existe a ideia de se tentar fundir dois átomos de hidrogênio, criando um átomo de Hélio, gerando energia. 

O pesquisador Laurence A. Crum publicou um artigo no Jounal of the Acoustical Society of America, intitulado Resource Paper: Sonoluminescence, onde é apresentado um apanhado rigoroso dos artigos encontrados na literatura a respeito de sonoluminescência, sendo este uma excelente fonte de referência para a busca de estudos teóricos, experimentas e aplicações na nárea.

domingo, 13 de novembro de 2016

Será Possível Prever o Futuro?

Olá Pessoal! Na natureza existem leis, e tais lei regem o comportamento dos sistemas, seja este o sistema solar com as posições relativas dos astros por exemplo, ou o sistema climático da terra, dentre tantos outros. Mas a questão é se entendermos estas leis somos capazes de predizer tudo a respeito do sistema em análise? A resposta é: depende da lei!

De forma bastante geral, observando a natureza de forma macroscópica e clássica, existem processos que são regidos por leis  determinísticas, chamados de processos determinísticos, e por lei estocásticas (ou não determinísticas), chamados de processos estocásticos (ou não determinísticos).

Os Processos Determinísticos, como o próprio nome já nos induz a pensar, uma vez conhecidas as leis que os regem é possível determinar exatamente o que irá ocorrer, ou qual será o estado do sistema, em um determinado tempo qualquer, seja este o presente, passado ou futuro. Como já citado como exemplo, o nosso sistema solar, formado por todos os seus astros, é guido pela lei da grafitação, a qual é determinística (lei newtoniana).

Contudo, os fenômenos estocástico, com suas lei não determinísticas, irão seguir alguma função de distribuição de probabilidade (fdp), a qual irá reger as chances de algo ocorrer. 



Assim, imagine um sistema que evolui no tempo, logo dado um valor possível do domínio, no caso x0, a fdp irá dar a probabilidade deste evento ocorrer (ou ser observado) no instante de tempo t. Portanto, se perguntarmos qual a probabilidade de algum evento (de todos os possíveis) ocorrer (dado que um evento irá obrigatoriamente ocorrer, visto que o tempo está correndo), a resposta deverá ser obrigatoriamente 100%, visto que algum evento dos possível obrigatoriamente irá ocorrer. Assim se representarmos a área como a probabilidade de algum intervalo de valores de x ocorrer, a área total ( de -infinito até +infinito) deverá ser 1 (ou 100%). Outra obervação importante a respeito das fdp's vem do fato de que a "largura" da fdp dá a ideia de dispersão (ou espalhamento). Assim, quanto mais "larga" for a fdp, maior será a variação provável do sistema, ou em outra palavras, maior será a variância (e também maior será o desvio padrão). 

Contudo, em um processo típico estocástico, como por exemplo o valor de uma ação em uma bolsa de valores, a impressão que dá para perceber é que, embora exista algo não determinístico ocorrendo, existe alguma lei que ainda relaciona os acontecimentos passados (e presente) para a determinação dos estados futuros. Ou seja, se uma dada ação, por exemplo, vem em uma tendencia de alta, e nenhum acontecimento externo ocorre,  é natural que esperemos que esta ação continue em alta. 

Assim, de forma simplista, suponto que a variância da fdp é uma constante (processo homocedástico) e que existe um relacionamento linear entre as observações do sistema no tempo, existem uma teoria muito bem formulada chamada comumente de modelos de Box & Jenkins [1], ou modelos ARIMA(p,d,q) (Auto-Regressive Integrated Move Averange de ordem p,d,q). De forma geral, estes modelos consideram que exite uma correlação entre as observações passadas e presente dos estados do sistema bem como dos choque aleatórios do passado e presente. Os choques aleatórios são exatamente a parte não determinística do processo que em tese deve seguir uma distribuição gaussiana (ou norma) de média zero e variância constate. Portanto, estes choque aleatórios constituem o que se chama de ruído branco, onde suas observações são independentes e identicamente distribuídas (seguindo uma Normal).

Se $Z_t$ é uma observação no tempo $t$ de um processo $Z$, a forma geral do modelo ARIMA seria: $$ ( 1- \phi_{1} B - \phi_{2} B^2 - \cdots -\phi_{p} B^p ) (1-B)^d Z_t  = (1-\theta_1 B - \theta_2 B^2 - \cdots - \theta_q B^q) a_t$$

onde $B$ é o operador de translado temporal para trás de tal forma que $$B Z_t = Z_{t-1}, \quad B^2 Z_t = B (BZ_t) = B Z_{t-1} = Z_{t-2}$$

onde é possível generalizar, $$ B^m Z_t = Z_{t-m}$$.

Os termos $\phi_1, \phi_2, \dots, \phi_p, \theta_1, \theta_2, \dots, \theta_q$ são os $p$'s termos auto-regressivos e $q$'s termos de médias móveis, sendo todos coeficientes de ajuste do modelo. E por fim, $a_t$ é o termo de ruido branco, ou choque aleatório.

Assim, uma vez observando a evolução de um dado processo no tempo (uma série temporal), é possível determinar os graus $p,d,q$ (o modelo em si) e todos os respectivos parâmetros. Contudo, dado que existe sempre uma componente vinda de um ruido branco ($a_t$), as previsões geradas por este tipo de modelagem sempre irá buscar uma solução de menor erro possível, mas que raramente será zero! De forma prática, esta modelagem ao gerar uma previsão também gera um intervalo de confiança, que irá dar com um certo grau de confiança  um intervalo (um valor de máximo e um de mínimo) onde a verdadeira previsão deverá ocorrer. Neste sentido, um bom modelo será aquele que tiver com um alto grau de confiança um pequeno intervalo para a previsão.

Bem, é assim que de forma geral se realiza uma previsão de um processo estocástico. É claro que existem outros modelos, inclusive modelos não lineares extremamente sofisticados, mas o conceito é o mesmo: dada uma série temporal, seleciona-se um modelo capaz de verificar padrões de correlação entre os dados e extrapola-se tal modelo. Dada a incerteza do processo estocástico, cria-se também um intervalo de confiança para a previsão estimada.


domingo, 3 de abril de 2016

Kit Básico de Sobrevivência para um Aluno de Sistemas de Informação que Precisa Estudar Algoritmos!

Olá pessoal! Fugindo um pouquinho da ideia que é falar de assuntos de foco reflexivo científico e acadêmico deste blog, estou publicando um assunto um pouco mais restritivo, mas de grande interesse para os indivíduos que pretendem enveredar pelos estudos de algoritmos.

Assim, este artigo visa dar algumas dicas e referências fundamentais para todo aquele que por algum motivo precisam analisar custo computacional, em particular, o custo em tempo em um dado algoritmo e estão iniciando seus estudos. Lembrando que medir tempo em um computados é equivalente a contar iterações de clock, e ainda, suponto que um dado comando sempre será executado em um número fixo de iterações de clock, é equivalente medir a quantidade de vezes que um dado comando (ou conjunto de comandos) é (ou são) executado(s) em um algoritmo.



sábado, 26 de março de 2016

Até onde a nossa percepção condiz com a realidade?

Como já dito em alguns textos já publicados aqui no blog, nem sempre a nossa percepção a respeito do nosso mundo irá conduzir a realizar. Vivemos em uma escala da natureza que é dominada pela mecânica newtoniana. Portanto a pergunta natural é quais as limitações desta percepção?

Facilmente é possível introduzir os conceitos de posição, tempo, momento e energia para fenômenos corriqueiros do nosso dia a dia. É de senso comum, em pessoas leigas, que estas quantidades podem ser todas medidas com uma acurácia arbitrária, dependendo unicamente do grau de sofisticação do instrumento de medida, mas não de medida em si. De fato, estas implicações aparentam ser verificadas em todo os objetos macroscópicos. Por exemplo, em qualquer instante de tempo é possível medir a velocidade e a posição de um veículo com altíssima precisão.

Quanto é desejado realizar uma medida precisa em objetos microscópicos, somos deparados com uma  fundamental limitação na acurácia dos resultados. Por exemplo, é possível conceber uma medida da posição de um elétron por meio do espalhamento de um fóton de luz. A característica ondulatória do fóton opõe-se a um procedimento de medida exata, sendo possível a medida da posição do elétron apenas com uma certa imprecisão, ou incerteza, ∆x. Além desta incerteza na posição, a interação do fóton com o elétron induziu uma modificação no estado de movimento do elétron, onde é possível ter havido a transferência de momento do fóton par ao elétron, gerando uma incerteza no momento de ∆p.

O produto ∆x∆p é a medida da precisão com a qual é possível de medir simultaneamente a posição e o momento do elétron. (veja a postagem "Alguém tem certeza de algo?") A situação permitida pela mecânica newtoniana de ∆x→0 e ∆p→0 leva a uma situação de precisão infinita. Foi mostrado pelo físico alemão Werner Heisemberg (1901-1976) em 1927 que tal produto deve ser sempre maior do que um certo valor mínimo positivo, sendo impossível se medir simultaneamente a posição e o momento de algum objeto com precisão infinita, sendo esta proibição conhecida como Princípio da Incerteza de Heisemberg, uma primeira limitação da mecânica newtoniana.

Vale ressaltar que o valor mínimo para o produto ∆x∆p é da ordem de 10^{-34} Js. Este valor é extremamente pequeno para padrões macroscópicos, não implicando na prática nenhuma dificuldade de medida simultânea da posição e momento. Assim, a mecânica newtoniana apode ser aplicada na escala macroscópica sem grandes problemas práticos, mas não pode ser aplicada à sistemas microscópicos. Para a análise de processos microscópico é necessário uma nova mecânica, a mecânica quântica.

Além da limitação de escala especial, onde a mecânica newtoniana só é adequada para grandes escalas, há ainda outra limitação: o conceito do tempo. No conceito newtoniano, o tempo é absoluto, este é suposto ser sempre possível determinar se dois eventos ocorrem no mesmo instante de tempo ou não. Para se decidir a sequência temporal de eventos, observadores em cada evento devem ser dotados de algum tipo de comunicação instantânea, ou através de algum sistema de sinais ou através do estabelecimento de dois relógios exatamente (infinitamente, incerteza no tempo seria zero!) sincronizados sobre algum ponto de observação. Contudo,  ter dois relógios precisamente sincronizados requer o conhecimento do tempo de trânsito de um sinal em uma direção, de um observado para o outro, requerendo comunicação entre os observadores.

Hoje é conhecido que a comunicação instantânea por meio de sinais é impossível, sendo a máxima velocidade de propagação de um sinal igual velocidade de luz, da ordem de 300.000 km/s (ou 299.792,4580 km/s)

A dificuldade de estabelecer um [unica escala temporal entre pontos separados especialmente faz acreditar que o tempo não é absoluto, e que o espaço e o tempo são de alguma forma intimamente relacionados. A solução deste dilema foi encontrada durante os anos de 1094 e 1905 por Hendrik Lorentz (1853-1928), Henri Poincaré (1854-1912) e Albert Einsten (1879-1955) e é encorporada pela teoria especial da relatividades.

Assim, as nossas limitações de percepção são muitas: distâncias muito pequenas, velocidades muito altas. E além destas, quando objetos muito massivos ou distâncias enormes estão envolvidos no problemas, nossa percepção comum também falha. E como uma limitação prática, sistemas com muitas partículas também é uma fonte de problemas para a mecânica newtoniana, sendo preciso a utilização de procedimentos estatísticos, ou da mecânica estatística.