albertguedes
(usa Gentoo)
Enviado em 11/06/2008 - 14:06h
Não querendo ser intrometido, mas já me intrometendo, posso dar um exemplo legal disso Izabel.
Imaginem que vocês vão fazer uma simulação de um jogo de loteria e quisessem medir a média em que sai cada jogo.
Pra isso você teria que simular N sorteios, e contar quantas vezes saiu tal jogo nesses N sorteios.
Mas tem-se que repetir esses N sorteios umas M vezes para poder ser possivel calcular a média e o erro statistico do sorteio.
Agora imagine que na loteria temos que escolher de 60 numeros apenas 6, nisso podemos ter 36.045.979.200 de jogos diferentes possíveis.
Se na simulação você escolher 10 sorteios umas 100 vezes apenas, não dá pra tirar uma média descente, já que o número de jogadas são muito pquenos perto dos 36.045.979.200 de possibilidades. Então o certo é fazer N e M enormes (pra lá de 1 bilhão) para ter as médias certas. SE considerarmos que temos um certo numero de passos a cada ciclo de processamento para o computador fazer um jogo, contar, e depois realizar tudo novamente esses bilhão de vezes, podemos ter perto de 1 bilhão X 1 bilhão de ciclos de processamento para termos os números os mais exatos POSSIVEIS, pois sempre existe um errinho estatistico(odeio esses erros).
Calcule ai quanto seria 10 elevado a 18 ciclos num pentium quadricore de 4 GHz pra ver quanto tempo de processamento daria para se ter os resultados e terá uma idéia de como as coisas funcionam.
Eu mesmo já simulei moleculas de gases com apenas 1000 moléculas e devia calcular a velocidade média delas pra achar a temperatura do gás.
Não vou entrar em detalhes, mas essas poucas 1000 moléculas me custaram 10 elevado a 22 ciclos de processamento aproximadamente, e nem terminei a simulação por falta de capacidade computacional.
Mas existem outras técnicas mais simples de fazer isso mais rápido, e tambem reduzi para 5 moleculas para dar certo, mas imaginem com quem trabalha em coisas mais complexas uquanto tempo leva pra realizar essas contas em computadores comuns.