%%% Antes de processar este arquivo LaTeX (LaTeX2e) deve
%% verificar que o arquivo TEMA.cls estah no mesmo
%% diretorio. O arquivo TEMA.cls pode ser obtido do
%% endereco www.sbmac.org.br/tema.

\documentclass{TEMA}

\usepackage[brazil]{babel}      % para texto em Português
%\usepackage[english]{babel}    % para texto em Inglês

\usepackage[latin1]{inputenc}   % para acentuação em Português
%\input{P-margin.inf}

\usepackage[dvips]{graphics}
\usepackage{subfigure}
\usepackage{graphicx}
\usepackage{epsfig}
\usepackage{graphicx,indentfirst,amsmath,amsfonts,amssymb,amsthm,newlfont}

\newcommand{\B}{{\tt\symbol{92}}}
\newcommand{\til}{{\tt\symbol{126}}}
\newcommand{\chap}{{\tt\symbol{94}}}
\newcommand{\agud}{{\tt\symbol{13}}}
\newcommand{\crav}{{\tt\symbol{18}}}
\usepackage{array}
\newcolumntype{C}[1]{>{\centering\let\newline\\\arraybackslash\hspace{0pt}}m{#1}}
\begin{document}

%********************************************************
\title
    {Análise do Esforço Computacional das Funções Densidade de Probabilidade com Diferentes Distribuições}



\criartitulo

\runningheads {}{Esforço Computacional das Funções Densidade de Probabilidade} %titulo abreviado...

\begin{abstract}
{\bf Resumo}. Quando se trabalha com números de ponto flutuante o resultado é apenas uma aproximação de um valor real e erros gerados por arredondamentos ou por instabilidade dos algoritmos podem levar a resultados incorretos. Não se pode afirmar a exatidão da resposta estimada sem o auxílio de uma análise de erro. Utilizando-se intervalos para representação dos números reais, é possível controlar a propagação desses erros, pois resultados intervalares carregam consigo a segurança de sua qualidade. Para obter o valor numérico das funções densidade de probabilidade das variáveis aleatórias contínuas com distribuições Uniforme, Exponencial, Normal, Gama e Pareto se faz necessário o uso de integração numérica, uma vez que a primitiva da função nem sempre é simples de se obter. Além disso, o resultado é obtido por aproximação e, portanto, afetado por erros de arredondamento ou truncamento.
Neste contexto, o presente trabalho possui como objetivo analisar a complexidade computacional para computar as funções densidade de probabilidade com distribuições Uniforme, Exponencial, Normal, Gama e Pareto nas formas real e intervalar.
Assim, certifica-se que ao utilizar aritmética intervalar para o cálculo da função densidade de probabilidade das variáveis aleatórias com distribuições, é possível obter um controle automático de erros com limites confiáveis, e, no mínimo, manter o esforço computacional existente nos cálculos que utilizam a aritmética real.


{\bf Palavras-chave}. Aritmética Intervalar, complexidade computacional, probabilidade.
\end{abstract}


%********************************************************
\newsec{Introdução}

   Na matemática intervalar, o valor real $x$
   é aproximado por um intervalo
   X, que possui $\underline{x}$ e $\bar{x}$ como limites inferior e superior, de forma que o intervalo contenha $x$. O tamanho deste
   intervalo pode ser usado como medida para avaliar a qualidade de
   aproximação \cite{RAT88}. Os cálculos reais são
   substituídos por cálculos que utilizam a aritmética intervalar \cite{Moore66}.
   
   A análise intervalar surgiu com o objetivo inicial de controlar a propagação de erros numéricos em procedimentos computacionais. Mas, aparentemente, a matemática intervalar duplica o problema de representação dos números reais em processadores numéricos, uma vez que ao invés de operar com um número real, operam-se com dois.
   Entretanto, sua realização  é feita por meio de números de ponto flutuante, isto é, os extremos do intervalo X são números de máquina $\underline{x}_{pf}$ e $\bar{x}_{pf}$ \cite{ Moore79,MKC09}.
   
   Intervalos automatizam a análise do erro computacional, ou seja, através de sua utilização tem-se um controle automático de erros com limites
   confiáveis.
   
   No processo de resolução de problemas podem ser constatadas
   fontes de erros, tais como: propagação dos erros nos dados iniciais,
   arredondamento e erros de truncamento, causados ao se
   truncar sequências de operações aritméticas, após um
   número finito de etapas. Neste contexto, percebe-se a importância
   de técnicas intervalares. Ressalta-se que uma resposta intervalar
   carrega com ela a garantia de sua incerteza. Um valor pontual não
   carrega medidas de sua incerteza. Mesmo quando uma análise de
   sondagem do erro é executada, o número resultante é somente uma
   estimativa do erro que pode estar presente.
   
   No estudo das variáveis aleatórias contínuas sobre o conjunto dos números reais, $\mathbb{R}$, um dos  problemas é o cálculo de probabilidades, visto que é necessário resolver uma integral definida da função densidade que, na maioria das vezes, não possui primitiva explícita ou cuja primitiva não é simples de se obter. Considerando que integrais de funções densidade de probabilidade sejam resolvidas analiticamente, seu valor numérico é dado por aproximação e, portanto, afetado por erros de arredondamento ou truncamento.
   
   Computar probabilidades em situações práticas envolve números e, consequentemente, problemas numéricos. Problemas numéricos na computação científica originam-se primordialmente da impossibilidade de se operar com números reais diretamente, pois tem-se que representar uma grandeza contínua (a reta real) de forma discreta (palavras de máquina) \cite{Campos}. O sistema de ponto flutuante é uma aproximação prática dos números reais.
   
   Considerando que o controle do erro numérico é realizado através do uso de intervalos ao invés de números reais, Kulisch \cite{Kulisch08} e Kulisch e Miranker \cite{KulMir81} propuseram que a implementação da aritmética intervalar seja realizada através da chamada aritmética de exatidão máxima, o que significa a busca para que resultados numéricos ou sejam números de pontos flutuantes ou estejam entre dois números de pontos flutuantes consecutivos.
   
   Dentre a diversas soluções ou implementações para determinado problema, muitas vezes é preciso escolher a mais eficiente. Para isso, existe a análise de algoritmos, a qual tem como objetivo melhorar, se possível, seu
   desempenho e escolher entre os algoritmos disponíveis o melhor. Existem
   vários critérios de avaliação de um algoritmo como: quantidade de trabalho
   requerido, quantidade de espaço requerido, simplicidade, exatidão de resposta e
   otimalidade \cite{Toscani}.
   
   Preocupados se a quantidade de trabalho dispendido pelo algoritmo aumenta ao utilizar intervalos para controlar a propagação de erros, o presente trabalho realiza a análise da complexidade para computar as funções densidade de probabilidade das variáveis aleatórias com distribuições Uniforme, Exponencial, Normal, Pareto e Gama, nas formas real e intervalar. Através desta análise, justifica-se que ao utilizar intervalos para calcular tais funções é possível ter um controle automático de erros com limites confiáveis e manter o esforço computacional (ou quantidade de trabalho requerido) quando calculado com as funções na sua forma real.
   


   
\newsec{Distribuições e Métodos de Resolução}
Como no cálculo de probabilidade das variáveis aleatórias contínuas é preciso resolver uma integral e nem sempre a primitiva é simples de se obter, torna-se necessário utilizar outros métodos de resolução de integral.

As funções com entradas reais, nas quais a primitiva da função era simples de se obter, utilizou-se duas soluções, onde uma calcula o resultado através da primitiva da função e a outra realiza o cálculo através do método 1/3 de Simpson \cite{RUGGIERO}. Já naquelas onde a primitiva não era explícita utiliza-se somente o método 1/3 de Simpson. Para as funções com entradas intervalares em que a primitiva era simples de se obter utilizou-se a primitiva da função na forma intervalar e o método de Simpson Intervalar definido por Caprani \textit{et al} \cite{CMN02} para obter o intervalo solução. Já aquelas funções em que a primitiva não é explícita, calculou-se os intervalos encapsuladores através do método de Simpson Intervalar. 

 Abaixo, é listada cada função com suas respectivas formas de resolução, primeiro para entradas reais e depois para as intervalares.
\begin{itemize}
	
	\item Distribuição Uniforme:
	\begin{itemize}
		\item Real 
		\begin{itemize}
			\item Primitiva da função: 
			\begin{equation}
				\int_{a}^{b}f(x)dx = \frac{1}{b-a}\nonumber
			\end{equation}
		\end{itemize}
		\item Intervalar
		\begin{itemize}
			\item Primitiva da função: 
			\begin{equation}
				\int_{a}^{b}f(X)dx = \bar{x} \times \frac{1}{(b-a)}- \underline{x} \times \frac{1}{(b-a)} \nonumber
			\end{equation}
		\end{itemize}
	\end{itemize}
	
	\item Distribuição Exponencial:
	\begin{itemize}
		\item Real
		\begin{itemize}
			\item Primitiva da função: 
			\begin{equation}
				\alpha \int^{b}_{a} e^{-\alpha x} dx = e^{-\alpha \times x}= e^{-\alpha \times a} - e^{-\alpha \times b}  \nonumber
			\end{equation}
			\item 1/3 de Simpson
		\end{itemize}
		\item Intervalar
		\begin{itemize}
			\item Primitiva da função: 
			\begin{equation}
				\alpha \int^{b}_{a} e^{-\alpha X} dx = e^{-\alpha \times X}= e^{-\alpha \times \bar{x}} - e^{-\alpha \times \underline{x}} \hspace{1mm}  \nonumber
			\end{equation}
			\item Simpson Intervalar
		\end{itemize}
	\end{itemize}
	
	\item Distribuição Normal:
	\begin{itemize}
		\item Real
		\begin{itemize}
			%\item Integral
			\item 1/3 de Simpson
		\end{itemize}
		\item Intervalar
		\begin{itemize}
			%\item Integral
			\item Simpson Intervalar
		\end{itemize}
	\end{itemize}
	
	\item Distribuição Pareto:
	\begin{itemize}
		\item Real
		\begin{itemize}
			\item Primitiva da função: 
			\begin{equation}
				\int^{+\infty}_{\beta} \frac{\alpha \beta^\alpha}{x^{\alpha+1}} dx = \beta^{\alpha} \times (x^{-\alpha}) = \beta^{\alpha} \times (-b^{-\alpha})-\beta^{\alpha} \times (-a^{-\alpha})\nonumber
			\end{equation} 
			\item 1/3 de Simpson
		\end{itemize}
		\item Intervalar
		\begin{itemize}
			\item Primitiva da função: 
			\begin{equation}
				\int^{+\infty}_{\beta} \frac{\alpha \beta^\alpha}{X^{\alpha+1}} dx = \beta^{\alpha} \times (X^{-\alpha}) = \beta^{\alpha} \times (-\bar{x}^{-\alpha})-\beta^{\alpha} \times (-\underline{x}^{-\alpha})\nonumber
			\end{equation}
			\item Simpson Intervalar
		\end{itemize}
	\end{itemize}
	
	\item Distribuição Gama:
	\begin{itemize}
		\item Real
		\begin{itemize}
			%\item Integral
			\item 1/3 de Simpson
		\end{itemize}
		\item Intervalar
		\begin{itemize}
			%\item Integral
			\item Simpson Intervalar
		\end{itemize}
	\end{itemize}
\end{itemize}
\newpage
Os métodos 1/3 de Simpson e Simpson Intervalar foram aplicados em quase todas as distribuições, com exceção da Uniforme. As distribuições Normal e Gama não possuem uma primitiva explícita da integral, logo utilizou-se os métodos 1/3 de Simpson e Simpson Intervalar para resolução.

\newsec{Análise do Esforço Computacional}

O termo complexidade, no contexto de algoritmos, refere-se aos requerimentos de recursos necessários para que um algoritmo possa resolver um problema sob o ponto de vista computacional, ou seja, à quantidade de trabalho despendido pelo algoritmo \cite{Toscani}. Quando o recurso é o tempo, são escolhidas uma ou mais operações fundamentais e então são contados os números de execuções desta operação fundamental na execução do algoritmo. Segundo Toscani \cite{Toscani} a escolha de uma operação como operação fundamental é aceitável se o número de operações executadas pelo algoritmo é proporcional ao número de execuções da operação fundamental.

A complexidade também pode ser vista como uma propriedade do problema, o que significa dar uma medida independente do tratamento dado ao problema, independente do caminho percorrido na busca da solução, portanto independente de algoritmos \cite{Toscani}.

Questões relativas à complexidade de um algoritmo em termos do tempo de computação e espaço de memória são determinantes para o julgamento da eficiência do mesmo \cite{Toscani}.
Um algoritmo, para ser razoável ou não, vai depender de quantos passos computacionais
ele necessita para chegar a solução de um problema. Um algoritmo é considerado razoável quando obtém a solução de um problema em tempo polinomial \cite{Kreinovich:CCFD-98}.

Sob um ponto de vista computacional, Garey e Johnson \cite{Garey} descrevem informalmente um problema como uma questão genérica a ser respondida, geralmente possuindo vários parâmetros, ou variáveis livres.

Um problema é chamado de problema computável se existir um procedimento efetivo que o resolva em um número finito de passos, ou seja, se existe um algoritmo que leve à sua solução. Observa-se, contudo, que um problema considerado "em princípio" computável pode não ser tratável na prática, devido às limitações dos recursos computacionais para executar o algoritmo implementado \cite{Toscani}.

Se existe um algoritmo de tempo polinomial que resolve todas as instâncias de um problema, este problema é tratável, caso contrário diz-se que é intratável \cite{Toscani}.

Nas subseções a seguir, apresentam-se as ordens de complexidade encontradas para cada uma das funções de densidade de probabilidade utilizadas no presente trabalho. Primeiramente, realiza-se a análise para os algoritmos com entradas reais, uma vez que não se encontrou na literatura esse tipo de análise. Em seguida, apresenta-se a análise dos algoritmos intervalares que utilizam a primitiva da função, e, posteriormente, a análise da complexidade de cada distribuição que utiliza o método de Simpson Intervalar.



\subsection{Distribuições com Entradas Reais}

Nesta subseção apresenta-se a análise da complexidade computacional realizada para as funções densidade de probabilidade com entradas reais, utilizando a primitiva da função e o método 1/3 de Simpson para resolução da integral.

\begin{table}[h!]
	\centering
	\caption{\small Análise de complexidade computacional para funções com entradas reais}
	\vspace{3mm}
	
	\label{tabela2}
	\scriptsize{
		\begin{tabular}{cC{5cm}C{5cm}}
			
			Distribuição & Primitiva Real & 1/3 de Simpson\\
			
		\end{tabular}
		\begin{tabular}{c|p{5cm}|p{5cm}}
			
			
			\hline
			Uniforme & É preciso fornecer os intervalos necessários para o cáculo da distribuição. A resolução requer operações aritméticas, como subtração e divisão. A complexidade computacional de resolver tais operações é de ordem constante, logo $O(1)$. & -\\
			\hline
			Exponencial & Parâmetro $\alpha$ e o intervalo em que a probabilidade do valor a ser calculado
			deve estar contido são passados como entrada. Realiza operações aritméticas para resolução da integral. Assim, a complexidade é de ordem $O(1)$. & Parâmetro $\alpha$ e o intervalo em que a probabilidade
			do valor a ser calculado deve estar contido são fornecidos, além do número de subdivisões $n$. Executa operações aritméticas e operações em um laço de repetição que deve ser executado $n$ vezes. Assim, a complexidade é de ordem $O(n)$. \\
			\hline
			Normal & - & Entrada de dados e valor das subdivisões no cálculo do método. Utiliza operações aritméticas e um laço que é repetido o número de subdiviões definidos. Assim, sua complexidade depende do número de subdivisões $n$, obtendo ordem de complexidade linear, $O(n)$\\
			
			\hline
			Pareto & Parâmetros $\alpha$ e $\beta$, bem como o intervalo em que se quer a
			probabilidade são fornecidos. Realizado o cálculo de uma integral, na qual são
			resolvidas operações aritméticas como soma, multiplicação, divisão e exponenciação.
			Assim, a complexidade é de ordem constante, $O(1)$. & Parâmetros como entrada, bem como o número de subdivisões a ser utilizado no método. Resolvidas operações aritméticas como soma, multiplicação, divisão e exponenciação, seguida de um laço, o qual é repetido em função do número de subdivisões. Assim, a complexidade é de ordem linear, $O(n)$.\\
			
			\hline
			Gama & & Parâmetros $\lambda$ e $v$, além de uma variável $n$ a qual armazena o número de subdivisões a ser utilizada no cálculo do método. Realizadas operações aritméticas de subtração, multiplicação e exponenciação e um laço, o qual é repetido $n$ vezes. Portanto, a ordem de complexidade do algoritmo é linear, $O(n)$.
			\\
			
			
			\hline
		\end{tabular}
	}
\end{table}


Salienta-se que a complexidade computacional, quando se utiliza o método 1/3 de Simpson, não depende da entrada por ser sempre a mesma, mas depende das subdivisões do método. A eficiência do algoritmo está relacionada com o tamanho dessas subdivisões que deve ser passada como parâmetro na execução do método, portanto a complexidade é de ordem $O(2^n)$.

Importante ressaltar que na literatura não foram encontrados resultados de complexidade computacional, ou seja, a verificação do esforço computacional requerido para computar as funções densidade de probabilidade com distribuições Uniforme, Exponencial, Normal, Pareto e Gama, com entradas reais e intervalares.


\subsection{Entradas Intervalares}

A seguir, na Tabela \ref{tabela3} são apresentadas as análises de complexidade dos algoritmos desenvolvidos para as funções com entradas intervalares.


\begin{table}[h!]
	\centering
	\caption{\small Análise de complexidade computacional para funções com entradas intervalares}
	\vspace{3mm}
	
	\label{tabela3}
	\scriptsize{
		\begin{tabular}{cC{5cm}C{5cm}}
			Distribuição & Primitiva Intervalar & Simpson Intervalar\\
		\end{tabular}
		\begin{tabular}{c|p{5cm}|p{5cm}}
			
			\hline
			
			Uniforme & Utiliza as mesmas entradas do algoritmo real. Operações aritméticas realizadas na forma real foram substituídas pelas operações intervalares. A complexidade de resolver tais operações é constante. Dessa maneira, a complexidade computacional permanece constante, $O(1)$. & -\\
			\hline
			Exponencial & É utilizado o parâmetro $\alpha$ e as entradas reais são substituídas por intervalares. Operações aritméticas reais substituídas pelas intervalares. Complexidade é de ordem $O(1)$. & Realiza operações aritméticas intervalares e parâmetros de entrada que são utilizados também pela forma intervalar sem Simpson. A diferença é que é criada uma lista com todas as $n$ subdivisões, o que acarreta em um laço executado $n$ vezes. Por fim, o algoritmo apresenta mais um laço, no qual são realizados os cálculos do método. Assim, a complexidade computacional do algoritmo é de ordem linear, $O(n)$.
			\\
			\hline
			Normal & - & Utiliza os parâmetros da distribuição, além do número de subdivisões do método. É criada uma lista com as $n$ distribuições, após é realizado um laço para calcular o resultado com o método de Simpson. Portanto, a complexidade é $O(n)$.\\
			
			\hline
			Pareto & Parâmetros $\alpha$ e $\beta$, bem como o intervalo em que se quer a probabilidade como entrada. Após, operações aritméticas foram substituídas pelas intervalarares. Assim, a complexidade computacional é de ordem constante, $O(1)$.
			& Mesmos dados de entrada sem o método, além do número de subdivisões que serão realizadas. Assim, também existem dois laços, um para criar a lista de subdivisões e o outro para realizar o cálculo do método. A complexidade é de ordem linear, $O(n)$.\\
			
			\hline
			Gama & - & Dados de entrada da distribuição e um laço de repetição, o qual cria uma lista de acordo com o número de subdivisões selecionadas. A finalização do algoritmo se dá com um laço de repetição que realiza os cálculos do método de acordo com o número $n$ de subdivisões. Complexida é $O(n)$.\\
			
			\hline
		\end{tabular}
	}
\end{table}


Assim como na complexidade do método 1/3 de Simpson, a complexidade computacional quando se utiliza o método de Simpson Intervalar também não depende da entrada, e sim do número de subdivisões para o método. Portanto, a eficiência do algoritmo está relacionada com o tamanho dessas subdivisões, sendo classificado como $O(2^n)$.

A Tabela~\ref{tabcom} apresenta, resumidamente, a ordem de complexidade encontrada para todas as distribuições exploradas no presente trabalho.
\newpage
\begin{table}[h]
	\scriptsize
	\caption{\small Esforço computacional das Distribuições}
	\label{tabcom}
	\centering
	\begin{tabular}{c|c|c|c|c}
		
		\hline
		
		\textbf{Distribuição}
		& \multicolumn{2}{c|}{\textbf{Complexidade Real}}
		& \multicolumn{2}{c}{\textbf{Complexidade Intervalar}}
		% \textbf{Distribuição} & \textbf{Complexidade Real} & \textbf{Complexidade Intervalar}\\
		\\  \cline{2-5} & Primitiva da Função & Simpson & Primitiva da Função & Simpson Intervalar\\
		\hline
		\textbf{Uniforme} & $O(1)$ & - & $O(1)$ & -\\
		\hline
		\textbf{Exponencial} & $O(1)$ & $O(2^n)$ & $O(1)$ & $O(2^n)$\\
		\hline
		\textbf{Normal} & - & $O(2^n)$ & - & $O(2^n)$\\
		\hline
		\textbf{Gama} & - & $O(2^n)$ & - & $O(2^n)$\\
		\hline
		\textbf{Pareto} & $O(1)$ & $O(2^n)$ & $O(1)$ & $O(2^n)$\\
		\hline
		
	\end{tabular}
\end{table}



A partir da análise da complexidade computacional dos algoritmos propostos para computar as funções com entradas reais, é possível afirmar que utilizando a primitiva da função como solução, os algoritmos são executados em uma complexidade menor, ou seja, menos trabalho para computar o resultado. Com as funções na forma intervalar o método de Simpson Intervalar gera resultados utilizando um maior esforço computacional do que os obtidos a partir da primitiva da função. Assim, conclui-se que em ambas as formas, real e intervalar, as melhores soluções são obtidas através da aplicação da primitiva da função.

\newsec{Conclusão}
Embora integrais de funções densidade de probabilidade como a Uniforme, a Exponencial e a de Pareto, sejam resolvidas analiticamente, seu valor numérico no computador é dado por aproximação, e portanto afetado por erros de
arredondamento  ou truncamento. Outras funções densidade como a
Normal ou Gama não possuem primitivas na forma
analítica, sendo necessário o uso de integração numérica onde
erros de arredondamentos e truncamentos são propagados de\-vi\-do às
operações aritméticas realizadas no computador.

Quando se trabalha com computação numérica, um dos fatores de maior importância é a exatidão da resposta desses cálculos. O que sempre se procura são resultados cada vez mais exatos e com um menor erro possível contido neles. A matemática intervalar surge com o objetivo principal de realizar um controle automático de erros dos cálculos, retornando respostas com a maior exatidão possível.

Verificou-se ainda se, ao utilizar intervalos para calcular a função densidade de probabilidade das variáveis aleatórias contínuas, a quantidade de trabalho despendido pelo algoritmo aumenta em relação a forma real. Após a análise, constata-se que o esforço computacional é o mesmo, tanto na forma real quanto na intervalar. Resultado importante, o qual justifica o uso da matemática intervalar na resolução das funções. A aplicação de intervalos proporciona o controle de erros e exatidão dos resultados para estas variáveis.

Como resultado foi possível analisar se, ao utilizar intervalos para calcular a função densidade de probabilidade das variáveis aleatórias contínuas, a quantidade de trabalho despendido pelo algoritmo aumenta em relação a forma real. Após a análise, constatou-se que o esforço computacional é o mesmo, tanto na forma real quanto na intervalar. Resultado importante, o qual justifica o uso da matemática intervalar na resolução das funções. A aplicação de intervalos proporciona o controle de erros e exatidão dos resultados para estas variáveis.

\begin{abstract}
{\bf Abstract}. When working with floating point numbers the result is only an approximation of a real value and errors generated by rounding or by instability of the algorithms can lead to incorrect results. We can't affirm the accuracy of the estimated answer without the contribution of an error analysis.
Using intervals for the representation of real numbers, it is possible to control this error propagation, because intervals results carry with them the security of their quality.
To obtain the numerical value of the probability density functions of continuous random variables with distributions Uniform, Exponential, Normal, Gamma and Pareto is necessary to use numerical integration, once the primitive of the integral do not always is simple to obtain.
Moreover, the result is obtained by approximation and therefore affected by truncation or rounding errors.
 Moreover, the result is obtained by approximation and therefore affected by truncation or rounding errors.
In this context, this paper has aims to analyze the computational complexity to compute the probability density functions with Uniform, Exponential, Normal, Gamma and Pareto distributions in the real and interval forms.
Thus, make sure that by using interval arithmetic to calculate the probability density function of the random variables with distributions, it is possible to have an automatic error control with reliables boundaries, and, at least, keep the existing computational effort in the calculation using the real arithmetic.

{\bf Keywords}. Interval arithmetic, computational complexity, probability.
\end{abstract}

\begin{thebibliography}{8}


\bibitem{Campos}
M. A. Campos, ``Uma Extens\~ao Intervalar para a Probabilidade Real'', Tese de doutorado, Universidade Federal de Pernambuco, Recife, 1997.

\bibitem{CMN02}
O.~Caprani, K.~Madsen, H.~B. Nielsen, Introduction to interval analysis  {\em IMM - Informatics and Mathematical Modelling}, Dinamarca, 2002.

\bibitem{Garey}
M. R. Garey, D. S. Johnson, ``Computers and intractability: a guide to the theory of NP-completeness'', Freeman, San Francisco, 1979.

\bibitem{Kreinovich:CCFD-98}
V.~Kreinovich, A.~Lakeyev, J.~Rohn, P.~Kahl, ``Computational Complexity and Feasibility of Data Processing and
Interval Computations'', Dordrecht, Kluwer, 1998.

\bibitem{Kulisch08}
U. W. Kulisch,
\newblock Complete interval arithmetic and its implementation on the computer.
\newblock In {\em Numerical Validation in Current Hardware Architectures},
volume 5492. Springer, 2008.

\bibitem{KulMir81}
U.~Kulisch, L.~Miranker, ``Computer Arithmetic in Theory and Practice'', Academic Press, New York, 1981.

\bibitem{Moore66}
R. E. Moore, ``Interval Analysis'', Prentice Hall, Englewood Cliffs, NJ, 1966.

\bibitem{MKC09}
R. E.~Moore, M.~Kearfott, J.~Cloud, ``Introduction to Interval Analysis'', Studies in Applied and Numerical Mathematics (SIAM), Philadelphia, 2009.

\bibitem{Moore79}
R.~E. Moore, ``Methods and Applications of Interval Analysis'', Studies in Applied and Numerical Mathematics (SIAM), Madison,
Wisconsin, 1979.

\bibitem{livrohidrologia}
M.~Naghettin, E.~Pinto, ``Hidrologia Estat\'istica'', CPRM Servi\c{c}o Geol\'ogico do Brasil, Belo Horizonte, 2007.

\bibitem{RAT88}
H.~Ratschek, J.~Rokne, ``New Computer Methods for Global Optimization'', Limited, Chichester, United Kingdom, 1988.

\bibitem{RUGGIERO}
M. A. G. Ruggiero, V. L. R. Lopes, ``Cálculo numérico: aspectos teóricos e computacionais'', Pearson Makron Books, São Paulo, 1996.

\bibitem{Toscani}
L.~Toscani, P.~Veloso, ``Complexidade de Algoritmos: an{\'a}lise, projetos e m{\'e}todos'', Sagra-Luzzato, Porto Alegre, 2001.
\end{thebibliography}


\end{document}
\newpage
$ \  \  $  \thispagestyle{myheadings}  \markboth{      }{   }
