%% Antes de processar este arquivo LaTeX (LaTeX2e) deve
%% verificar que o arquivo TEMA.cls estah no mesmo
%% diretorio. O arquivo TEMA.cls pode ser obtido do
%% endereco www.sbmac.org.br/tema.

\documentclass{TEMA}
\usepackage[brazil]{babel}      % para texto em Português
%\usepackage[english]{babel}    % para texto em Inglês
\usepackage{amsmath}
\usepackage[latin1]{inputenc}   % para acentuação em Português
%\input{P-margin.inf}

\usepackage[dvips]{graphics}
\usepackage{subfigure}
\usepackage{graphicx}
\usepackage{epsfig}

\def \E{\mathrm{I} \! \mathrm{E}}
\def \P{\mathrm{I} \! \mathrm{P}}
\newcommand{\B}{{\tt\symbol{92}}}
\newcommand{\til}{{\tt\symbol{126}}}
\newcommand{\chap}{{\tt\symbol{94}}}
\newcommand{\agud}{{\tt\symbol{13}}}
\newcommand{\crav}{{\tt\symbol{18}}}

\begin{document}

%********************************************************
\title
    {Avaliação dos desempenhos de estimadores para os parâmetros da distribuição Birnbaum-Saunders}
\author
    {G.A.V. ITALINO%
     \thanks{giannini.italino@ufpe.br}\,,
    D.B.M. MACIEL%
     \thanks{pedro.rafael@ufpe.br}\,,
    P.R.D. MARINHO%
     \thanks{diego.maciel@ufpe.br}\,,
     Programa de Pós-graduação em Estatística, Departamento de Estatística - CCEN, Universidade Federal de Pernambuco - UFPE, 50670-901 Recife, PE, Brasil.         
}


\criartitulo

\runningheads {Italino et al.}{Estimadores para os parâmetros da distribuição B-S.}

\begin{abstract}
{\bf Resumo}. Este artigo teve como objetivo principal avaliar os desempenhos dos estimadores dos Métodos dos Momentos Modificados para os parâmetros $\alpha$ e $\beta$ da distribuição Birbaum-Saunders e três versões corrigidas desses estimadores: a versão corrigida por viés, a corrigida por viés via Jackknife e a versão corrigida por viés via Bootstrap. Simulações de Monte Carlo foram utilizadas para a realização do objetivo proposto, através da verificação de algumas propriedades desses estimadores, a saber: média e erro.

{\bf Palavras-chave}. Distribuição Birnbaum-Saunders, correção de viés, estimativas Jackknife e Bootstrap.
\end{abstract}


%********************************************************
\newsec{Introdução}

    A distribuição Birnbaum-Saunders bi-paramértica [2] de parâmetros $\alpha$ e $\beta$ vem sendo amplamente usada em ciências da engenharia para modelar o tempo de vida de materiais e equipamentos. Na prática, os parâmetros que indexam a distribuição são estimados a partir de dados coletados. Os estimadores usuais, contudo, podem não apresentar desempenho satisfatório num cenário de tamanho amostral pequeno. Logo, torna-se necessária a obtenção de estimadores que sejam menos tendenciosos em amostras pequenas. \par

No caso da distribuição Birbaum-Saunders, tem-se uma outra problemática: os estimadores do método dos momentos para $\alpha$ e $\beta$ não existem, caso o coeficiente de variação amostral seja maior do que $\sqrt{5}$; e não são exclusivos, caso essa estatística seja inferior a $\sqrt{5}$. Baseados nisso, [8] propuseram um estimador alternativo: o estimador do método dos momentos modificados (EMMMs), os quais não sofrem dos problema apresentados pelos estimadores de momentos tradicionais de $\alpha$ e $\beta$. \par

Isso posto, este artigo tem como objetivo avaliar os desempenhos dos EMMMs e suas versões corrigidas através de simulações de Monte Carlo. Foram consideradas as correções por viés obtidas [8], as correções por viés via Jackknife, propostas por [5,6], além de ser apresentada uma versão corrigida por viés via Bootstrap.\par


O presente artigo está organizado da seguinte maneira. Após esta seção introdutória, segue uma breve discussão sobre as principais características da distribuição Birnbaum-Saunders. Na seção 3, apresenta-se e discute-se, brevemente, cada estimador proposto. Na seção 4 constam os resultados e discussões. Em seguida, o artigo é finalizado com as principais conclusões encontradas.

\newsec{A distribuição Birnbaum-Saunders}
A distribui\c c\~ ao Birnbaum-Saunders  ($\mathcal{BS}$) teve como origem o desenvolvimento de uma fam\' ilia de distribui\c c\~oes para modelar o tempo de vida de materiais e equipamentos sujeitos a cargas din\^ amicas, que, por sua vez, levam à ocorr\^ encia de falhas nestes \' ultimos. Estas falhas acontecem como resultado do desenvolvimento e crescimento de uma rachadura dominante em materiais sujeitos a um padr\~ ao c\' iclico de tens\~ ao e for\c ca. Denomina-se de \emph{fadiga} de um material o dano estrutural resultante da a\c c\~ ao vari\' avel de press\~ao e tens\~ ao excessivas sobre o mesmo.\par

Na pr\' atica, os modelos estat\' isticos para processos de fadiga de material produzem a descri\c c\~ ao do tempo de falha (aleat\' orio) at\' e a ocorrência da fadiga de um determinado material ou equipamento; tempo este n\~ ao necessariamente constante para materiais sob condi\c c\~ oes fatigantes.\par

Para entender o problema que levou à proposição da distribuição Birnbaum-Saunders, assuma que, para um certo equipamento dentro das condições acima mencionadas, o\emph{ i-\' esimo} ciclo gera um crescimento aleatório na rachadura de dimensão $X_{i}$, com a extensão da mesma até o \emph{m-ésimo} ciclo\footnote{Assume-se aqui, para efeito de simplificação, que um ciclo é composto por uma  única oscilação.} ($Y_{m}$), inclusive, dada por:  



\begin{eqnarray}
Y_{m}=\sum_{i=1}^{m}X_{i}, 
\end{eqnarray}
onde $Y_{m}$ \' e uma vari\' avel aleat\'  oria com m\' edia $m\mu$ e vari\^ ancia $m\sigma^{2}$, para todo $m = 1,2,3\ldots$, com $m$ representando o n\' umero de ciclos. \par

Al\' em disso, a probabilidade que a rachadura n\~ ao ultrapasse uma certa extens\~ ao cr\' itica $w$, ap\' os \emph{m} ciclos, é 

\begin{equation}
H_{m}(w) = {\P}(Y_{m} \le w), 
\end{equation}para $m = 1,2,3\ldots .$ \par

Se $C$ representa o n\' umero de ciclos at\' e a falha, que esta ocorrendo quando o comprimento da rachadura excede um certo n\' ivel cr\' itico $w$, ent\~ ao t\^ em-se 

\begin{eqnarray*}
{\P}(C \le m) = {\P}\left(\sum_{i=1}^{m}X_{i}\ge w \right) = 1 - H_{m}(w).
\end{eqnarray*}

Nota-se que a fun\c c\~ ao de distribui\c c\~ ao de $C$ pode ser aproximada utilizando o Teorema do Limite Central, bastando assumir que as vari\' aveis aleat\' orias $X_{i}$ s\~ ao independentes e identicamente distribu\' idas (no caso, com m\' edia $\mu$ e vari\^ ancia $\sigma^{2}$). Então tem-se: 

\begin{eqnarray*}
{\P}(C \le m)&=& 1 - {\P}\left(\sum_{i=1}^{m}\frac{X_{i}-\mu}{\sigma \sqrt{m}} \le \frac{w}{\sigma \sqrt{m}} - \frac{\mu \sqrt{m}}{\sigma}\right) \\
&\approx &1 - \Phi \left(\frac{w}{\sigma \sqrt{m}} - \frac{\mu \sqrt{m}}{\sigma} \right) = \Phi \left(\frac{\mu \sqrt{m}}{\sigma} - \frac{w}{\sigma \sqrt{m}} \right), 
\end{eqnarray*}onde $\Phi$ representa a fun\c c\~ ao distribui\c c\~ ao acumulada normal padr\~ ao. \par
 
Se $m$ \' e substitu\' ido por uma vari\' avel real n\~ ao negativa $t$, t\^ em-se que a vari\' avel aleat\' oria $T$ pode ser vista como a extens\~ ao cont\' inua da vari\' avel aleat\' oria discreta $C$, o que torna $T$ o tempo at\' e a falha. \par

Ent\~ ao, a fun\c c\~ ao de distribui\c c\~ ao acumulada para esta vari\' avel pode ser escrita como

\begin{eqnarray*}
{\P}(C \le m) \equiv {\P}(T \le t) &=& \Phi \left[\frac{\mu \sqrt{t}}{\sigma} -\frac{w}{\sigma \sqrt{t}} \right] = \Phi \left[\frac{\sqrt{w} \sqrt{\mu}}{\sigma} \left(\frac{\sqrt{\mu} \sqrt{t}}{\sqrt{w}} - \frac{\sqrt{w}}{\sqrt{t} \sqrt{\mu}} \right) \right]  \\
&=& \Phi \left[\frac{1}{\alpha} \left(\sqrt{\frac{t}{\beta}} - \sqrt{\frac{\beta}{t}} \right) \right], 
\end{eqnarray*}onde $\alpha = \frac{\sigma}{\sqrt{w \mu}}>0$, $\beta = \frac{w}{\mu}>0$ e $t>0$.

Neste caso, diz-se que a vari\' avel aleat\' oria $T$ segue distribui\c c\~ ao Birnbaum-Saunders bi-param\' etrica, ou seja $T \sim \mathcal{BS}(\alpha, \beta)$, com $\alpha$ como par\^ ametro de forma e $\beta$ como par\^ ametro de escala. Note que $\beta$ \' e a mediana da distribui\c c\~ ao $\mathcal{BS}$.

A fun\c c\~ ao densidade de probabilidade de $T$ é dada por:

\begin{eqnarray*} \label{E:dens_bs}
f_{T}(t, \alpha, \beta) &=& \phi \left(\frac{1}{\alpha} \left[\sqrt{\frac{t}{\beta}} - \sqrt{\frac{\beta}{t}} \right] \right) \times \frac{d}{dt} \left\{\frac{1}{\alpha} \left[\sqrt{\frac{t}{\beta}} - \sqrt{\frac{\beta}{t}} \right] \right\} \\
&=& \frac{1}{2\alpha \beta\sqrt{2\pi}} \left[\left(\frac{\beta}{t}\right)^{1/2}+\left(\frac{\beta}{t}\right)^{3/2}\right] \exp \left\{-\frac{1}{2\alpha^{2}} \left(\frac{t}{\beta}+\frac{\beta}{t} - 2 \right) \right\},
\end{eqnarray*}onde $\phi$ \' e a densidade normal padr\~ ao, com $\alpha>0$, $\beta>0$ e $t>0$.\par

A m\' edia, vari\^ ancia, assimetria e curtose da distribui\c c\~ ao Birnbaum-Saunders são, respectivamente [6,9],





\begin{eqnarray*}
{\E}(T)&=&\beta \left(1+\frac{{\alpha}^{2}}{2} \right) \ \ \ \ \ \ \ \ \ \ \,\,\,\,\
Var(T) \ \ = \ \ (\alpha \beta)^{2} \left(1+ \frac{5}{4}{\alpha}^{2} \right)\\
\mu_{3}&=&\frac{4\alpha(11\alpha^{2}+6)}{(5\alpha^{2}+4)^{3/2}}\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \,\
\mu_{4} \ \ = \ \ 3+\frac{6\alpha^{2}(93\alpha^{2}+40)}{(5\alpha^{2}+4)^{2}}; 
\end{eqnarray*}com as express\~ oes para assimetria ($\mu_{3}$) e curtose ($\mu_{4}$) de acordo com a corre\c c\~ ao proposta por [6].

A distribui\c c\~ ao Birnbaum-Saunders possui algumas propriedades interessantes [1,3,7]:

\begin{enumerate}
\item $\alpha$ \'e um par\^ ametro de forma, tal que, quando $\alpha \to 0$, a distribui\c c\~ ao $\mathcal{BS}$ tende para uma distribui\c c\~ ao normal bi-param\' etrica ($N(\beta,\tau)$) (com $\tau \to 0$ quando $\alpha \to 0$);

\item $\beta$ \' e um par\^ ametro de escala, ou seja $T/\beta \sim \mathcal{BS}(\alpha,1)$;


\item Para qualquer constante real, $k>0$, t\^ em-se $kT\sim\mathcal{BS}(\alpha,k\beta)$;

\item A distribui\c c\~ ao $\mathcal{BS}$ \' e rec\' iproca, ou seja, se $T \sim \mathcal{BS}(\alpha,\beta)$, ent\~ ao $T^{-1}\sim\mathcal{BS}(\alpha,\beta^{-1})$, que pertence \` a mesma fam\' ilia de distribui\c c\~ oes da $\mathcal{BS}$.
\end{enumerate}

\newsec{Procedimentos de Inferência}

\begin{defTEMAp} Seja $X$ uma variável aleatória com função de  densidade denotada por f(x|$\theta$), em que $\theta$ é um parâmetro desconhecido. Chama-se inferência estatística o problema que consiste em especificar um ou mais valores para $\theta$, baseado em um conjunto de valores observados de $X$. 
\end{defTEMAp}
Um dos principais problemas da inferência estatística é o da estimação. Tem-se tal problema quando, por exemplo, deseja-se procurar um número que estime o valor numérico dos parâmetros $\alpha$ e $\beta$ na família de distribuições Birnbaum-Saunders, a qual supomos pertencer a distribuição de $X$. O objetivo de um problema de estimação será, então, procurar, segundo algum critério especificado, valores que representem, adequadamente, o(s) parâmetro(s) desconhecidos. Esses valores são conhecidos como estimativas, obtidas a partir de estimadores. A seguir são apresentados e discutidos cada um desses estimadores.


\subsection{Estimador do Método dos Momentos Modificados $\widetilde{\alpha}$ e $\widetilde{\beta}$}

O método dos momentos é um método de estimação que consiste em igualar momentos populacionais com os respectivos momentos amostrais e resolver o sistema de equações resultante. Porém, conforme mencionado na seção $1$, no caso da distribuição Birnbaum-Saunders, existem dificuldades para obtenção desses estimadores. Diante disso, [8] propuseram o estimador do método dos momentos modificados. A ideia utilizada foi não usar os primeiros e segundos momentos populacionais, mas sim: 

\begin{eqnarray*}
{\E}(T)&=&\beta(1+{\frac{1}{2}}\alpha^2), \\
{\E}(T ^{-1})&=&{\beta^{-1}}(1+{\frac{1}{2}}\alpha^2).
\end{eqnarray*}

Igualando-se os momentos amostrais com os respectivos momentos populacionais citados, obtém-se
\begin{eqnarray} \label{mme1}
s=\beta(1+{\frac{1}{2}}\alpha^2),
\end{eqnarray}

\begin{eqnarray} \label{mme2}
r^{-1}={\beta^{-1}}(1+{\frac{1}{2}}\alpha^2).
\end{eqnarray} 

Resolvendo as equações (\ref{mme1}) e (\ref{mme2}) em relação  a $\alpha$ e $\beta$ obtém-se os EMMMs, denotados neste trabalho por $\widetilde{\alpha}$ e $\widetilde{\beta}$ como segue
\begin{eqnarray*}
\widetilde{\alpha}&=\left\{2{\left[{\left(\frac{s}{r}\right)}^{\frac{1}{2}}-1\right]}\right\}^\frac{1}{2} \ \ \ \ \ \ e \ \ \ \ \ \ \widetilde{\beta}&=(\alpha\beta)^{\frac{1}{2}}.
\end{eqnarray*}

Os estimadores obtidos pelo método dos momentos são em geral consistentes e possuem distribuição assintótica gaussiana, porém não são os mais eficientes assintoticamente. 

\subsection{Estimador do Método dos Momentos Modificados, corrigido por viés $\check{\alpha}$ e $\check{\beta}$}
[6] notaram ainda que os vieses de $\widetilde{\alpha}$ e $\widetilde{\beta}$, podem ser aproximados por, respectivamente, 
\begin{equation*}
{\text{viés}(\widetilde\alpha)}\approx -\frac{\alpha}{n},\\\ 
{\text{viés}(\widetilde\beta)}\approx  \frac{{\alpha}^2}{4n}.
\end{equation*} 

Consequentemente, a partir da defini\c c\~ ao de vi\' es de um estimador , tem-se que

\begin{eqnarray*}
{\E}(\tilde{\alpha})\approx\alpha-\frac{\alpha}{n}&=&\left(\frac{n-1}{n}\right)\alpha  \\
{\E}(\tilde{\beta})\approx \beta+\frac{\alpha^{2}\beta}{4n}&=&\left(1+\frac{\alpha^{2}}{4n}\right)\beta;
\end{eqnarray*}o que leva aos estimadores de $\alpha$ e $\beta$ corrigidos por vi\' es propostos [8],

\begin{eqnarray*}
\check{\alpha}=\left(\frac{n}{n-1}\right)\tilde{\alpha}\quad \text{e}\quad \check{\beta}=\left(1+\frac{\tilde{\alpha}^{2}}{4n}\right)^{-1}\tilde{\beta}.
\end{eqnarray*} 

[5,6] mencionam que as expressões dos vieses encontradas por esses autores não possuem embasamento teórico, uma vez que foram obtidas após um longo estudo de simulação de Monte Carlo, com posterior análise descritiva e visual dos resultados.


\subsection{Estimador do Método dos Momentos Modificados, corrigido por viés via Jackknife $\bar{\alpha}$ e $\bar{\beta}$}
A ideia do método Jackknife é remover a observação $t_{j}$ da amostra aleatória $t = (t_1, t_2, \ldots t_n)^{T}$  e estimar os parâmetros baseados nas $n-1$ observações restantes; isto é feito para $j = 1,\ldots, n.$. Suponha-se que uma obervação $j$ é retirada. Então, baseado em [5,6] teríamos

\begin{eqnarray*}
s_{(j)}&=&\frac{1}{n-1}\sum_{{\substack{i=1\\i\neq j}}}^{n}t_{i}=\frac{ns-t_{j}}{n-1},\\
r_{(j)}&=&\left[\frac{1}{n-1}\sum_{{\substack{i=1\\i\neq j}}}^{n}t^{-1}_{j}\right]^{-1}=\frac{nr-t^{-1}_{j}}{n-1}.
\end{eqnarray*}

Desta forma, temos:

\begin{eqnarray*}
\widetilde{\alpha}_{(j)}&=&\left\{2{\left[{\left(\frac{s_(j)}{r_{(j)}}\right)}^{\frac{1}{2}}-1\right]}\right\}^\frac{1}{2}\\
\widetilde{\beta}_{(j)}&=&(\alpha_{(j)}\beta_{(j)})^{\frac{1}{2}}.
\end{eqnarray*}\par

Isso posto, os estimadores corrigidos por viés, via Jackknife, são dados por
\begin{eqnarray*}
\bar{\alpha}&=n\widetilde{\alpha} - (n-1)\widetilde{\alpha}_{(.)},\\
\bar{\beta}&=n\widetilde{\beta} - (n-1)\widetilde{\beta}_{(.)}, 
\end{eqnarray*}
onde
\begin{eqnarray*}
\widetilde{\alpha}_{(.)}&=\frac{1}{n} \sum_{j=1}^{n} \widetilde{\alpha}_{(j)}\quad \text{e} \quad
\widetilde{\beta}_{(.)}&=\frac{1}{n} \sum_{j=1}^{n} \widetilde{\beta}_{(j)}.
\end{eqnarray*}\par


\subsection{Estimador do Método dos Momentos Modificados, corrigido por viés via Bootstrap $\stackrel{*}{\alpha}$ e $\stackrel{*}{\beta}$}
O Bootstrap é um método computacional cujo objetivo é medir a precisão de estimativas de parâmetros estatísticos previamente especificados [4]. Consiste, basicamente, em uma técnica de amostragem repetitiva ,que permite aproximar uma função estatística de distribuição real pela distribuição empírica dos dados, baseada em uma amostra de tamanho finito. No caso de já se conhecer a distribuição estatística que se adequa a amostragem estudada, as repetições de amostras fornecem a distribuição estatística dos parâmetros da distribuição do fenômeno. Este modelo é conhecido como Bootstrap Paramétrico. No caso de não se conhecer a distribuição, as repetições de amostragem geram o espaço provável da distribuição real e o método é conhecido como Bootstrap Não-Paramétrico. Neste último caso, supõe-se que as observações são obtidas da função distribuição empírica $\widehat{R}$, que designa uma massa de probabilidade igual a $\frac{1}{n}$ para cada ponto amostral, onde $n$ é o tamanho da amostra. A partir destas pseudo-amostras, é possível estimar características da população de interesse da inferência estatística, tais como: média, viés, variância, percentis, etc.\par

Considera-se, então, um conjunto de dados $X$, com $n$ observações independentes: $X = \{x_{1},x_{2},\ldots ,x_{n}\}$. A partir deste conjunto de dados, pode-se obter uma série de novos conjuntos de dados através da reamostragem aleatória com reposição do conjunto original (Bootstrap não-paramétrico) \par


\begin{enumerate}

\item Denota-se  cada um dos conjuntos obtidos desta forma por $X_{j}^{*}$, onde $j = 1,2,...,B$, com $B$ indicando o número de vezes que a amostragem com reposição é realizada. Cada amostra obtida a partir do conjunto original $X$ deste modo é uma amostra Boostrap. 
Estas amostras são independentes por construção, dado que o conjunto $X$ a partir do qual as mesmas foram geradas é composto por observações independentes, com as referidas amostras tendo sido obtidas de $X$ por amostragem aleatória com reposição.


\item O próximo passo consiste em calcular a estimativa do parâmetro de interesse para cada uma das \emph{B} amostras obtidas por bootstrap. Estas estimativas, associadas a cada uma das amostras obtidas acima, são denominadas de replicações de \textsl{bootstrap} para o paramétro em questão. Pode-se denominá-las de $s(X_{j}^{*})$, $j = 1,2,\ldots ,B$, onde $s$ corresponde ao parâmetro de interesse.
\end{enumerate}
O parâmetro $s(X_{j}^{*})$ pode ser a média, o desvio-padrão, a mediana, ou qualquer outro parâmetro de interesse. Obtido o conjunto dos $s(X_{j}^{*})$, calcula-se, então, a média $s(.)$ e o desvio-padrão do parâmetro $\sigma\_{boot}$, isto é:

\begin{equation*}
s(.)=\sum_{j=1}^{B} \frac{s(X_{j}^{*})}{B} \quad \text{e}\quad \sigma\_{boot}=\sum_{j=1}^{B} \frac{\sqrt{s(X_{j})^{*}-s(.)}}{B-1} \,.
\end{equation*}\par

Neste artigo, entretanto, o foco será na aplicação do bootstrap para a correção do viés dos EMMMs. Em outras palavras, com o uso do Bootstrap pode-se estimar o viés dos EMMMs. Isso é feito estimando-se ${\E}(\widetilde{\alpha})$ e ${\E}(\widetilde{\beta})$ a partir das respectivas médias dos estimadores obtidos nas $B$ réplicas bootstrap geradas.\par
Tem-se, então:

\begin{eqnarray*}
\alpha_{(.)}^{*}= \frac{1}{B} \sum_{j=1}^{B} \alpha_{j}^{*} \quad \text{e} \quad \beta_{(.)}^{*}= \frac{1}{B} \sum_{j=1}^{B} \beta_{j}^{*}.
\end{eqnarray*} \par

Logo, a partir da definição de viés de um estimador, obtém-se as expressões dos EMMMs corrigidos por viés, via bootstrap, para os parâmetros $\alpha$ e $\beta$ como sendo

\begin{eqnarray*}
\alpha^{*}&= 2\widetilde{\alpha} - \alpha_{(.)}^{*} \quad \text{e} \quad
\beta^{*}&= 2\widetilde{\beta} -\beta_{(.)}^{*}.
\end{eqnarray*} \par



\newsec{Resultados}

A fim de avaliar os desempenhos dos EMMMs e de suas versões corigidas por viés, foram  realizadas simulações de
Monte Carlo na linguagem de programação \texttt{C}. Con-siderou-se o tamanho da amostra como n = $10, 50, 100 $ e para o parâmetro $\alpha$ os valores $ 0,25; 0,50; 1,00$, com o parâmetro $\beta$ mantido fixo em 1,0. Utilizou-se 3.000 réplicas de Monte Carlo, para cada estimador de $\alpha$ e $\beta$ considerado sendo que essas foram obtidas usando-se diversos tipos de processos de otimização disponíveis na Linguagem \texttt{C}. Para os estimadores obtidos através do esquema bootstrap, foram consideradas 500 réplicas para cada um dos parâmetros. Os desempenhos dos estimadores considerados neste estudo foram avaliado em função das estatísticas: estimativa média e erro, este último sendo definido como a raiz quadrada do erro quadrático médio. Os resultados obtidos para os EMMMs e suas versões corrigidas por viés constam nas Tabelas 1 e 2.\par


\begin{table} [h]
\caption{Média($\beta = 1.0$).} 
\begin{center}
\begin{tabular}{|c| c| c| c| c| c| c| c| c| c| }\hline

  &   & \multicolumn{4}{|c|}{Estimador de $\alpha$} & \multicolumn{4}{c|}{Estimador de $\beta$}\\ \cline{3-10}

 $n$ & $\alpha$ & $\widetilde{\alpha}$ & $\check{\alpha}$ & $\bar{\alpha}$ & $\stackrel{*}{\alpha}$  & $\widetilde{\beta} $ & $\check{\beta}$ & $\bar{\beta}$ & $\stackrel{*}{\beta}$ \\ \hline

   10   & 0,25 & \hfill$0,229$ & \hfill$0,255$ & \hfill$0,250$ & \hfill$0,246$                    &\hfill$1,002$                             & \hfill$0,998$ & \hfill$0,999$  & \hfill$0,999$\\            
        & 0,50 & \hfill$0,458$ & \hfill$0,509$ & \hfill$0,499$ & \hfill$0,493$                   &  \hfill$1,010$                           & \hfill$0,993$ & \hfill$0,998$  & \hfill$1,000$  \\                                                            
        & 1,00 & \hfill$0,912$ & \hfill$1,013$ & \hfill$0,999$ & \hfill$0,983$                       &  \hfill$1,038$                         & \hfill$0,975$ & \hfill$0,995$  & \hfill$1,002$  \\ \hline             


 50   & 0,25 & \hfill$0,246$ & \hfill$0,251$ & \hfill$0,250$ & \hfill$0,250$ &\hfill$0,999$                             & \hfill$0,999$ & \hfill$0,998$  & \hfill$0,998$ \\            
        & 0,50 & \hfill$0,492$ & \hfill$0,502$ & \hfill$0,500$ & \hfill$0,500$   &  \hfill$0,999$                           & \hfill$0,998$ & \hfill$0,997$  & \hfill$0,997$ \\                                                            
        & 1,00 & \hfill$0,983$ & \hfill$1,003$ & \hfill$1,000$ & \hfill$0,999$                     &  \hfill$1,003$                         & \hfill$0,995$ & \hfill$0,995$  & \hfill$0,995$ \\ \hline             



 100 & 0,25 & \hfill$0,248$ & \hfill$0,250$ & \hfill$0,250$ & \hfill$0,250$   &\hfill$0,999$                             & \hfill$0,999$ & \hfill$0,998$  & \hfill$0,998$ \\            
        & 0,50 & \hfill$0,496$ & \hfill$0,501$ & \hfill$0,500$ & \hfill$0,500$    &  \hfill$0,998$                           & \hfill$0,999$ & \hfill$0,997$  & \hfill$0,997$ \\                                                          
        & 1,00 & \hfill$0,991$ & \hfill$1,001$ & \hfill$1,000$ & \hfill$0,999$                   &  \hfill$0,999$                                & \hfill$0,997$ & \hfill$0,995$  & \hfill$0,995$ \\ \hline             

\end{tabular}
\end{center}
\end{table}

Por meio da Tabela 1, percebe-se que as estimativas médias obtidas pelos estimadores corrigidos por Jackknife e por Bootstrap obtiveram desempenho bem semelhantes, ficando bem próximos dos verdadeiros valores dos parâmetros. Em especial, os estimadores ($\alpha^{*}$ ,$\beta^{*}$) obtiveram  melhor desempenho para n = 100. Vale destacar ainda o fato dos EMMMs terem fornecido melhores estimativas medias em detrimento de sua versão corrigida por viés, tanto para o parâmetro $\alpha$, quanto para $\beta$; tal fato foi verificado para todos os tamanhos de amostras, como também para todos os valores de $\alpha$.\par

No que diz respeito ao erro, os EMMMs, corrigidos por Bootstrap apresentaram   erros maiores, ao estimar o parâmetro $\beta$; porém, para $n = 50; 100$ esse estimador obteve desempenho bem próximo aos EMMMs, corrigidos por Jackknife. Em relaçao ao parâmetro $\alpha$, as estimativas fornecidas pelo esquema Bootstrap obtiveram os   menores  erros, para todos os tamanhos amostrais e para todos os valores de $\alpha$ considerados, quando não considera-se os EMMMs. Análogo ao ocorrido com as estimativas de $\beta$, os EMMMs corrigidos por Bootstrap e os EMMMs corrigidos por Jackknife apresentaram desempenhos bastante próximos. Chamou atenção, entretanto que, para todos os cenários amostrais considerados e para todos os valores de $\alpha$, os EMMMs apresentaram desempenho superior, em detrimento de todas as versões corrigidas; provavelmente pelo fato de possuirem variância menor. (Tabela 2). \par 
\begin{table} [h]
\caption{Erro($\beta = 1.0$).}
\begin{center}
\begin{tabular}{|c| c| c| c| c| c| c| c| c| c| }\hline

  &   & \multicolumn{4}{|c|}{Estimador de $\alpha$} & \multicolumn{4}{c|}{Estimador de $\beta$}\\ \cline{3-10}

 $n$ & $\alpha$ & $\widetilde{\alpha}$ & $\check{\alpha}$ & $\bar{\alpha}$ & $\stackrel{*}{\alpha}$  & $\widetilde{\beta} $ & $\check{\beta}$ & $\bar{\beta}$ & $\stackrel{*}{\beta}$ \\ \hline

 10   & 0,25 & \hfill$0,058$       & \hfill$0,061$    & \hfill$0,060$    & \hfill$0,059$                    &\hfill$0,078$       & \hfill$0,001$ & \hfill$0,078$  & \hfill$0,078$   \\            
        & 0,50 & \hfill$0,117$        & \hfill$0,123$    & \hfill$0,121$    & \hfill$0,119$                     &  \hfill$0,155$      & \hfill$0,006$ & \hfill$0,153$  & \hfill$0,153$   \\                                                          
        & 1,00 & \hfill$0,237$        & \hfill$0,245$    & \hfill$0,246$    & \hfill$0,240$                        &  \hfill$0,300$     & \hfill$0,024$ & \hfill$0,287$  & \hfill$0,288$  \\ \hline                     



  50  & 0,25 & \hfill$0,025$       & \hfill$0,025$    & \hfill$0,025$    & \hfill$0,025$  &\hfill$0,034$       & \hfill$0,000$ & \hfill$0,034$  & \hfill$0,034$  \\            
        & 0,50 & \hfill$0,050$        & \hfill$0,050$    & \hfill$0,050$    & \hfill$0,050$     &  \hfill$0,067$      & \hfill$0,001$ & \hfill$0,067$  & \hfill$0,067$  \\                                                           
        & 1,00 & \hfill$0,100$        & \hfill$0,100$    & \hfill$0,100$    & \hfill$0,100$  &  \hfill$0,1240$     & \hfill$0,005$ & \hfill$0,123$  & \hfill$0,123$ \\ \hline                     


 100 & 0,25 & \hfill$0,017$       & \hfill$0,018$    & \hfill$0,018$    & \hfill$0,018$   &\hfill$0,024$       & \hfill$0,000$ & \hfill$0,024$  & \hfill$0,024$  \\            
        & 0,50 & \hfill$0,035$        & \hfill$0,036$    & \hfill$0,036$    & \hfill$0,036$     &  \hfill$0,047$      & \hfill$0,000$ & \hfill$0,047$  & \hfill$0,047$  \\                                                         
        & 1,00 & \hfill$0,071$        & \hfill$0,072$    & \hfill$0,072$    & \hfill$0,072$  &  \hfill$0,087$     & \hfill$0,002$ & \hfill$0,086$  & \hfill$0,087$  \\ \hline  

\end{tabular}
\end{center}
\end{table}

\newsec{Conclusão}
Foi possível observar que os EMMMs corrigidos por Bootstrap obtiveram, de maneira geral, desempenho superior em relaçao a todos os demais estimadores, porém, apresentaram os maiores erros, possivelmente por possuírem variâncias inflacionadas. Verificou-se também que os EMMMs corrigidos por viés propostos por [8] obtiveram, de maneira geral, desempenho infeior, quando comparados aos outros estimadores analisados. Menciona-se ainda que os EMMMs corrigidos por Jackknife e os corrigidos por Bootstrap apresentaram desempenho muito semelhantes, quando os tamanhos amostrais considerados foram $ n = 50$ e $n = 100$, com uma leve vantagem para os estimadores obtidos pelo esquema Bootstrap.\par

Em síntese, pode-se concluir, portanto, que os EMMMs corrigios por viés, via Bootstrap, são os mais recomendados para estimar os parâmetros $\alpha$ e $\beta$ da distribuiçao Birnbaum-Sauders em pequenas amostras e que, para tamanhos amostrais superiores a $50$, é preferível o uso dos EMMMs corrigidos por Jackknife, pois apresentaram erros (variâncias) menores que os EMMMs corrigidos por Bootstrap.


\begin{abstract}
{\bf Abstract}. This article aimed to evaluate the performances of the estimators of the Modified Method of Moments for the parameters $\alpha $ and $ \beta$ Birbaum-Saunders and three corrected versions of these estimators: the corrected version due to the bias, the bias corrected by means Jackknife and corrected version due to the bias through bootstrap. Monte Carlo simulations were used to achieve the proposed objective, through the verification of some properties of these estimators, namely mean and error.
\end{abstract}

\begin{thebibliography}{8}

\bibitem{ARA} C.A.G. Araújo Júnior, ``Ajustes para a verossimilança perfilada na distribuição Birnbaum-Saunders'', Universidade Ferderal de Pernambuco, Recife, 2006.

\bibitem{BS} Z.W.Birbaum, S.C. Saunders, A new family of life distribuitions, {\em Journal of Applied Probability},{\bf 6} (1969), 319--327.

\bibitem{DJ} D.J. Dupuis, J.E. Mills, Robust estimation of the Birnbaum-Saunders distribution, {\em IEEE Trans. Reliability}, {\bf 47} (1998), 88--95.

\bibitem{EFT} B. Efron, R. Tibshiriani, An introduction to the bootstrap, Chapman and Hall, New york \& London, 1993.

\bibitem{LEM} A.J. Lemonte, ``Inferência Sobre Os Parâmetros da Distribuição Birnbaum-Saunders Bi-Paramétrica'', Universidade Ferderal de Pernambuco, Recife, 2006.

\bibitem{LCR} A.J. Lemonte, F.C. Cribari-Neto, K.L.P. Vasconcellos, Improved statistical inference for the two parameter Birnbaum-Saunders distribution,{\em Comput. Statist. Data Anal.} {\bf 51} (2007) , 4656--4681.

\bibitem{NAS} P.S. Nascimento, Estimação de Máxima Verossimilhança dos Parâmetros da distribuição Birnbaum-Saunders Utilizando a técnica de Otimização Não-Linear BFGS, Encontro Regional de Matemática Aplicada e Computacional, Natal, 2008.

\bibitem{KB} H.K.T. Ng, D. Kundu, N. Balakrishan, Modified moment estimation for the two-parameter Birnbaum Saunders distribution, {\em Comput. Statist. Data Anal.}, {\bf 43} (2003), 283--298.

\bibitem{BS} J.R. Rieck, A moment-generating function with application to the Birnbaum-Saunders distribution,  {\em Comm. Statist. Theory Methods}, {\bf 28} (1999), 2213--2222.



\end{thebibliography}


\end{document}
