\(a=E(\theta)=50;\ b^2=Var(\theta)=100/6.\)
\(n \geq 66;\ n \geq 714.\)
\(E_1\): \(\qquad\qquad\qquad\) | \(\phi_1\qquad\) | \(\phi_2\qquad\) | \(\phi_3\qquad\) | \(\phi_4\quad\) |
---|---|---|---|---|
P(erro tipo I) | 0 | 0.050 | 0.10 | 1 |
P(erro tipo II) | 1 | 0.145 | 0.09 | 0 |
\(E_2\): \(\qquad\qquad\qquad\) | \(\phi_1\qquad\) | \(\phi_2\qquad\) | \(\phi_3\qquad\) | \(\phi_4\qquad\) |
---|---|---|---|---|
P(erro tipo I) | 0 | 0.01 | 0.74 | 1 |
P(erro tipo II) | 1 | 0.829 | 0.026 | 0 |
O PCG justifica a irrelevância da distribuição marginal do vetor de frequências marginais pelo seu caráter de estatística ancilar parcial para o vetor paramétrico de interesse \(\{\theta_{(i)j}=\theta_{ij}/\theta_{i \cdot}\}\) que, em conjunto com \(\{\theta_{i \cdot}\}\), define uma transformação biunívoca de \(\theta\).
Resposta afirmativa já que \(\#{\cal X}_t= {n+t-1 \choose t}.\)
fun <- function(m,p,u){
funcao1 <- function(beta){
alfa = (1+m*(beta-2))/(1-m)
p-pbeta(u,alfa,beta)
}
b <- uniroot(funcao1,c(1,40))
alfa <- (1+m*(b$root-2))/(1-m)
beta <- b$root
return(list(b,alfa,beta))
}
Aplicando aos valores dados tem-se
res <- fun(0.7,0.95,0.9)
res
## [[1]]
## [[1]]$root
## [1] 2.345704
##
## [[1]]$f.root
## [1] 3.901604e-08
##
## [[1]]$iter
## [1] 9
##
## [[1]]$init.it
## [1] NA
##
## [[1]]$estim.prec
## [1] 6.103516e-05
##
##
## [[2]]
## [1] 4.139976
##
## [[3]]
## [1] 2.345704
Os valores de \(\alpha\) e \(\beta\) são ambos maiores que 1. Pode-se confirmar que na realidade a moda é \(m=0.7\) e que \(p=0.95\).
(res[[2]]-1)/(res[[2]]+res[[3]]-2)
## [1] 0.7
pbeta(0.9,res[[2]],res[[3]])
## [1] 0.95
# res1 <- fun(0.25, 0.30, 0.31)
## Error in uniroot(funcao1, c(1, 40)) :
## f() values at end points not of opposite sign
O resultado não se altera mesmo que se aumente o limite superior do intervalo c(1,40) onde a raiz possa existir. e) \[ \begin{array}{lll} p_1 &=& \int_0^{q_1} \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}d\theta \\ p_2 &=& \int_0^{q_2} \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}\theta^{\alpha-1}(1-\theta)^{\beta-1}d\theta \end{array} \] Pretende-se obter \(\alpha\) e \(\beta\) para \(p_1=0.25, q_1=0.7, p_2=0.75, q_2=0.9\) O seguinte código permite obter a solução usando a função BBsolve() do pacote BB.
fun1 <- function(p1,q1,p2,q2,z){
func2 <- function(x){
f<-c(p1-pbeta(q1,x[1],x[2]),p2-pbeta(q2,x[1],x[2]))
}
library(BB)
sol <- BBsolve(z, func2)
sol
}
No argumento de fun1, além de \(p_1, q_1, p_2, q_2\), aparece um vetor \(z\) de dimensão 2 que deve conter valores iniciais para a solução do sistema. Aplicando ao exemplo e considerando, por exemplo, \(z=c(2.5,3.5)\) obtém-se
sol <- fun1(0.25,0.7,0.75,0.9,c(2.5,3.5))
## Warning in pbeta(q1, x[1], x[2]): NaNs produced
## Warning in pbeta(q2, x[1], x[2]): NaNs produced
## Successful convergence.
sol
## $par
## [1] 5.537182 1.503637
##
## $residual
## [1] 2.741368e-08
##
## $fn.reduction
## [1] 2.479161e-05
##
## $feval
## [1] 97
##
## $iter
## [1] 16
##
## $convergence
## [1] 0
##
## $message
## [1] "Successful convergence"
##
## $cpar
## method M NM
## 2 50 1
Os valores de \(\alpha\) e \(\beta\) encontram-se em
sol$par[1] # alpha
## [1] 5.537182
sol$par[2] # beta
## [1] 1.503637
Usando o pacote SHELF
library(SHELF)
vec <- c(0.7,0.9)
p1 <- c(0.25,0.75)
fit.good <- fitdist(vals = vec, probs = p1, lower = 0, upper = 1)
fit.good$Beta
## shape1 shape2
## 1 5.537321 1.503659
\(\qquad\qquad\qquad\) | \(\theta_1\quad\quad\) | \(\theta_2\quad\quad\) | \(\theta_3\quad\quad\) |
---|---|---|---|
\(p_1=0.25\) | 0.4 | 0.2 | 0.1 |
\(p_2=0.75\) | 0.6 | 0.4 | 0.3 |
Para encontrar os parâmetros (\(\alpha_i,\beta_i\), i=1,2,3) das distribuições Beta pode usar-se a função referida no problema anterior ou a função do pacote SHELF. Obtém-se então
\(\qquad\qquad\) | \(\theta_1\qquad\qquad\) | \(\theta_2\qquad\qquad\) | \(\theta_3\qquad\qquad\) |
---|---|---|---|
\(\alpha_i\) | 5.815778 | 2.963769 | 1.503659 |
\(\beta_i\) | 5.81578 | 6.691304 | 5.537321 |
\(\alpha_1^*\qquad\qquad\) | \(\beta_1^*\qquad\qquad\) | \(\alpha_2^*\qquad\qquad\) | \(\beta_2^*\qquad\qquad\) | \(\alpha_3^*\qquad\qquad\) | \(\beta_3^*\qquad\qquad\) |
---|---|---|---|---|---|
5.698821 | 4.377586 | 2.904167 | 7.172241 | 1.47342 | 8.602988 |
Neste ponto deve-se procurar um valor de compromisso. Tome-se, por exemplo, a média \(m=9.442538\) desses três valores e considere-se \[ \alpha_i^{**}= m \mu_i^* \equiv m \frac{\alpha_i^*}{\alpha_1^*+\beta_i^*}, \quad i=1,2,3. \] Então \[ \beta_i^{**}=m-\alpha_i{**}, \quad i=1,2,3, \] tendo-se portanto os parâmetros das distribuições marginais discriminados abaixo compatíveis com uma distribuição conjunta Dirichlet,
\(\alpha_1^{**}\) | \(\beta_1^{**}\) | \(\alpha_2^{**}\) | \(\beta_2^{**}\) | \(\alpha_3^{**}\) | \(\beta_3^{**}\) |
---|---|---|---|---|---|
4.626322 | 4.816215 | 2.840238 | 6.602299 | 1.975978 | 7.466559 |
O pacote SHELF adapta este procedimento usando, não a média, mas uma escolha otimizada de \(m\). Sugere-se que implemente esse procedimento, o qual se encontra descrito em Zapata-Vázquez et al. (2014).
\(h(\theta) \propto [I(\theta)]^{1/2} = \frac{1}{\theta}\).
\(f(z|\epsilon,\delta)= \frac{\displaystyle{c^{n-\epsilon}\Gamma(n)}}{\displaystyle{(1+\sum_{i=2}^{\epsilon}z_i+c\sum_{i=\epsilon+1}^{n}z_i)^n}} \equiv f(z|\epsilon),\ z_i>0,\,i=2,\ldots,n.\)
A ancilaridade específica de \(Z\) para \(\delta\) era previsível porque o modelo amostral faz parte da família de escala.
\(h(\epsilon|w,z) \propto h(\epsilon) f(z|\epsilon) (1+\sum_{i=2}^{\epsilon}z_i+c\sum_{i=\epsilon+1}^{n}z_i)^{k-1}.\)
Afirmação falsa em geral, como o comprova a forma de \(h(\epsilon|w,z)\). Dentro da família considerada em b) para \(h(\epsilon, \delta)\), apenas no caso \(k=1\) é tal afirmação verdadeira.
Para \(h(\epsilon, \delta)\) própria e bem comportada, a condição de \(h(\epsilon|w,z) \equiv h(\epsilon;z)\) já implica que \(h(\epsilon;z) \propto h(\epsilon) f(z|\epsilon)\).
(Sugestão: Parta-se de \(h(\epsilon|w,z) p(w,z)= \int {f(w|z,\epsilon,\delta)f(z|\epsilon) h(\epsilon, \delta)} d\delta\) e integre-se ambos os membros em ordem a \(w\)).
O objetivo é obter a função \(y=h(\theta)\) que maximize a entropia definida em (2.24) sujeita às restrições \[ \int_0^1 h(\theta) d\theta= 1,\ \ \int_0^1 \theta h(\theta) d\theta = \mu. \] Recorrendo ao cálculo variacional e ao método dos multiplicadores de Lagrange, tal como aplicados em alguns exemplos deste capítulo, essa função \(y=h(\theta)\) é solução de \(\frac{\partial F}{\partial y}=0\), com \[ F(y,\theta)=-y\ln y+y\ln h_0(\theta) +\lambda_0 y+\lambda_1 \theta y, \] obtendo-se \[ y=h_0(\theta)\exp\{-1+\lambda_0+\lambda_1 \theta\}. \] Como \(-1+\lambda_0\) não depende de \(\theta\) tem-se o resultado \[ h(\theta)\propto \theta^{-\frac{1}{2}}(1-\theta)^{-\frac{1}{2}}e^{\lambda_1\theta}\quad \theta\in(0,1). \] [Note-se que esta expressão surge como consequência imediata de (2.26) com \(j=1\) e \(g_j(\theta)=\theta\)}].
Dado que \(\int_0^1 \theta h(\theta)d\theta=\mu\) tem-se \[ \frac{\int_0^1 \theta^{1-\frac{1}{2}}(1-\theta)^{-\frac{1}{2}}e^{\lambda_1\theta}d\theta}{\int_0^1 \theta^{-\frac{1}{2}}(1-\theta)^{-\frac{1}{2}}e^{\lambda_1\theta}d\theta}=\mu. \] Usando a representação integral da função hipergeométrica generalizada \[ \int_0^u x^{\nu-1}(u-x)^{\eta-1}e^{\beta x}dx=B(\eta,\nu)_1F_1(\nu;\eta+\nu;\beta u), \] o quociente anterior pode escrever-se na forma \[ \frac{B(3/2,1/2)\, _1F_1(3/2,2,\lambda_1)}{B(1/2,1/2)\, _1F_1(1/2,1,\lambda_1)}=\mu. \] Atendendo a que \(B(a,b)=\frac{\Gamma(a)\Gamma(b)}{\Gamma(a+b)}\) e que \(\Gamma(x+1)=x\Gamma(x),\,x>0\), tem-se que \(\lambda_1\) é solução de \[ _1F_1\left(\frac{3}{2};2;\lambda_1\right)=2\mu _1F_1\left(\frac{1}{2};1;\lambda_1\right), \] como se pretendia provar. Em particular, a) para \(\mu=\frac{1}{2}\), tem-se \(\lambda_1=0\) implicando a distribuição de Jeffreys; b) para \(\mu=0.7\), \(\lambda_1\approx 1.748159\); c) para \(\mu=0.3\), \(\lambda_1\approx-1.748131\). Para obter os valores de \(\lambda_1\) correspondentes avalores particulares de \(\mu\) usou-se o seguinte código de :
f11_func<-function(a,b,c,u){
d<-b-a
A<-beta(d,a)
fun_x<-function(x) x^(a-1)*(u-x)^(d-1)*exp(c*x)
B<-integrate(fun_x,0,1,subdivisions = 300L,
rel.tol = .Machine$double.eps^0.8)$value
return(B/A)
}
# the result is 1F1(a,b,c*u)
exer_fun<-function(c,mu){
f11_func(3/2,2,c,1)-2*mu*f11_func(1/2,1,c,1)
}
uniroot(function(c) exer_fun(c,1/2),c(-4,4))$root
## [1] 6.823789e-08
uniroot(function(c) exer_fun(c,0.7),c(-4,4))$root
## [1] 1.748159
uniroot(function(c) exer_fun(c,0.3),c(-4,4))$root
## [1] -1.748131
Estes valores foram confirmados por dois processos, nomeadamente por simulação de Monte Carlo (veja-se capítulo 7) e usando a função do pacote de , como segue:
library(fAsianOptions)
## Loading required package: timeDate
## Loading required package: timeSeries
## Loading required package: fBasics
## Loading required package: fOptions
kummerM(0,3/2,2)-2*1/2*kummerM(0,1/2,1)
## [1] 0+0i
kummerM(1.748159,3/2,2)-2*0.7*kummerM(1.748159,1/2,1)
## [1] -4.310835e-07+0i
kummerM(-1.748131,3/2,2)-2*0.3*kummerM(-1.748131,1/2,1)
## [1] 2.75751e-06+0i
# usando método de Monte Carlo simples
x<-rbeta(50000,3/2,1/2)
x1<-rbeta(50000,1/2,1/2)
num<-mean(exp(1.748159*x))
den<-2*mean(exp(1.748159*x1))
num/den # deve dar aproximadamente 0.7
## [1] 0.7028106
num1<-mean(exp(-1.748131*x))
den1<-2*mean(exp(-1.748131*x1))
num1/den1 # deve dar aproximadamente 0.3
## [1] 0.2986602
De acordo com o método de Berger-Bernardo, uma distribuição a priori \(h(\theta)\) de referência deve maximizar a quantidade de informação remanescente definida em (2.29), ou seja \[ I^\theta\{e(\infty),h(\theta)\}=\lim_{n\rightarrow \infty}I^\theta\{e(n),h(\theta)\}. \] No caso em que \(\theta\) tem suporte finito tem-se, usando $h(_i|x)= $ \[ \begin{array}{lll} I^\theta\{e(n),h(\theta)\} &=& \int p(x)\sum_{i=1}^k h(\theta_i|x)\ln\frac{h(\theta_i|x)}{h(\theta_i)}dx \\ &=& \sum_{i=1}^k \left(\int f(x|\theta_i)h(\theta_i)\ln\frac{h(\theta_i|x)}{h(\theta_i)}dx \right)\\ &=& -\sum_{i=1}^k h(\theta_i)\ln h(\theta_i)+\sum_{i=1}^k h(\theta_i)\int f(x|\theta_i) \ln h(\theta_i|x) dx. \end{array} \] Quando \(\Theta\) é finito, para qualquer distribuição a priori estritamente positiva, a distribuição a posteriori em \(\theta_v\), \(h(\theta_v|x)\) converge para 1 quando \(n\to \infty\) e \(\theta_v\) é o verdadeiro valor do parâmetro (veja-se demonstração em Bernardo e Smith, 1994, p. 286 e Exercício 2.25). Assim o segundo termo do segundo membro da expressão anterior tende para zero quando \(n\rightarrow\infty\) e, consequentemente, a quantidade de informação remanescente reduz-se a \[ I^\theta\{e(\infty),h(\theta)\}=-\sum_{i=1}^k h(\theta_i)\ln h(\theta_i), \] ou seja, a entropia de \(h(\theta), \theta \in \Theta\), a qual é máxima para \(h(\theta_i)=\frac{1}{k}\), para \(i=1,...,k\).
Com a reparametrização considerada tem-se que \[ \gamma = \theta+\psi(1-\theta), \ \phi = \frac{\theta}{\theta+\psi(1-\theta)} \] O modelo binomial bivariado com tal reparametrização fica expresso por \[ f(r,s|\theta,\psi)={m\choose r}{r\choose s} \theta^s(1-\theta)^{m-s}\psi^{r-s}(1-\psi)^{m-r},\quad r=0,...,m \quad s=0,...,r, \] com \(\theta\in(0,1)\) e \(\psi\in(0,1)\).
Fixe-se \(\theta\) como parâmetro de interesse. A distribuição a priori de \(\psi\) condicional a \(\theta\) é \[ h(\psi|\theta)\propto \left[I(\psi|\theta)\right]^{1/2}, \] onde \[ \begin{array}{lll} I(\psi|\theta) &=& -E_{(R,S|\theta,\psi)}\left[ \frac{\partial^2}{\partial \psi^2}\ln f(r,s|\theta,\psi)\right]\\ &=& E_{(R,S|\theta,\psi)}\left[\frac{m-R}{(1-\psi)^2}+\frac{R-S}{\psi^2}\right] = \frac{m(1-\theta)}{\psi(1-\psi)}, \end{array} \] dado que \(E_{(R,S|\theta,\psi)}=m(\theta+\psi(1-\theta))\) e \(E_{(S|\theta,\psi)}=m\theta\). Assim \[ h(\psi|\theta)\propto \psi^{-1/2}(1-\psi)^{-1/2},\quad \psi\in(0,1), \] ou seja \(\psi|\theta \sim Beta(1/2,1/2)\). De acordo com o método descrito nas páginas 122-123, \(h(\theta)\propto \left[I(\theta)\right]^{1/2}\), com \[ \left[I(\theta)\right]=-E_{(R,S|\theta,\psi)}\left[ \frac{\partial^2}{\partial \theta^2}\ln f(r,s|\theta)\right], \] onde \[ \begin{array}{lll} f(r,s|\theta) &=& \int_0^1 f(r,s|\theta,\psi)h(\psi|\theta)d\psi\\ &=& \int_0^1 {m\choose r}{r\choose s} \theta^s(1-\theta)^{m-s}\psi^{r-s}(1-\psi)^{m-r} \frac{\psi^{-1/2}(1-\psi)^{-1/2}}{B(1/2,1/2)}d\psi \\ &\propto& \theta^s(1-\theta)^{m-s}. \end{array} \] Portanto, \[ \begin{array}{lll} I(\theta) &=& -E_{(R,S|\theta}\left[ \frac{\partial^2}{\partial \theta^2}\ln f(r,s|\theta)\right]\\ &=& E_{(R,S|\theta}\left[\frac{S}{\theta^2}+\frac{m-S}{(1-\theta)^2}\right] = \frac{m}{\theta(1-\theta)}, \end{array} \] implicando \(h(\theta)\propto \theta^{-1/2}(1-\theta)^{-1/2}\quad \theta\in(0,1)\) e \[ h(\theta,\psi)\propto \theta^{-1/2}(1-\theta)^{-1/2}\psi^{-1/2}(1-\psi)^{-1/2},\quad (\theta,\psi)\in (0,1)\times(0,1). \]
Tome-se agora \(\psi\) como parâmetro de interesse. A distribuição a priori de \(\theta\) condicional a \(\psi\) é \[ h(\theta|\psi)\propto \left[I(\theta|\psi)\right]^{1/2}. \] Raciocínio idêntico ao caso anterior leva a \(\theta|\psi \sim Beta(1/2,1/2).\) Por outro lado, \(h(\psi)\propto [I(\psi)]^{-1/2}\) com \[ \begin{array} I(\psi) &=& -E_{(R,S|\psi)}\left[ \frac{\partial^2}{\partial \psi^2}\ln f(r,s|\psi)\right]\\ &=& E_{(R,S|\psi)}\left[\frac{R-S}{\psi^2}+\frac{m-R}{(1-\psi)^2}\right] = \frac{m/2}{\psi(1-\psi)}, \end{array} \] dado que \[ \begin{array}{lll} f(r,s|\psi) &=& \int_0^1 f(r,s|\theta,\psi)h(\theta|\psi)d\theta \propto \psi^{r-s}(1-\psi)^{m-r} \\ E(R|\psi) &=& \int_0^1 (m\theta+m\psi(1-\theta))\frac{\theta^{-1/2}(1-\theta)^{-1/2}}{B(1/2,1/2)}d\theta=\frac{m(1+\psi)}{2} \\ E(S|\psi) &=& \int_0^1 m\theta\frac{\theta^{-1/2}(1-\theta)^{-1/2}}{B(1/2,1/2)}d\theta=\frac{m}{2}. \end{array} \] Consequentemente, \(h(\psi)\propto \psi^{-1/2}(1-\psi)^{-1/2}\) e novamente se tem \[ h(\theta,\psi)\propto \theta^{-1/2}(1-\theta)^{-1/2}\psi^{-1/2}(1-\psi)^{-1/2},\quad (\theta,\psi)\in (0,1)\times(0,1). \]
De acordo com a reparametrização em termos de (\(\psi,\phi\)) com \(\psi=\gamma\phi\), o modelo Binomial-Poisson considerado no Exemplo 2.27 é \[ f(x,y|\psi,\phi)={y\choose x} \psi^x(\phi-\psi)^{y-x}\frac{\mbox{e}^{-\phi}}{y!}, \quad y=0,1,...;x=0,...,y \] com \(\psi\in(0,\phi)\) e \(\phi>0\), donde \[ \ln f(x,y|\psi,\phi)\propto x\ln(\psi)+(y-x)\ln(\phi-\psi)-\phi. \] Sendo \(\phi\) o parâmetro perturbador, fixe-se \(\psi\). Pela Proposição 2.2, tem-se \[ h(\phi|\psi)\propto \left[I(\phi|\psi)\right]^{1/2} \] com \[ I(\phi|\psi)=-E_{X,Y|\psi,\phi}\left[\frac{Y-X}{(\phi-\psi)^2}\right]=\frac{1}{\phi-\psi}, \] implicando a distribuição imprópria \[ h(\phi|\psi)\propto(\phi-\psi)^{-1/2},\quad 0<\psi<\phi. \] Considere-se então \(\left\{\Phi_i(\psi)\right\},0<\psi<\phi\) uma sucessão crescente de subconjuntos de \(\Phi=(0,+\infty)\) de intervalos da forma \(\Phi_i(\psi)=(\psi, a_i+\psi)\) com \(a_i\) uma sucessão crescente de números reais positivos. Então \[ h_i(\phi|\psi)=\frac{(\phi-\psi)^{-1/2}}{2a_i^{1/2}}, \quad \phi \in (\psi,\psi+a_i) \] \[ f_i(x,y|\psi)={y\choose x}\psi^x \frac{\mbox{e}^{-\psi}}{2a_i^{1/2}}\Gamma(y-x+\/2,a_i). \] \[ E_i(X)=\int_\psi^{a_i+\psi}E(X|\psi,\phi)h_i(\phi|\psi)d\phi=\psi. \] Portanto \[ h_i(\psi)\propto I_i(\psi)^{1/2}=\psi^{-1/2}. \] A distribuição a priori de referência quando \(\psi\) é o parâmetro de interesse é pois \[ h(\psi,\phi)\propto \psi^{-1/2}(\phi-\psi)^{-1/2},\quad 0<\psi<\phi. \]
Aplique-se aqui a Proposição 2.3, dado que se verificam as condições nela enunciadas (veja-se subsecção 5.2.1 deste livro). O espaço paramétrico é \(\Gamma\times\Phi=\mathbb{R}\times \mathbb{R}^+\) com \(\mu\in \Gamma\) and \(\sigma\in \Phi\).
A matriz de informação de Fisher é
\[ I(\theta_1,\theta_2)=\left( \begin{array}{cc} n \frac{1-\theta_2}{\theta_1(1-\theta_1-\theta_2)} & n\frac{1}{1-\theta_1-\theta_2} \\ n\frac{1}{1-\theta_1-\theta_2} & n \frac{1-\theta_1}{\theta_2(1-\theta_1-\theta_2)} \\ \end{array} \right). \] Aplicando novamente a Proposição 2.3 tem-se (sendo \(\theta_1\) parâmetro de interesse e \(\theta_2\) parâmetro perturbador) \[ h(\theta_2|\theta_1)\propto (1-\theta_1)^{1/2}\theta_2^{-1/2}(1-\theta_1-\theta_2)^{-1/2}, \quad \theta_2<1-\theta_1. \] Esta distribuição a priori é própria pois \[ \int_0^{1-\theta_1} \theta_2^{-1/2}(1-\theta_1-\theta_2)^{-1/2}d\theta_2=B(1/2,1/2). \] Consequentemente \[ h(\theta_2|\theta_1)=\frac{\theta_2^{-1/2}(1-\theta_1-\theta_2)^{-1/2}}{B(1/2,1/2)}, \quad \theta_2<1-\theta_1. \] De acordo com a Proposição 2.3 e dado qúe \(h_{11}- h_{12}h_{22}^{-1}h_{21}=[\theta_1(1-\theta_1)]^{-1}\) não depende de \(\theta_2\), é claro que \[ \begin{array}{lll} h(\theta_1) &\propto& \exp\left\{\int_0^{1-\theta_1} h(\theta_2|\theta_1) \ln [\theta_1(1-\theta_1)]^{-1/2}d\theta_2\right\}\\ &=& [\theta_1(1-\theta_1)]^{-1/2}, \ \theta_1\in (0,1). \end{array} \] Consequentemente a distribuição a priori de referência para \((\theta_1,\theta_2)\), quando \(\theta_1\) é o parâmetro de interesse, é \[ h(\theta_1,\theta_2)=h(\theta_2|\theta_1)h(\theta_1)\propto \theta_1^{-1/2}(1-\theta_1)^{-1/2}\theta_2^{-1/2}(1-\theta_1-\theta_2)^{-1/2}, \quad \theta_1+\theta_2 < 1. \] Dado que o determinante da matriz de informação de Fisher é \[ |I(\theta_1,\theta_2)|=n(\theta_1^{-1/2}\theta_2^{-1/2}(1-\theta_1-\theta_2)^{-1/2}), \] segue-se que a distribuição a priori de Jeffreys é \[ h(\theta_1,\theta_2)\propto \theta_1^{-1/2}\theta_2^{-1/2}(1-\theta_1-\theta_2)^{-1/2}, \quad \theta_1+\theta_2 < 1. \]
Tem-se que \(f(x|\theta)=\prod_{j=1}^n f(x_j|\theta)\) e seja \(\theta_v\) o verdadeiro valor do parâmetro e \(h(\theta_k)=p_k>0\), com \(\sum_{k}{p_k}=1\) uma distribuição a priori. Seja \(X=(X_1,...,X_n)\) o vetor aleatório do qual \(x=(x_1,...,x_n)\) é uma realização. Então $k $ tem-se \[ \begin{array}{lll} \frac{f(X|\theta_k)}{f(X|\theta_v)}&=&\prod_{j=1}^n \frac{f(X_j|\theta_k)}{f(X_j|\theta_v)}\\ &=& \exp\left\{\ln \prod_{j=1}^n\frac{f(X_j|\theta_k)}{f(X_j|\theta_v)}\right\} = \exp\left\{\sum_{j=1}^n \ln \frac{f(X_j|\theta_k)}{f(X_j|\theta_v)}\right\}\\ &=&\exp(\sum_{j=1}^n Y_j)=\exp(S_k). \end{array} \] Condicionalmente a \(\theta_v\), e para \(k\) fixo, \(S_k\) é a soma de \(n\) variáveis aleatórias \(Y_j\) i.i.d. com valor médio finito \(\mu\) dado por \[ \mu=E(Y)=\int \ln \frac{f(y|\theta_k)}{f(y|\theta_v)}f(y|\theta_v)dy. \] Este valor médio é negativo quando \(k\neq v\) e 0 quando \(k=v\). Pela Lei Forte dos Grandes Números, então \[ \lim_{n\to\infty}\frac{1}{n}S_k=\mu, \] o que implica que \(\lim_{n\to\infty}S_v=0\) e \(\lim_{n\to\infty} S_k=-\infty,\) para \(\forall k\neq v\). Por outro lado, $k $ \[ \begin{array}{lll} h(\theta_k|X) &=& \frac{p_kf(X|\theta_k)}{\sum_{i} f(X|\theta_i)p_i} = \frac{p_k f(X|\theta_k)/f(X|\theta_v)}{\sum_{i} f(X|\theta_i)/f(X|\theta_v)p_i} \\ &=& \frac{\exp[\ln p_k+S_k]}{\sum_i\exp[\ln p_i+S_i]}. \end{array} \] Consequentemente, quando \(n\to\infty\), \(h(\theta_k|x)\to 0\) e \(h(\theta_v|x)\to 1\).
Reveja-se o Exercício 2.20.
Admita-se que a sucessão \(\{\Phi_i(\gamma)\}\) de valores de \(\phi\) não depende de \(\gamma\) e que é válida a fatorização \[ [h_\gamma(\gamma,\phi)]^{1/2}=f_1(\gamma)g_1(\phi),\quad [h_{22}(\gamma,\phi)]^{1/2}=f_2(\gamma)g_2(\phi). \] De acordo com a Proposição 2.3, \[ h(\phi|\gamma)\propto [h_{22}(\gamma,\phi)]^{1/2}= f_2(\gamma)g_2(\phi). \] Para cada \(\Phi_i(\gamma)\) tem-se a sucessão de distribuições a priori condicionais \[ \begin{array}{lll} h_i(\phi|\gamma) &=& \frac{f_2(\gamma)g_2(\phi)}{\int_{\Phi_i(\gamma)}f_2(\gamma)g_2(\phi)d\phi} \\ &=& \frac{g_2(\phi)}{\int_{\Phi_i(\gamma)}g_2(\phi)d\phi}= \frac{g_2(\phi)}{a_i}. \end{array} \] Por outro lado, \[ \begin{array}{lll} h_i(\gamma) &\propto& \exp\left\{\int_{\Phi_i(\gamma)} \frac{g_2(\phi)}{a_i}\ln[f_1(\gamma)g_1(\phi)]d\phi\right\} \\ &=& \exp(\ln(f_1(\gamma))\exp\left\{\int_{\Phi_i(\gamma)} a_i^{-1}g_2(\phi)\ln[g_1(\phi)]d\phi\right\} \\ &=& b_if_1(\gamma), \end{array} \] com \(b_i=\exp\left\{\int_{\Phi_i(\gamma)} a_i^{-1}g_2(\phi)\ln[g_1(\phi)]d\phi\right\}\). Como \(a_i\) e \(b_i\) são constantes, \[ \begin{array}{lll} h(\gamma,\phi) &=& \lim_{i\to\infty}\frac{h_i(\phi|\gamma)h_i(\gamma)}{h_i(\phi_0|\gamma_0)h_i(\gamma_0)} \\ &=& \lim_{i\to\infty}\frac{a_i^{-1}g_2(\phi)b_if_1(\gamma)}{a_i^{-1}g_2(\phi_0)b_if_1(\gamma_0)} \propto f_1(\gamma)g_2(\phi). \end{array} \]
\(h(N) \propto 1/N,\ N=1,2,\ldots \rightarrow h(N|x)= x/N^2,\ N=x,x+1,\ldots .\)
Moda a posteriori \(= 100 = EMV = 1/2 \times\,\) mediana a posteriori
(Nota: Média a posteriori não finita).
Use as transformações \(y=x-c\) em \(1-F_{Ga(a,b)}(c)\) e \(y=(c-x)/c\) em \(F_{Be(a,b)}(c)\).
\(n=59\).
\(n=10,\,\bar{x}=1.6\).
\(B(x)=\frac{b\sqrt{2}}{B_{\cdot}} e^{-(A_1-A_2)^2/(2 B_{\cdot}^2})\), com \(B_{\cdot}^2= \sum_{i=1}^2 \left(\frac{1}{b^2}+\frac{n_i}{\sigma^2}\right)^{-1}\) e \(A_i=\frac{\frac{a}{b^2}+\frac{n_i \bar{x}_i}{\sigma^2}}{\frac{1}{b^2}+\frac{n_i}{\sigma^2}}\), \(i=1,2.\)
Modelo amostral: \(X|n, \alpha \sim Bi(n, \alpha) \amalg Y|m, \beta \sim Bi(m, \beta)\).
Distribuição a priori possível compatível com \(0 < \alpha \leq \beta <1\): \(\beta \sim Be(b_1, b_2); \phi= \alpha/\beta \sim Be(a_1, a_2)\) com hiperparâmetros eliciados a partir de crenças a priori sobre, e.g., médias e desvios padrões de \(\beta\) e \(\phi\).
Distribuição a posteriori conjunta de \(\beta\) e \(\phi\): mistura finita do produto de duas densidades a posteriori Beta.
\(P(\phi \leq u|x,y)\) expressável como mistura finita de funções de distribuição a posteriori Beta.
Sugestões: i) \(Z=X_1 - X_2,\ f_Z(z)= {\frac{1}{2}} e^{-z} I_{\left[0,+\infty \right)}(z)+ {\frac{1}{2}} e^{z} I_{\left(-\infty,0 \right)}(z)\); ii) \(W=X_1/X_2, \ f_W(w)= (1+w)^{-2} I_{\left(0,+\infty \right)}(w).\)
Os fatores de Bayes numa e noutra parametrização são idênticos (a \(B(x)=\frac{h_1(\gamma_0|x)}{h_1(\gamma_0)}\) como consequência da condição em a).
\(h_1(\gamma)= \frac{b_1^{a_1} b_2^{a_2} \gamma^{a_1-1}}{B(a_1,a_2) (b_1 \gamma+b_2)^{a_{\cdot}}}\), \(\gamma >0\)
\(h_1(\phi|\gamma) \sim Ga(a_{\cdot},\frac{b_1 \gamma + b_2}{1+\gamma})\).
Admitindo a condição de Savage \(h_0(\phi) = h_1(\phi|\gamma=1)\),
\(B(t_1,t_2) = \frac {B(a_1,a_2)}{B(A_1,A_2)} \frac{B_1^{A_1} B_2^{A_2}}{b_1^{a_1} b_2^{a_2}} \frac{b_{\cdot}^{a_{\cdot}}}{B_{\cdot}^{A_{\cdot}}}\)
com \(t_1=\sum_i x_i\), \(t_2=\sum_i y_i\), \(A_i = a_i+t_i\), \(B_i=b_i+n\), \(i=1,2\).
\(B_C(t_1,t_2) = \frac{f_{Bi (t,1/2)}(t_1)}{E_{\gamma}[f_{Bi (t,\frac{\gamma}{\gamma+1})}(t_1)]} \not= B(t_1,t_2)\), em geral, verificando-se a igualdade quando \(b_1=b_2\) com \(B(t_1,t_2) = (\frac{1}{2})^{t_1+t_2} \frac{B(a_1,a_2)}{B(A_1,A_2)}\). Esta identidade justifica-se atendendo a que a estatística \(T=T_1+T_2\) é ancilar parcial para \(\gamma\) e ao respeito dos métodos bayesianos pelo PCG quando a priori \(\gamma \amalg \phi\) (o que garante a sua independência a posteriori), condição que decorre da situação \(b_1=b_2\).
\(B(t_1,t_2)\) idêntico ao de 3.26 no caso i) e diferente no caso ii) como consequência da condição em 3.25 a) ser satisfeita no 1º caso e violada no 2º.
Admitindo que as diferenças das observações emparelhadas constituem uma a.a. de um modelo Normal, a distribuição a posteriori de \(\mu_1-\mu_2\) evidencia que as notas pelo método tradicional tendem a ser menores do que as obtidas pelo método personalizado, ainda que as diferenças não sejam estatisticamente suficientes para invalidar a hipótese de um rendimento médio igual (\(P \approx 0.13\)). A conclusão é idêntica se se admitir o modelo configurado por a.a. independentes de distribuições Normais homocedásticas.
\(E(\lambda|\{x_i\})= \frac{A}{B} \left(\frac{A}{A-1}\right)^{1/2} e^{-1}.\)
Seja \(\theta=(\theta_1,...,\theta_k)\). Considerando o desenvolvimento em série de Taylor até à segunda ordem de \(\psi(\theta)\) em torno de \(\hat\theta\), máximo de \(-\psi(\theta)\) \[ \psi(\theta)\approx \psi(\hat\theta)+\nabla\psi(\hat\theta)(\theta-\hat\theta)+\frac{1}{2}(\theta-\hat\theta)^T\nabla^2\psi(\hat\theta)(\theta-\hat\theta), \] tem-se \[ I\approx f(\hat\theta) \exp\{-n\psi(\hat\theta)\}\int \exp\{-\frac{n}{2}(\theta-\hat\theta)^T\nabla^2\psi(\hat\theta)(\theta-\hat\theta)\} d\theta. \] O resultado sai de imediato considerando que \[ \int \exp\{-\frac{n}{2}(\theta-\hat\theta)^T\nabla^2\psi(\hat\theta)(\theta-\hat\theta)\} d\theta=(2\pi)^{k/2}det(n\nabla^2\psi(\hat\theta))^{-1/2}. \]
Fazendo a transformação \(y=t/x\) tem-se \[
\begin{array}{lll}
\Gamma(x+1) &=& \int_0^{+\infty} (xy)^x\exp(-xy)xdy \\
&=& x^{x+1}\int_0^{+\infty} y^x\exp(-xy)dy \\
&=& x^{x+1} \int_0^{+\infty}\exp[-x(y-\log(y))]dy
\end{array}
\] Tomando \(g(y)=y-log(y)\), tem-se \(g^\prime(y) = 1 - \frac{1}{y},\ g^{\prime\prime}(y) = \frac{1}{y^2}\). A função \(g(y)\) atinge um máximo em \(\hat{y}=1\) e \(g^{\prime}(\hat{y})=1, g^{\prime\prime}(\hat{y})=1\).
Assim, aplicando o método de Laplace (veja-se equação (5.16)) ao integral envolvido em \(\Gamma(x+1)\), obtém-se \[
\begin{array}{lll}
\Gamma(x+1) &=& x^{x+1} \sqrt{2\pi}x^{-1/2}\exp(-x)\left\{1+O\left(\frac{1}{x}\right)\right\} \\
&=& \sqrt{2\pi}x^{x+1/2}\exp(-x)\left\{1+O\left(\frac{1}{x}\right)\right\}
\end{array}
\]
Considere a transformação \((\gamma_1, \ldots, \gamma_c) \leftrightarrow (\theta_1, \ldots, \theta_{c-1},\sum_{i=1}^{c} \gamma_i).\)
Sugestão: Invoque-se o PSG com base na suficiência parcial de \(n^{\ast}\) para os parâmetros de interesse.
Siga-se o argumento da Subsec. 6.2.3 partindo do modelo bayesiano Produto de Multinomiais \(\wedge\) Produto de Dirichlet.
Ter em conta que \(\theta=(\theta_0,\theta_1) \in \Theta_1\) e a expressão de \(B(x)\) com \(c_0\) expresso em termos de integral em \(\Theta_1\); provar que \(c_0\) é \(c_1\) multiplicado pelo integral em ordem a \(h_1(\theta|x)\) da razão \(\frac{\bar{h}_0(\theta)}{\bar{h}_1(\theta)}\).
Mostrar que a função de distribuição de \(\theta^*_n\) avaliada em \(u\), condicional aos \(\{\theta_i\}\), é dada pelo quociente entre \(n^{-1} \sum_{i=1}^n w^*(\theta_i)\, I_{(-\infty,u)}(\theta_i)\) e \(n^{-1} \sum_{j=1}^n w^*(\theta_j)\), com \(w^*(\theta_i) = \frac{\bar{h}(\theta_i|x)}{p(\theta_i)}\), e aplicar a Lei Forte dos Grandes Números para chegar ao limite \(H(u)\). Este limite mantém-se para o valor esperado segundo a função de importância \(p\) daquela função de distribuição condicional de \(\theta^*_n\), invocando o teorema da convergência dominada de Lebesgue.
Atentar à definição de concavidade pelo sinal da 2ª derivada.
Ter em atenção eventuais restrições no espaço paramétrico.
Verificar primeiro que \(f(x,y)= \frac{x}{m(C_{\pi})} I_{A(y)}(x)\), com \(A(y) = (0,\sqrt{\pi(y)})\).
\[ L(\mu,\sigma_1,\sigma_2|{\bf y}) \propto (\sigma_1^2)^{-\frac{I(J-1)}{2}} \exp \{ -\frac{1}{2\,\sigma_1^2} \sum_{i,j} (y_{ij} - \bar{y}_{i\cdot})^2 \} \times (\sigma_1^2 + J \sigma_2^2)^{-\frac{I}{2}} \exp \{ -\frac{J}{2\,(\sigma_1^2 + J \sigma_2^2)} \sum_{i} (\bar{y}_{i\cdot} - \mu)^2) \}. \]
\(\forall\,i,\ \bar{Y}_{i\cdot}|\mu,\sigma_1^2,\sigma_2^2 \ \underset{iid}{\sim} \ N(\mu,\frac{\sigma_1^2 + J \sigma_2^2}{J})\).
\[ h(\sigma_1^2,\Sigma|{\bf y}) \propto (\sigma_1^2)^{-(\frac{I(J-1)}{2}+1)} \exp \{ -\frac{1}{2\,\sigma_1^2} \sum_{i,j} (y_{ij} - \bar{y}_{i\cdot})^2 \} \times (\Sigma)^{-(\frac{I-1}{2}+1)} \exp \{ -\frac{J}{2\,\Sigma} \sum_{i} (\bar{y}_{i\cdot} - \bar{y})^2) \}, \ \sigma_1^2 < \Sigma. \]
De acordo com o método dos momentos, a EBE da média de \(\theta_i\) é \(\widetilde{\theta}_i = \frac{\widetilde{\tau} \widetilde{\mu}+x_i}{\widetilde{\tau}+m}\), com \(\widetilde{\mu}=\frac{\bar{x}}{m}\),\(\widetilde{\tau} = \frac{s^2_n - m \bar{x}(1-\frac{\bar{x}}{m})}{\bar{x}(1-\frac{\bar{x}}{m}) - s^2_n}\), \(s^2_n = \frac{1}{n} \sum_i (x_i-\bar{x})^2\), \(i=1,\ldots,n\).
\(\bar{x} + \frac{1}{c} (x_i-\bar{x})\), \(i=1,\ldots,n\) (via método dos momentos).
M-H com independência:
Distribuição instrumental proposta: \(\beta^{(t+1)} | \beta^{(t)} \sim N_2(\widehat{\beta}, [I(\widehat{\beta})]^{-1})\) com i) \(\widehat{\beta}\) tomado como a média a posteriori de \(\beta\) (ou a respetiva estimativa de MV) obtidas por resolução iterativa do correspondente sistema de equações (a derivar); ii) \(I(\beta)\) tomada com a matriz de informação observada (a derivar).
Rácio de M-H: \(R(u,v) = \frac{\bar{h}(v|y) q(u)}{\bar{h}(u|y) q(v)}\) em que \(\bar{h}\) denota o núcleo da densidade a posteriori de \(\beta\) (expressão a derivar).
M-H com passeio aleatório em bloco:
\(\pi_i(u_i|u_j) \sim \text{Exp}(\alpha+\beta\,u_j)\), \(i,j=1,2\), \(i\not=j\).
Ter em conta que a função de transição de \(u=(u_1,u_2)\) para \(v=(v_1,v_2)\) em cada ciclo é \(p(u,v) = \pi_1(v_1|u_2) \pi_2(v_2|v_1)\).
Notar que as entradas \(q(u,v)\) de \(Q\) são tais que \[ q(u,v) = \begin{cases} 1/10, &u=(0,0) \ \text{e} \ v=(1,1), \\ 2/9, &u=(1,1) \ \text{e} \ v=(0,0). \end{cases} \]
\(\beta_0|\beta_1,\sigma^2,y \sim N(\widehat{\beta}_0-\bar{x}(\beta_1-\widehat{\beta}_1), \sigma^2/n)\), \(\beta_1|\beta_0,\sigma^2,y \sim N(\widehat{\beta}_1 - \frac{n\,\bar{x}}{\sum_i x_i^2} (\beta_0 - \widehat{\beta}_0), \sigma^2/(\sum_i x_i^2))\), \(\sigma^2|\beta,y \sim GaI( \frac{n}{2}, \frac{(n-2)\,s^2 + (\beta-\widehat{\beta})' X'X (\beta-\widehat{\beta})}{2})\).
Resposta negativa (reveja Cap. 4).
\(\{\lambda_i\}|\beta,\{x_i\} \sim \prod_i Ga(a+x_i, t_i+\beta)\); \(h(\beta|\{\lambda_i\},\{x_i\}) \propto \beta^{n\,a-(c+1)} \exp(-\beta\sum_i \lambda_i - \frac{d}{\beta})\)
\(\therefore\ \) membro de uma distribuição Gaussiana Inversa Generalizada com parâmetros \(\nu=n\,a-c\), \(\chi=2\,d\), \(\psi=2\,\sum_i\lambda_i\) (analisar a sua log-concavidade).
\(\delta|\theta,N,D \sim Be(m_2+1, n_1-m_2+1)\), \(D=(n_1, m_2, n_c=n_1+n_2-m_2)\)
\(\theta|\delta,N,D \sim Be(n_c+1, 2\,N-n_1-n_c+1)\),
\(N|\delta,\theta,D\) tal que \(N-n_c|\delta,\theta,D \sim BiN(n_c, 1-(1-\theta)^2)\).
\(\mu|\{y_{ij}\},\{\mu_i\},\sigma_{\epsilon}^2,\sigma_{\mu}^2 \sim N(c,\frac{\sigma_0^2\,\sigma_{\mu}^2}{\sigma_{\mu}^2 + k\,\sigma_0^2})\), \(c = \frac{\frac{k}{\sigma_{\mu}^2} \bar{\mu} + \frac{1}{\sigma_0^2} \mu}{\frac{k}{\sigma_{\mu}^2} + \frac{1}{\sigma_0^2}}\), \(\bar{\mu} = \frac{1}{k} \sum_i \mu_i\).
\(\{\mu_i\}|\{y_{ij}\},\mu,\sigma_{\epsilon}^2,\sigma_{\mu}^2 \underset{ind.}{\sim} N(A_i,\frac{\sigma_{\epsilon}^2\,\sigma_{\mu}^2}{\sigma_{\epsilon}^2 + m\,\sigma_{\mu}^2})\), \(A_i = \frac{\frac{1}{\sigma_{\mu}^2} \mu + \frac{m}{\sigma_{\epsilon}^2} \bar{y}_{i\cdot}}{\frac{1}{\sigma_{\mu}^2} + \frac{m}{\sigma_{\epsilon}^2}}\).
\(\sigma_{\epsilon}^2|\{y_{ij}\},\mu,\{\mu_i\},\sigma_{\mu}^2 \sim GaI(a_1+\frac{m\,k}{2}, b_1+\frac{1}{2} \sum_{i,j} (y_{ij}-\mu_i)^2)\).
\(\sigma_{\mu}^2|\{y_{ij}\},\mu,\{\mu_i\},\sigma_{\epsilon}^2 \sim GaI(a_2+\frac{k}{2}, b_2+\frac{1}{2} \sum_{i} (\mu_{i}-\mu)^2)\).
\(\theta|\lambda,k,y \sim Ga(A_1,B_1)\), \(A_1=a_1+\sum_{i=1}^k y_i\), \(B_1=b_1+\sum_{i=1}^k t_i\).
\(\lambda|\theta,k,y \sim Ga(A_2,B_2)\), \(A_2=a_2+\sum_{i=k+1}^n y_i\), \(B_2=b_2+\sum_{i=k+1}^n t_i\).
\(h(k|\theta,\lambda,y) = \frac{p_k}{\sum_{j=1}^n p_j}\), \(k=1,\ldots,n\), \(p_k=(\frac{\theta}{\lambda})^{\sum_{j=1}^k y_j} \exp(-(\theta-\lambda) \sum_{j=1}^k t_j)\).
\(z|\lambda,\delta,x \sim GaI(\frac{k+n}{2}, \frac{k\,\delta + n\,(\lambda-\bar{x})^2 + (n-1)\,s^2}{2})\),
\(\delta|\lambda,z,x \sim Ga(c+\frac{k}{2}, d+\frac{k}{2\,z})\),
\(\lambda|\delta,z,x \sim N(A(x,z), \frac{b^2\,z}{z+n\,b^2})\), \(A(x,z) = \frac{z\,a+n\,b^2\,\bar{x}}{z+n\,b^2}\).
\(\alpha|n,z \sim Be(a_p+z_{\cdot\cdot}, b_p+N-z_{\cdot\cdot})\),
\(\sigma_u|n,z \sim Be(s_u+z_u, r_u+z_{\cdot\cdot}-z_u)\),
\(\varepsilon_u|n,z \sim Be(e_u+N-N_u-z_{\cdot\cdot}+z_u, f_u+N_u-z_u)\), \(u=1,2\).
Notar que \[ \begin{array}{lll} \gamma_{jk}^{(l)} &= &P(T_1=j, T_2=k|R_V=l) \\ &= &P(T_1=j|R_V=l) \, P(T_2=k|R_V=l) + (-1)^{j+k} C_{12}^{(l)}, \end{array} \] onde \(C_{12}^{(l)}\) é a covariância entre \(T_1\) e \(T_2\) sob \(R_V=l\), denotada por \(C_{12}^{(1)}=\sigma_{12}\) e \(C_{12}^{(0)}=\varepsilon_{12}\) de modo que \[ \gamma_{jk}^{(1)} = \begin{cases} \sigma_1\,\sigma_2 + \sigma_{12}, &j=k=1, \\ \sigma_1 (1-\sigma_2) - \sigma_{12}, &j=1,\,k=0, \\ (1-\sigma_1) \sigma_2 - \sigma_{12}, &j=0,\,k=1, \\ (1-\sigma_1) (1-\sigma_2) + \sigma_{12}, &j=k=0, \\ \end{cases} \] e \(\gamma_{jk}^{(0)}\) dadas por expressão análogas com \(\varepsilon_u\) e \(\pm \varepsilon_{12}\) no papel de \(\sigma_u\) e \(\pm \sigma_{12}\).
As distribuições a priori condicionais Uniformes em apropriados intervalos limitados inferiormente por \(0\) para \(\varepsilon_u\) e \(\pm \varepsilon_{12}\) correspondem para os respetivos coeficientes de correlação \(\rho_{12}^{(l)}\) a distribuições Uniformes em intervalos limitados superiormente por funções das sensibilidades ou das especificidades consoante \(l=1\) ou \(l=0\). Por exemplo, tomando \(\rho_\sigma \equiv \rho_{12}^{(l)} = \frac{\sigma_{12}}{\sqrt{\sigma_1\,(1-\sigma_1) \, \sigma_2\,(1-\sigma_2)}} = \frac{\sigma_{12}}{\sqrt{m_1\,m_2}}\), a distribuição a priori condicional é \[ \rho_\sigma|\sigma_1,\sigma_2 \sim Unif([0,g_\sigma(\sigma_1,\sigma_2)]) \] com \(g_\sigma(\sigma_1,\sigma_2) = \sqrt{\frac{\min\{m_1,m_2\}}{\max\{m_1,m_2\}}}\), \(m_1=\sigma_1\,(1-\sigma_2)\), \(m_2=\sigma_2\,(1-\sigma_1)\). Argumento análogo para \(\rho_\varepsilon = \rho_{12}^{(0)}\) com \(\{\varepsilon_u\}\) no papel de \(\{\sigma_u\}\) conduz a \(\rho_\varepsilon|\varepsilon_1,\varepsilon_2 \sim Unif([0,g_\varepsilon(\varepsilon_1,\varepsilon_2)])\).
Tomando \(\phi = (\alpha,\sigma_1,\sigma_2,\varepsilon_1,\varepsilon_2,\rho_\sigma,\rho_\varepsilon)\), tem-se \[ h(\phi|n,z) \propto h(\phi) \, f(n|\phi) \, f(z|n,\phi) \] com \(n|\phi \sim M_3(N,\{\theta_{jk}(\phi)\})\), \(z|n,\phi \sim \prod_{j,k} Bi(n_{jk}, \nu_{jk})\), \(\nu_{jk} = \frac{\alpha\,\gamma_{jk}^{(1)}}{\theta_{jk}}\), \(\sigma_{12} = \rho_\sigma \sqrt{m_1\,m_2}\), ou seja, \[ \begin{array}{lll} h(\phi|n,z) &\propto &\alpha^{A_p-1} (1-\alpha)^{B_p-1} \times \prod_{j,k} (\gamma_{jk}^{(1)})^{z_{jk}} \times \prod_{j,k} (\gamma_{jk}^{(0)})^{n_{jk}-z_{jk}} \\ & &\times \prod_{u} \sigma_u^{s_u-1} (1-\sigma_u)^{r_u-1} \varepsilon_u^{e_u-1} (1-\varepsilon_u)^{f_u-1} \times [g_\sigma(\sigma_1,\sigma_2) \, g_\varepsilon(\varepsilon_1,\varepsilon_2)]^{-1} \end{array} \] para \(\alpha,\sigma_u,\varepsilon_u \in [0,1]\), \(\rho_\sigma \in [0,g_\sigma]\), \(\rho_\varepsilon \in [0,g_\varepsilon]\), em que \(A_p=a_p+z_{\cdot\cdot}\) e \(B_p=b_p+N-z_{\cdot\cdot}\).
\[ \begin{array}{lll} h(\theta,\alpha|y) &\propto &(\sigma_1^2)^{-\frac{IJ}{2}-1} \, (\sigma_2^2)^{-\frac{I}{2}-1} \times \exp\{-\frac{1}{2\sigma_1^2} \sum_{i,j} (y_{ij}-\bar{y}_{i\cdot})^2\} \\ & &\times \exp\{-\frac{1}{2} \sum_{i} ( \frac{J}{\sigma_1^2} [\alpha_i-(\bar{y}_{i\cdot}-\mu)]^2 + \frac{\alpha_i^2}{\sigma_2^2})\}. \end{array} \]
\[ \begin{array}{lll} h(\theta|y) &\propto &h(\theta) \int f(y|\theta,\alpha) \, h(\alpha|\sigma_2^2)\,d\alpha \\ &\propto &(\sigma_1^2)^{-\frac{I(J-1)}{2}-1} \, (\sigma_2^2)^{-1} \, (\sigma_1^2+J\,\sigma_2^2)^{-\frac{I}{2}} \\ & &\times \exp\{-\frac{1}{2\sigma_1^2} \sum_{i,j} (y_{ij}-\bar{y}_{i\cdot})^2\} \, \exp\{-\frac{J}{2(\sigma_1^2+J\,\sigma_2^2)} \sum_{i} (\bar{y}_{i\cdot}-\mu)^2\} . \end{array} \]
Notar que \(P(Y_L \in C\cap A) = P(Y_1 \in C \cap A)\) e \(P(Y_L \in C) = \frac{P(Y_1 \in C \cap A)}{P(Y_1 \in A)}\).
Mostre que \(P(Y_L \in C) = \int_{C\cap A} \frac{1}{m(A)} d\,y_1\).
\(B=[0,1]\times [0,M]\), \(M=\max_u \pi^\star(u)\), \(V \sim Unif([0,1])\) e \(W \sim Unif([0,M])\) independentes.
\(f(y|\{\delta_i\}) \propto a(\beta) \prod_{j=0,1} \text{e}^{m_j\,\beta_j}\), \(a(\beta) = \text{e}^{-\sum_i \phi_i(\beta)}\),
\(\beta \sim N_2\biggl(\begin{pmatrix} a_0 \\ a_1 \end{pmatrix}, \text{diag}(b_0^2,b_1^2)\biggr)\).
Em suma:
Ter em consideração as sugestões explicitadas no enunciado.
Prove primeiro que \(Cov(\alpha_i,\bar{\alpha}|y) = C + \frac{W}{I} = Var(\bar{\alpha}|y)\),
\(Var(\alpha_i^\star|y) = \frac{I-1}{I} W\),
\(Cov(\alpha_i^\star,\alpha_j^\star|y) = -\frac{W}{I}\), \(i\not= j\) em que \(C=Cov(\alpha_i,\alpha_j|y)\) e \(W\) é o valor comum dos \(W_i\).
\(\rho(\beta_i,\beta_j|y) = 1/2\), \(i,j\geq 2\), \(i\not=j\)
\(\rho(\beta_i,\nu|y) = - [2\,(1+\frac{\sigma_1^2}{IJ\sigma_2^2})]^{-\frac{1}{2}}\), como consequência de \(Cov(\beta_i,\nu|y) = - W\) e \(Var(\nu|y) = \frac{W}{\sigma_2^2} (\sigma_2^2 + \frac{\sigma_1^2}{IJ})\).
Pela Proposição 10.3 as duas distribuições condicionais não são compatíveis pelo que não existe uma f.d.p. conjunta própria com elas associada. A aplicação do algoritmo Gibbs com aquelas distribuições mostrará que a cadeia nunca atingirá a convergência.
Tendo em conta que \(\beta|v \sim N_p(0,B_v)\), com \(B_v=\text{diag}(I_jb_j^2, j=1,\ldots,p)\), \(I_j=(1-v_j)+v_j\,a_j^2\), e a identidade algébrica da combinação de duas formas quadráticas no caso multivariado (Cap.4): \[
\beta|\sigma^2,v,y \sim N_p(c,C),\ c = (\frac{X'X}{\sigma^2} + B_v^{-1})^{-1} \frac{X'X}{\sigma^2} \widehat{\beta},
\]
com \(\widehat{\beta}\) a estimativa de MV de \(\beta\) e \(C = \frac{X'X}{\sigma^2} (\frac{X'X}{\sigma^2} + B_v^{-1})^{-1} B_v^{-1} \equiv [\sigma^2 (X'X)^{-1} + B_v]^{-1}\) \[
\sigma^2|\beta,v,y \sim GaI(d_v+\frac{n}{2}, f_v + (y-X\beta)'(y-X\beta)).
\] No caso em que \(d_v\) e \(f_v\) não dependem de \(v=\{v_j\}\), \(h(v|\beta,\sigma^2,y) = \prod_{j=1}^p Ber(\frac{p_j}{p_j+q_j})\) com \(p_j=w_j \exp(-\frac{\beta_j^2}{2\,a_j^2b_j^2})\), \(q_j=(1-w_j) \exp(-\frac{\beta_j^2}{2\,b_j^2})\).
\(\alpha(j,j') = \min\{1,R(j,j')\}\) com \[
R(j,j') = \frac{h(M_{j'}) f(y|M_{j'}) q_m(M_j|M_{j'})}{h(M_{j}) f(y|M_{j}) q_m(M_{j'}|M_{j})},
\] atendendo a que a distribuição proponente \(q(\cdot)\) para \((M_j,\theta_j) \rightarrow (M_{j'},\theta_{j'})\) é o produto dos fatores \(q_m(M_j|M_{j'})\) independente de \(\theta\), e \(q_p(\theta_{j'}|M_{j'},M_j,\theta_j) = h(\theta_{j'}|M_{j'},y)\).
Como o rácio M-H apresenta a estrutura de um amostrador de dimensão fixa sobre o espaço \({\cal M}\) dos modelos, o correspondente algoritmo segue a versão padrão.
\(\theta_1=(\alpha,\lambda)\), \(\theta_2=(\mu,\sigma^2)\),
\(\mu_1(M_1) \equiv E(Y|\theta_1)=\alpha/\lambda\),
\(\mu_2(M_1) \equiv E(Y^2|\theta_1)=\frac{\alpha(\alpha+1)}{\lambda^2}\),
\(\mu_2(M_2) \equiv E(Y|\theta_2)=\text{e}^{\mu+\sigma^2/2}\),
\(\mu_2(M_2) \equiv E(Y^2|\theta_2)=\text{e}^{2(\mu+\sigma^2)}\),
\(\mu_k(M_1)=\mu_k(M_2)\), \(k=1,2\)
\(\Leftrightarrow \ \theta_2 = (\ln \frac{\alpha/\lambda}{(1+\frac{1}{\alpha})^{1/2}}{}, \ln (1+\frac{1}{\alpha})) \equiv (\mu^\star(\theta_1), \sigma_\star^2(\theta_1)) \equiv \theta_2^\star(\theta_1)\)
\(\Leftrightarrow \ \theta_1 = ([\text{e}^{\sigma^2}-1]^{-1}, [\text{e}^{\mu+\sigma^2/2} (\text{e}^{\sigma^2}-1)]^{-1}) \equiv \theta_1^\star(\theta_2)\).
Com as perturbações estocásticas as relações ficam
\(\theta_2 = (\mu^\star(\theta_1) + w_1, \sigma^2_\star (\theta_1) \times w_2) \equiv g_{12}^p(\theta_1,w)\) em que \(w=(w_1,w_2) \sim q_p(\cdot|M_1,\theta_1)\) \[
\begin{array}{lll}
\theta_1 &= &(\alpha^\star(\mu-w_1', \sigma_2/w_2'), \lambda^\star(\mu-w_1', \sigma_2/w_2')) \\
&= & ([\text{e}^{\sigma^2/w_2'}-1]^{-1}, [\text{e}^{\mu-w_1'+\sigma^2/(2\,w_2')} (\text{e}^{\sigma^2/w_2'}-1)]^{-1}) \equiv g_{21}^p(\theta_2,w')
\end{array}
\] com \(w'=(w_1',w_2') \sim q_p(\cdot|M_2,\theta_2)\).
Considerando \(w'=g_{12}^e(\theta_1,w)\), obtém-se uma transformação biunívoca entre \((\theta_1,w)\) e \((\theta_2,w')\) expressa por \((\theta_2,w')=g_{12}(\theta_1,w)\) com a correspondente função diferenciável tomada como \(g_{12}(\cdot)=(g_{12}^p(\cdot), g_{12}^e(\cdot))\).
O jacobiano da transformação \((\theta_2,w')=g_{12}(\theta_1,w)\) é pela fórmula de Laplace \(|\frac{\partial g_{12}(\theta_1,w)}{\partial (\theta_1,w)}| = w_2 [\lambda \alpha (\alpha+1)]^{-1}\).
Sendo \(\alpha=(\theta,\lambda,k,b_1,b_2)\) o vetor de parâmetros do modelo bayesiano e usando a notação \(\theta^-\), por exemplo, para indicar os parâmetros de \(\alpha\) à exceção de \(\theta\),as distribuições condicionais completas são,
\(\theta|y,\theta^- \sim Ga(A_1,B_1)\), \(A_1=\sum_{i=1}^k y_i + a_1\), \(B_1=\sum_{i=1}^k t_i + b_1\),
\(\lambda|y,\lambda^- \sim Ga(A_2,B_2)\), \(A_2=\sum_{i=k+1}^n y_i + a_2\), \(B_2=\sum_{i=k+1}^n t_i + b_2\),
\(h(k|y,k^-) = \frac{\bar{p}_k}{\sum_{j=1}^n \bar{p}_j}\), \(\bar{p}_j = (\frac{\theta}{\lambda})^{\sum_{i=1}^j y_i} \text{e}^{-(\theta-\lambda) \sum_{i=1}^j t_i}\), \(j=1,\ldots,n\),
\(b_1|y,b_1^- \sim Ga(a_1+c_1,d_1+\theta)\),
\(b_2|y,b_2^- \sim Ga(a_2+c_2,d_2+\lambda)\).
Tomar em consideração que para o modelo Weibull geral com \(\beta_4>0\), \(\lim_{x\to \infty} \mu(x) = \beta_1\), \(\lim_{x\to 0} \mu(x) = \beta_1-\beta_2\) e que \(\ln[-\ln \frac{\beta_1-\mu(x)}{\beta_2}] = \ln \beta_3 + \beta_4\ln x\) e aplicar o mesmo tipo de argumento mutatis mutandis aos modelos em comparação.
A verificação das diferenças entre as duas distribuições a priori para cada modelo deve passar pela análise de medidas de desempenho preditivo e de diagnóstico, por um lado, e de estimativas paramétricas por outro.