Contents/conteúdo

Probability and Statistics Seminar   RSS

Past sessions

Newer session pages: Next 10 9 8 7 6 5 4 3 2 1 Newest 

25/10/2002, 14:00 — 15:00 — Room P3.31, Mathematics Building
, DEIO/CEA - Faculdade de Ciências da Universidade de Lisboa

Abordagem Bayesiana à Selecção de Variáveis e Comparação de Modelos: Uma Aplicação à Medicina

O problema da selecção do melhor conjunto de covariáveis pode ser visto na perspectiva de um problema de selecção de modelos. Recentemente tem havido investigação intensa sobre o problema de selecção de variáveis, particularmente em modelos lineares generalizados. Veja-se referências, por exemplo, em Dellaportas et al. (2000). Embora não haja nenhum método que se possa aconselhar como sendo o melhor, há vários métodos que devido à facilidade de implementação têm recebido mais atenção. Um desses métodos, o método de Carlin and Chib (1995), faz uso de pseudo-priors para obter uma estimativa da probabilidade a posteriori de cada modelo, seleccionando-se o modelo que tenha maior probabilidade a posteriori. Este método pode ser implementado no WinBUGS, mas o seu sucesso depende bastante de uma boa selecção de pseudo-priors que permita grande eficiência no método de amostragem. Dificuldades surgem na sua aplicação quando o número de modelos em consideração é elevado, situação que aparece com frequência em problemas de selecção de variáveis. Outro método bastante utilizado, de fácil implementação, e que tem dado resultados, é baseado numa pesquisa estocástica e conhecido pela sigla SSVS (Stochastic Search Variable Selection). Foi inicialmente proposto por George and McCullog (1993) para modelos de regressão linear e mais tarde por George et al. (1996) e para modelos lineares generalizados. Estes métodos serão aqui brevemente discutidos a par com um método informal de pesquisa manual (SIMD) baseado na minimização de medidas de divergência adequadamente definidas. Será feita uma comparação dos métodos referidos através da sua aplicação a um conjunto de dados na identificação de factores de risco que são responsáveis pela ocorrência precoce de doenças vasculares.

11/07/2002, 14:30 — 15:30 — Room P3.31, Mathematics Building
, Universidade de São Paulo - São Carlos - Brasil

Uso de Métodos MCMC em Análise Bayesiana de Dados de Sobrevivência

A análise de dados de sobrevivência em geral apresenta dados incompletos e presença de covariáveis. O uso de modelos paramétricos para esses dados pode envolver um grande número de parâmetros. Além disso, os modelos paramétricos usuais podem não ser adequados para muitos conjuntos de dados, pois a função de risco pode ter formas diversas como forma de banheira, multimodalidade, riscos crescentes ou decrescentes, entre outras. Por isso, consideramos modelos mais complexos como modelos de misturas de distribuições paramétricas na presença ou não de covariáveis.

O uso de métodos bayesianos para esses modelos pode ser muito simplificado a partir de métodos de simulação de Monte Carlo em Cadeias de Markov (MCMC), como os algoritmos de Gibbs sampling e Metropolis-Hastings. Também podemos usar critérios bayesianos para discriminar diferentes modelos usados para os dados de sobrevivência, usando estimativas de Monte Carlo a partir das amostras geradas pelo algoritmo Gibbs sampling para a função preditiva. Vários exemplos com dados reais serão considerados para ilustrar a metodologia proposta.

17/06/2002, 14:30 — 15:30 — Room P3.10, Mathematics Building
, Dep. Matemática/CEMAT - Instituto Superior Técnico

Taxas de Alarme em Esquemas de Controlo de Qualidade

O desempenho de esquemas de controlo de qualidade é usualmente avaliado à custa de características do run length (RL) - o número de amostras recolhidas até à emissão de um alarme. O average run length (ARL) é de longe a mais popular dessas características e tem sido - extensiva e incorrectamente - utilizado na literatura para descrever o desempenho de um esquema de controlo.

O uso da função taxa de falha de RL foi proposto por Margavio et al. (1995), e quando avaliada em $m=1,2,\dots$, representa a probabilidade de ser emitido alarme pela amostra $m$, sabendo que as $m-1$ amostras anteriores não foram responsáveis pela emissão desse alarme.

Esta função pode ser entendida como uma taxa de alarme, fornece um retrato condicional e mais completo do desempenho de esquemas e será estudada para alguns esquemas de controlo do tipo markoviano.

Daremos destaque à influência das matrizes estocasticamente monótonas no comportamento da taxa de alarme e ilustraremos alguns resultados numéricos e estocásticos que lhe dizem respeito. De notar que tais resultados estocásticos permitem avaliar, por exemplo, o impacto da adopção de head starts no desempenho de esquemas de controlo, de modo qualitativo e mais objectivo.

Referências

  • Margavio, T.M., Conerly, M.D., Woodall, W.H. and Drake, L.G. (1995). Alarm rates for quality control charts. StatisticsProbability Letters 24, 219-224.

 

15/04/2002, 14:30 — 15:30 — Room P3.10, Mathematics Building
, Área Departamental de Matemática, FCT - Universidade do Algarve

Modelação Estocástica para Redes sem Fios da Próxima Geração

As redes sem fios da próxima geração são vistas hoje em dia como um dos factores chaves para o desenvolvimento da infra-estrutura de comunicação global emergente. O seu desenho, planeamento e controlo devem ser suportados por modelos de tráfego adequados, nos quais a mobilidade e os novos aspectos de teletráfego serão considerados de uma forma integrada.

Neste seminário é apresentado um modelo de tráfego para cenários onde existe mobilidade no plano em várias direcções. São caracterizados, em termos transiente e limite, o número de móveis por estado de chamada numa célula e os processos de handoff da célula. São derivadas as probabilidades de bloqueio de chamadas de handoff e de novas chamadas e a distribuição da capacidade requerida num intervalo de tempo para o controlo da rede. São ainda apresentadas simulações para validação dos resultados analíticos.

15/03/2002, 14:30 — 15:30 — Room P3.31, Mathematics Building
, Departamento de Matemática - IST

Multiplicative Survival Models based on Counting Processes

Modern survival analysis may be effectively handled within the mathematical framework of counting processes. This theory introduced by Aalen (1972) has been the subject of intense research ever since. In this setting, emphasis is given to construction of the likelihood function due to its importance for both frequentist and Bayesian analysis. Some multiplicative survival models are here presented from a Bayesian perspective, especially frailty models for univariate survival data. A gamma process with independent increments in disjoint intervals is used to model the prior process of the baseline hazard function, and the frailty distribution is assumed to be a gamma distribution. Markov Chain Monte Carlo methods are used to find estimates of several quantities of interest. At last, this approach is illustrated with one example.

15/02/2002, 14:30 — 15:30 — Room P3.31, Mathematics Building
, Europa-Universität Viadrina , Frankfurt-Oder

Simultaneous and Multivariate Control Charts for Time Series Data

In this talk we present several new control charts for univariate as well as multivariate time series. All control schemes are EWMA (exponentially weighted moving average) charts.

First, simultaneous control schemes for the mean and the autocovariances of a univariate stationary process are introduced. A multivariate quality characteristic is considered. This quantity is transformed to a one-dimensional variable by using the Mahalanobis distance. The test statistic is obtained by smoothing this variable. Another control chart is based on a multivariate EWMA attempt which is directly applied to our quality characteristic. After that the resulting statistic is transformed to a univariate random variable. Besides modified control charts we consider residual charts, too. In an extensive simulation study all control schemes are compared with each other. The target process is assumed to be an ARMA(1,1) process with normal white noise.

EWMA control charts for multivariate time series were discussed by Kramer and Schmid (1997). Their aim was to find deviations in the mean behaviour. Here we focus on charts detecting changes between the cross-covariances of a multivariate stationary process. The starting point is again a multivariate characteristic. To introduce control charts a similar procedure is chosen as described above. In our comparison study the target process is taken as a 4-variate AR(1) process.

References

  • Kramer, H. and Schmid, W. (1997). EWMA charts for multivariate time series. Sequential Analysis 16, 131-154.
  • Rosolowski, M. and Schmid, W. (2001). EWMA charts for monitoring the mean and the autocovariances of stationary Gaussian process. Submitted for publication.
  • Schmid, W. and Sliwa, P. (2001). Monitoring the cross-covariances of a multivariate time series. Technical Report.

08/02/2002, 14:30 — 15:30 — Room P3.10, Mathematics Building
, Universidad Nacional de La Plata

Métodos robustos en Análisis Multivariado

Los métodos mas usuales en Análisis Multivariado (como Componentes Principales y Análisis Discrimimante) requieren un vector de posición y una matriz de dispersión. El vector de medias y la matriz de covarianzas muestrales, que son los estimadores de posición y dispersión usados habitualmente, tienen el inconveniente de que unas pocas observaciones atípicas pueden alterar completamente los resultados. Las observaciones atípicas pueden no ser visibles en ninguna de las coordenadas. Los métodos robustos no son afectados cuando hay algunos datos atípicos, y son semejantes a las medias y covarianzas cuando no los hay. Los principales enfoques para este problema son: estimadores de máxima verosimilitud generalizados, estimadores que minimizan una escala robusta de las distancias de Mahalanobis, y estimadores basados en proyecciones. El cálculo numérico de los estimadores es un aspecto importante, ya que el tiempo de cómputo aumenta rápidamente con la cantidad de variables.

Se compararán las virtudes y defectos de los distintos enfoques y se mostrarán algunas aplicaciones.

16/01/2002, 15:00 — 16:00 — Room P3.10, Mathematics Building
, The Open University United Kingdom

Silence Diagnostics: The Influence Curve Revisited

The influence curve (Hampel, 1974), latterly known as the influence function, lies at the heart of an established approach to robust statistics. Finite sample versions of it also form the foundation of that part of diagnostics known as influence analysis. In their booklength exposition, Hampel at al. (1986), while providing a formal mathematical derivation, emphasise that:

“The importance of the influence function lies in its heuristic interpretation: it describes the effect of an infinitesimal contamination at the point $x$ on the estimate, standardised by the amount of contamination.”

The present talk explores the extent to which this heuristic interpretation can itself be formalised. It is based on developments of the concept of salience and of the perturbation geometry introduced in Critchely et al. (2001).

References

  • Critchley, F., Atkinson, R.A., Lu, G. and Biazi, E. (2001). Influence analysis based on the case sensitivity function. J. Royal Statist. Soc., B. 63(2), 307-323.
  • Hampel, F.R. (1974). The influence curve and its role in robust estimation. J. Am. Satist. Soc., 69, 383-393.
  • Hampel, F.R., Ronchetti, E.M. Rousseeuw, P.J. and Stahel, W.A. (1986). Robust Statistics: The Approach Based on Influence Functions. Wiley.