Contents/conteúdo

Probability and Statistics Seminar   RSS

Past sessions

Newer session pages: Next 10 9 8 7 6 5 4 3 2 1 Newest 

13/12/2002, 14:00 — 15:00 — Room P3.31, Mathematics Building
, Instituto Superior Técnico

Robustez em Análise de Correlações Canónicas

A análise de correlações canónicas é um método da análise multivariada que estuda as associações entre dois grupos de variáveis. Tem a particularidade de incluir alguns dos métodos mais importantes da análise multivariada como casos particulares e apresenta ainda a capacidade de reduzir, num pequeno número de dimensões, as associações relevantes entre os dois grupos de variáveis. Como acontece com a generalidade dos métodos multivariados, a análise de correlações canónicas tem comportamento óptimo, sempre que as habituais hipóteses distribucionais são verificadas, mas é muito sensível a observações discordantes dessas hipóteses. Estas observações, frequentes em situações reais, são de difícil detecção. Os métodos robustos propõem-se solucionar estas dificuldades. Neste trabalho propõem-se métodos robustos baseados em técnicas de projection pursuit e mínimos quadrados parciais. É realizado um estudo de simulação que compara os vários métodos de estimação, discutindo-se igualmente o comportamento do ponto de ruptura empírico.

29/11/2002, 14:00 — 15:00 — Room P3.31, Mathematics Building
, DEIO/FM, Universidad de Santiago de Compostela

Nonparametric estimation of the odds-ratios assuming Generalized Additive Models: The multivariate case including interactions

Calculating odds-ratios (OR) and corresponding confidence intervals (CI) for exposures that have been measured using a continuous scale presents important limitations in the traditional practice of analytic epidemiology. Approximations based on linear models require making arbitrary assumptions about the shape of the relation curve, or about its breakpoints. Categorical analyses generally have low statistical efficiency and cut-off points for the categories are in most cases arbitrary and/or opportunistic. Recent publications in epidemiology have shown an interest in the application of a more general flexible regression technique such as the Generalized Additive Models (GAM) (Hastie and Tibshirani, 1990). This modern regression has the advantage of not assuming a parametric relation between exposure and effect, and eliminates the need for the investigator to impose functional assumptions in this respect. The only assumption required is that the effect of the continuous covariate follows an arbitrary continuous smooth function. In this talk we propose the use of GAM to derive the corresponding nonparametric estimates (and CIs) by means of the Local Scoring Algorithm. This procedure permits great flexibility and adequate statistical efficiency. Definition of the nonparametric OR curve is also extended to the case of having second-order interactions between two continuous covariates .In this context, inferential issues are solved by means of bootstrap resampling techniques. Finally, we illustrate these new methods through several real data sets.

22/11/2002, 14:00 — 15:00 — Room P3.31, Mathematics Building
Kamil Feridun Turkman and Manuel Scotto, Universidade de Lisboa and Universidade de Aveiro

Extremes of Volterra Series Expansions with Heavy-Tailed Innovations

Linear time series models have widely been used in many areas of science. However, it is becoming increasingly clear that linear models do not represent adequately features often exhibited by data sets from environmental and economical processes. One property which is important and needs exploration is the study of sudden bursts of large positive and negative values the sample paths of non-linear processes generally produce.

There is no unifying theory that is applicable to all non-linear systems and consequently the study of such systems has to be restricted to special classes of non-linear models. Volterra series expansions or polynomial systems are one such class. It is well known that Volterra series expansions are known to be the most general non-linear representation for any stationary sequence.

Volterra series expansions have found significant applications in signal processing such as image, video, and speech processing where the non-linearities are mild enough to allow approximations by low order polynomial approximations. In view of these facts, the study of the extremal properties of finite order Volterra series expansions would be highly valuable in better understanding the extremal properties of non-linear processes as well as understanding the order of identification and adequacy of Volterra series, when used as models in signal processing. In fact, such extremal properties may suggest a way of finding finite order Volterra expansions which is consistent with the non-linearities of the observed process.

In this work, we look at the extremal behavior of Volterra series expansions generated by heavy-tailed innovations, via a point process formulation. We also look at some examples of bilinear processes and compare the known results on extremes of such processes with the corresponding adequate Volterra series approximations. A way of determining the proper order of a finite Volterra expansion and hence a finite order polynomial model for the observed non-linear data is also suggested.

30/10/2002, 10:00 — 11:00 — Room P3.10, Mathematics Building
, Vienna University of Technology

Robust Estimation of the Parameters in the FANOVA Model

We present a robust approach for fitting models with both additive and multiplicative effects of two-way tables. The method is an extension of the median polish technique and uses a robust alternating regression algorithm. The approach is highly robust, and also works well when there are more variables than observations. The model can be simplified to a purely additive or multiplicative model, the latter allows to construct a robust biplot being not predetermined by outliers. The performance of the method will be illustrated by real and artificial examples.

25/10/2002, 14:00 — 15:00 — Room P3.31, Mathematics Building
, DEIO/CEA - Faculdade de Ciências da Universidade de Lisboa

Abordagem Bayesiana à Selecção de Variáveis e Comparação de Modelos: Uma Aplicação à Medicina

O problema da selecção do melhor conjunto de covariáveis pode ser visto na perspectiva de um problema de selecção de modelos. Recentemente tem havido investigação intensa sobre o problema de selecção de variáveis, particularmente em modelos lineares generalizados. Veja-se referências, por exemplo, em Dellaportas et al. (2000). Embora não haja nenhum método que se possa aconselhar como sendo o melhor, há vários métodos que devido à facilidade de implementação têm recebido mais atenção. Um desses métodos, o método de Carlin and Chib (1995), faz uso de pseudo-priors para obter uma estimativa da probabilidade a posteriori de cada modelo, seleccionando-se o modelo que tenha maior probabilidade a posteriori. Este método pode ser implementado no WinBUGS, mas o seu sucesso depende bastante de uma boa selecção de pseudo-priors que permita grande eficiência no método de amostragem. Dificuldades surgem na sua aplicação quando o número de modelos em consideração é elevado, situação que aparece com frequência em problemas de selecção de variáveis. Outro método bastante utilizado, de fácil implementação, e que tem dado resultados, é baseado numa pesquisa estocástica e conhecido pela sigla SSVS (Stochastic Search Variable Selection). Foi inicialmente proposto por George and McCullog (1993) para modelos de regressão linear e mais tarde por George et al. (1996) e para modelos lineares generalizados. Estes métodos serão aqui brevemente discutidos a par com um método informal de pesquisa manual (SIMD) baseado na minimização de medidas de divergência adequadamente definidas. Será feita uma comparação dos métodos referidos através da sua aplicação a um conjunto de dados na identificação de factores de risco que são responsáveis pela ocorrência precoce de doenças vasculares.

11/07/2002, 14:30 — 15:30 — Room P3.31, Mathematics Building
, Universidade de São Paulo - São Carlos - Brasil

Uso de Métodos MCMC em Análise Bayesiana de Dados de Sobrevivência

A análise de dados de sobrevivência em geral apresenta dados incompletos e presença de covariáveis. O uso de modelos paramétricos para esses dados pode envolver um grande número de parâmetros. Além disso, os modelos paramétricos usuais podem não ser adequados para muitos conjuntos de dados, pois a função de risco pode ter formas diversas como forma de banheira, multimodalidade, riscos crescentes ou decrescentes, entre outras. Por isso, consideramos modelos mais complexos como modelos de misturas de distribuições paramétricas na presença ou não de covariáveis.

O uso de métodos bayesianos para esses modelos pode ser muito simplificado a partir de métodos de simulação de Monte Carlo em Cadeias de Markov (MCMC), como os algoritmos de Gibbs sampling e Metropolis-Hastings. Também podemos usar critérios bayesianos para discriminar diferentes modelos usados para os dados de sobrevivência, usando estimativas de Monte Carlo a partir das amostras geradas pelo algoritmo Gibbs sampling para a função preditiva. Vários exemplos com dados reais serão considerados para ilustrar a metodologia proposta.

17/06/2002, 14:30 — 15:30 — Room P3.10, Mathematics Building
, Dep. Matemática/CEMAT - Instituto Superior Técnico

Taxas de Alarme em Esquemas de Controlo de Qualidade

O desempenho de esquemas de controlo de qualidade é usualmente avaliado à custa de características do run length (RL) - o número de amostras recolhidas até à emissão de um alarme. O average run length (ARL) é de longe a mais popular dessas características e tem sido - extensiva e incorrectamente - utilizado na literatura para descrever o desempenho de um esquema de controlo.

O uso da função taxa de falha de RL foi proposto por Margavio et al. (1995), e quando avaliada em $m=1,2,\dots$, representa a probabilidade de ser emitido alarme pela amostra $m$, sabendo que as $m-1$ amostras anteriores não foram responsáveis pela emissão desse alarme.

Esta função pode ser entendida como uma taxa de alarme, fornece um retrato condicional e mais completo do desempenho de esquemas e será estudada para alguns esquemas de controlo do tipo markoviano.

Daremos destaque à influência das matrizes estocasticamente monótonas no comportamento da taxa de alarme e ilustraremos alguns resultados numéricos e estocásticos que lhe dizem respeito. De notar que tais resultados estocásticos permitem avaliar, por exemplo, o impacto da adopção de head starts no desempenho de esquemas de controlo, de modo qualitativo e mais objectivo.

Referências

  • Margavio, T.M., Conerly, M.D., Woodall, W.H. and Drake, L.G. (1995). Alarm rates for quality control charts. StatisticsProbability Letters 24, 219-224.

 

15/04/2002, 14:30 — 15:30 — Room P3.10, Mathematics Building
, Área Departamental de Matemática, FCT - Universidade do Algarve

Modelação Estocástica para Redes sem Fios da Próxima Geração

As redes sem fios da próxima geração são vistas hoje em dia como um dos factores chaves para o desenvolvimento da infra-estrutura de comunicação global emergente. O seu desenho, planeamento e controlo devem ser suportados por modelos de tráfego adequados, nos quais a mobilidade e os novos aspectos de teletráfego serão considerados de uma forma integrada.

Neste seminário é apresentado um modelo de tráfego para cenários onde existe mobilidade no plano em várias direcções. São caracterizados, em termos transiente e limite, o número de móveis por estado de chamada numa célula e os processos de handoff da célula. São derivadas as probabilidades de bloqueio de chamadas de handoff e de novas chamadas e a distribuição da capacidade requerida num intervalo de tempo para o controlo da rede. São ainda apresentadas simulações para validação dos resultados analíticos.

15/03/2002, 14:30 — 15:30 — Room P3.31, Mathematics Building
, Departamento de Matemática - IST

Multiplicative Survival Models based on Counting Processes

Modern survival analysis may be effectively handled within the mathematical framework of counting processes. This theory introduced by Aalen (1972) has been the subject of intense research ever since. In this setting, emphasis is given to construction of the likelihood function due to its importance for both frequentist and Bayesian analysis. Some multiplicative survival models are here presented from a Bayesian perspective, especially frailty models for univariate survival data. A gamma process with independent increments in disjoint intervals is used to model the prior process of the baseline hazard function, and the frailty distribution is assumed to be a gamma distribution. Markov Chain Monte Carlo methods are used to find estimates of several quantities of interest. At last, this approach is illustrated with one example.

15/02/2002, 14:30 — 15:30 — Room P3.31, Mathematics Building
, Europa-Universität Viadrina , Frankfurt-Oder

Simultaneous and Multivariate Control Charts for Time Series Data

In this talk we present several new control charts for univariate as well as multivariate time series. All control schemes are EWMA (exponentially weighted moving average) charts.

First, simultaneous control schemes for the mean and the autocovariances of a univariate stationary process are introduced. A multivariate quality characteristic is considered. This quantity is transformed to a one-dimensional variable by using the Mahalanobis distance. The test statistic is obtained by smoothing this variable. Another control chart is based on a multivariate EWMA attempt which is directly applied to our quality characteristic. After that the resulting statistic is transformed to a univariate random variable. Besides modified control charts we consider residual charts, too. In an extensive simulation study all control schemes are compared with each other. The target process is assumed to be an ARMA(1,1) process with normal white noise.

EWMA control charts for multivariate time series were discussed by Kramer and Schmid (1997). Their aim was to find deviations in the mean behaviour. Here we focus on charts detecting changes between the cross-covariances of a multivariate stationary process. The starting point is again a multivariate characteristic. To introduce control charts a similar procedure is chosen as described above. In our comparison study the target process is taken as a 4-variate AR(1) process.

References

  • Kramer, H. and Schmid, W. (1997). EWMA charts for multivariate time series. Sequential Analysis 16, 131-154.
  • Rosolowski, M. and Schmid, W. (2001). EWMA charts for monitoring the mean and the autocovariances of stationary Gaussian process. Submitted for publication.
  • Schmid, W. and Sliwa, P. (2001). Monitoring the cross-covariances of a multivariate time series. Technical Report.

08/02/2002, 14:30 — 15:30 — Room P3.10, Mathematics Building
, Universidad Nacional de La Plata

Métodos robustos en Análisis Multivariado

Los métodos mas usuales en Análisis Multivariado (como Componentes Principales y Análisis Discrimimante) requieren un vector de posición y una matriz de dispersión. El vector de medias y la matriz de covarianzas muestrales, que son los estimadores de posición y dispersión usados habitualmente, tienen el inconveniente de que unas pocas observaciones atípicas pueden alterar completamente los resultados. Las observaciones atípicas pueden no ser visibles en ninguna de las coordenadas. Los métodos robustos no son afectados cuando hay algunos datos atípicos, y son semejantes a las medias y covarianzas cuando no los hay. Los principales enfoques para este problema son: estimadores de máxima verosimilitud generalizados, estimadores que minimizan una escala robusta de las distancias de Mahalanobis, y estimadores basados en proyecciones. El cálculo numérico de los estimadores es un aspecto importante, ya que el tiempo de cómputo aumenta rápidamente con la cantidad de variables.

Se compararán las virtudes y defectos de los distintos enfoques y se mostrarán algunas aplicaciones.

16/01/2002, 15:00 — 16:00 — Room P3.10, Mathematics Building
, The Open University United Kingdom

Silence Diagnostics: The Influence Curve Revisited

The influence curve (Hampel, 1974), latterly known as the influence function, lies at the heart of an established approach to robust statistics. Finite sample versions of it also form the foundation of that part of diagnostics known as influence analysis. In their booklength exposition, Hampel at al. (1986), while providing a formal mathematical derivation, emphasise that:

“The importance of the influence function lies in its heuristic interpretation: it describes the effect of an infinitesimal contamination at the point $x$ on the estimate, standardised by the amount of contamination.”

The present talk explores the extent to which this heuristic interpretation can itself be formalised. It is based on developments of the concept of salience and of the perturbation geometry introduced in Critchely et al. (2001).

References

  • Critchley, F., Atkinson, R.A., Lu, G. and Biazi, E. (2001). Influence analysis based on the case sensitivity function. J. Royal Statist. Soc., B. 63(2), 307-323.
  • Hampel, F.R. (1974). The influence curve and its role in robust estimation. J. Am. Satist. Soc., 69, 383-393.
  • Hampel, F.R., Ronchetti, E.M. Rousseeuw, P.J. and Stahel, W.A. (1986). Robust Statistics: The Approach Based on Influence Functions. Wiley.