SEMINÁRIO GERACIONAL: 1) O Meu Affaire Duradouro com a Beta 2) Funções Monótonas de Ordem R e Probabilidade 3) Testes Laboratoriais a Amostras Miscigenadas

 

  • Prof. Doutor Dinis Pestana – FCUL (DEIO) & CEAUL / Prof. Doutora Sandra Mendonça – Universidade Madeira & Ceaul / Prof. Doutor João Paulo Martins – ESTG, Instituto Politécnico Leiria & CEAUL
  • FUNDAÇÃO FCUL Bloco C1 Piso 3 – Anfiteatro – Campo Grande – 14:00 h – 16:30 h
  • Quarta-feira, 15 de Janeiro de 2014
  • Referência Projeto: PEst-OE/MAT/UI0006/2014
 
 Seminário 1

Resumo: O meu caso com a beta começou há quatro décadas: a subfamília B(1,v) das betas  (1>0) serve para definir derivadas e integrais de ordem não inteira. Tal está na base da identificação dos pontos extremos de classes de funções monótonas, permitindo usar a teoria das representações integrais de Choquet para obter generalizações do teorema de Khinchine sobre distribuições unimodais e das funções características de Polya.

Mas a riqueza das formas da B(p,q) de Euler voltou a fascinar-me inúmeras vezes. Quando p=q=1 temos a densidade uniforme, e devido ao teorema da transformação uniformizante é ubíqua em Probabilidade e Estatística. Máximos de duas unifromes independentes têm distribuição Beta(2,1) — e mínimos têm distribuição Beta(1,2) — e as misturas convexas de uma destas betas com a uniforme são o modelo adequado para entendermos  análises estatísticas (nomeadamente a de Mendel) suspeitas. Essas misturas permitiram-me também perceber estruturalmente porque é que na combinação de valores de prova em meta-análise, o aumento computacional de amostras pode ser inconveniente.

A Beta(1/2,1/2) também cruzou a minha vida, porque o uso de momentos canónicos e de polinómios ortogonais podem ser usados para optimizar o planeamento da recolha de dados num problema de mutidecisão quando está em jogo regressão polinomial, admitindo que é de grau ≤n, mas sem saber exatamente o grau.

Nos últimos anos a Beta fascinou-me de novo, desta vez seduzindo-me com a parábola logística Beta(2,2) e as suas aplicações na teoria de Verhulst em dinâmica de populações, e o caos a que este modelo leva quando o parâmetro de reprodução mendeliano excede o inverso do inverso do número de ouro de Fibonacci. A investigação de comportamentos caóticos associados a outras betas revelou inesperadas associações à teoria clássica de valores extremos, e isso permitiu rever o modelo de Verhults  como um modelo de extremos numa filtragem geométrica.  O que me levou a criar alguma descendência à Beta, primeiro a Betinha (com 3 parâmetros), e depois a BetaBoop (com quatro parâmetros), cuja ligação com extremos de uniformes e com produtos de uniformes e de potências de uniformes referirei.

Seminário 2

Resumo: A forma integral do teorema de Krein-Milman, que pode ser vista como uma particularização do teorema de Choquet, é um instrumento da análise funcional deveras útil quando se pretende encontrar representações integrais para os elementos de um conjunto convexo e compacto. Recorde-se como exemplos o caso do logaritmo das funções características das medidas infinitamente divisíveis (representação de Lévy-Khintchine) e o caso das medidas com densidades completamente monótonas (representação de Bernstein). Nesta palestra o teorema de Krein-Milman é usado para encontrar uma representação integral das funções monótonas de ordem r∈N₁. Esta abordagem permite uma visão mais profunda da estrutura da monotonicidade generalizada e tem uma interpretação probabilística em termos de produtos de variáveis aleatórias independentes, sendo um dos fatores uma variável aleatória de distribuição beta. Mostramos assim que o teorema de Khintchine sobre funções de distribuição unimodais pode ser visto como uma representação integral de Choquet e, consequentemente generalizamos o conceito de unimodalidade.

 

Seminário 3

Resumo: A miscigenação de amostras é uma forma de reduzir o número de testes laboratoriais necessários para testar N amostras provenientes de N indivíduos comparativamente com a realização de N testes individuais. Utilizar um único teste para um grupo de n indivíduos é facilmente exequível (misturando de forma homogénea iguais porções de amostra de cada indivíduo) e pode reduzir o número de testes necessários.

No caso mais simples (deteção de uma substância) e na sua forma mais simples (correspondente ao trabalho seminal de Dorfman sobre a deteção de sífilis em soldados da II Guerra Mundial) um resultado negativo significa ausência da substância de interesse. Um resultado positivo indica que pelo menos um dos indivíduos se encontra infetado o que obriga a executar n testes individuais para determinar qual(ais) dos indivíduos está(ão) infetados. A ponderação entre o número esperado de testes em cada situação conduz ao problema de determinar a dimensão ótima do grupo n* que minimiza o número esperado de testes.

Nesta apresentação, serão abordadas as mais recentes extensões dos estudos no âmbito de testes conjuntos dando ênfase: à incorporação dos erros dos testes (medidos pela sensibilidade e especificidade) na determinação de n* , diferenciação de procedimentos consoante se tratem de problemas de classificação (identificação inequívoca dos indivíduos com determinada característica) ou problemas de estimação de uma taxa de prevalência e utilização de arrays como alternativa ao agrupamento dos indivíduos de forma disjunta.