Em formação

Usando a mediana para dados não paramétricos (Likert), quando fornece uma casa decimal

Usando a mediana para dados não paramétricos (Likert), quando fornece uma casa decimal

Meu colega e eu estamos trabalhando com dados Likert não paramétricos.

Estivemos tomando a mediana, mas acabamos de perceber que ainda estamos obtendo valores de, digamos, 2,5 ou 1,5. Nossa justificativa para usar a mediana sobre a média foi que os valores que estão entre nossos pontos de dados Likert não têm um significado forte.

Não temos certeza se devemos executar nossa análise novamente, sempre considerando o valor mínimo ou ...?

Obrigada.


Você está usando a justificativa errada para usar a mediana. A única razão pela qual você pode até considerar o uso de uma mediana ou média com dados Likert é porque há é significado para valores entre itens Likert. Se você tiver "Concordo" e "Concordo totalmente", há definitivamente a possibilidade de algum valor em que alguém concorda mais fortemente do que concorda, mas menos fortemente do que concorda totalmente.

No entanto, você perde uma tonelada de informações ao calcular a mediana de um item do tipo Likert, e pode ser perigoso fazer isso quando as formas das distribuições de resposta variam. Vamos considerar um caso em que você tem 5 níveis. Esses dois vetores de contagem fornecem a mesma mediana '3':

A = [5 5 50 20 20]

B = [20 20 50 5 5]

mas as distribuições são bastante diferentes e a mediana não é muito informativa sobre essa diferença.

Você pode considerar o uso da "mediana interpolada", que trata um item Likert como indicando o intervalo entre itens adjacentes, por exemplo, um "3" realmente significa "em algum lugar no intervalo [2,5 3,5]."

Para os casos A e B acima, as medianas interpoladas são:

mintA = 3.3

mintB = 2.7


A resposta de Bryan é ótima, eu só gostaria de acrescentar alguns fundamentos sobre a mediana. Uma rápida olhada na página wiki diria imediatamente que as medianas dos inteiros não precisam ser necessariamente inteiros quando há um número par de observações. Considere o conjunto de dados [0 1] - a mediana e a média são iguais, ou seja, 0,5. Um número ímpar de inteiros sempre resultará em uma mediana inteira.

Se você não se sentir à vontade para mencionar decimais de uma escala de Likert, considere arredondar os resultados para o número inteiro mais próximo.


Conteúdo

Considere os dados (1, 1, 2, 2, 4, 6, 9). Tem um valor mediano de 2. Os desvios absolutos sobre 2 são (1, 1, 0, 0, 2, 4, 7) que por sua vez têm um valor mediano de 1 (porque os desvios absolutos classificados são (0, 0, 1, 1, 2, 4, 7)). Portanto, o desvio absoluto mediano para esses dados é 1.

O desvio absoluto mediano é uma medida de dispersão estatística. Além disso, o MAD é uma estatística robusta, sendo mais resiliente a outliers em um conjunto de dados do que o desvio padrão. No desvio padrão, as distâncias da média são quadradas, então grandes desvios são ponderados com mais peso e, portanto, outliers podem influenciá-lo fortemente. No MAD, os desvios de um pequeno número de outliers são irrelevantes.

Como o MAD é um estimador de escala mais robusto do que a variância ou desvio padrão da amostra, ele funciona melhor com distribuições sem uma média ou variância, como a distribuição de Cauchy.

O MAD pode ser usado de forma semelhante a como se usaria o desvio para a média. A fim de usar o MAD como um estimador consistente para a estimativa do desvio padrão σ < displaystyle sigma>, toma-se

Portanto, devemos ter isso

Outra forma de estabelecer a relação é observar que MAD é igual à mediana da distribuição semianormal:

Este formulário é usado, por exemplo, no erro provável.

Da mesma forma que a mediana generaliza para a mediana geométrica em dados multivariados, um MAD geométrico pode ser construído que generaliza o MAD. Dado um conjunto bidimensional emparelhado de dados (X1,Y1), (X2,Y2). (Xn,Yn) e uma mediana geométrica adequadamente calculada (X

Isso dá o resultado idêntico ao MAD univariado em 1 dimensão e se estende facilmente para dimensões superiores. No caso de valores complexos (X+ iY), a relação de MAD com o desvio padrão permanece inalterada para dados normalmente distribuídos.

A população MAD é definida analogamente à amostra MAD, mas é baseada na distribuição completa e não em uma amostra. Para uma distribuição simétrica com média zero, a população MAD é o 75º percentil da distribuição.

Ao contrário da variância, que pode ser infinita ou indefinida, a população MAD é sempre um número finito. Por exemplo, a distribuição de Cauchy padrão tem variância indefinida, mas seu MAD é 1.

A primeira menção conhecida do conceito de MAD ocorreu em 1816, em um artigo de Carl Friedrich Gauss sobre a determinação da precisão de observações numéricas. [4] [5]


A média geralmente é a melhor medida de tendência central a ser usada quando a distribuição de dados é contínua e simétrica, como quando os dados são normalmente distribuídos. No entanto, tudo depende do que você está tentando mostrar com seus dados.

O modo é o menos usado das medidas de tendência central e só pode ser usado quando se trata de dados nominais. Por esta razão, o modo será a melhor medida de tendência central (pois é o único apropriado para uso) ao lidar com dados nominais. A média e / ou mediana são geralmente preferidas ao lidar com todos os outros tipos de dados, mas isso não significa que nunca seja usado com esses tipos de dados.


Testes paramétricos e não paramétricos para comparar dois ou mais grupos

Estatística: testes paramétricos e não paramétricos

Escolhendo um Teste

Em termos de seleção de um teste estatístico, a questão mais importante é "qual é a principal hipótese do estudo?" Em alguns casos, não há hipótese de que o investigador apenas deseja "ver o que está lá". Por exemplo, em um estudo de prevalência, não há hipótese a ser testada e o tamanho do estudo é determinado pela precisão com que o investigador deseja determinar a prevalência. Se não houver hipótese, não há teste estatístico. É importante decidir a priori quais hipóteses são confirmatórias (isto é, estão testando alguma relação pressuposta) e quais são exploratórias (são sugeridas pelos dados). Nenhum estudo pode apoiar toda uma série de hipóteses. Um plano sensato é limitar severamente o número de hipóteses confirmatórias. Embora seja válido o uso de testes estatísticos nas hipóteses sugeridas pelos dados, os valores de P devem ser usados ​​apenas como diretrizes, e os resultados tratados como provisórios até que sejam confirmados por estudos subsequentes. Um guia útil é usar uma correção de Bonferroni, que afirma simplesmente que, se estivermos testando n hipóteses independentes, deve-se usar um nível de significância de 0,05 /n. Assim, se houvesse duas hipóteses independentes, um resultado seria declarado significativo apenas se P & lt0,025. Observe que, uma vez que os testes raramente são independentes, este é um procedimento muito conservador - ou seja, um que provavelmente não rejeitará a hipótese nula. O investigador deve então perguntar "os dados são independentes?" Isso pode ser difícil de decidir, mas, como regra geral, os resultados no mesmo indivíduo, ou de indivíduos compatíveis, não são independentes. Assim, os resultados de um ensaio cruzado, ou de um estudo de caso-controle no qual os controles foram pareados com os casos por idade, sexo e classe social, não são independentes.

  • A análise deve refletir o design e, portanto, um design compatível deve ser seguido por uma análise compatível.
  • Os resultados medidos ao longo do tempo requerem cuidados especiais. Um dos erros mais comuns na análise estatística é tratar as variáveis ​​correlacionadas como se fossem
    independente. Por exemplo, suponha que estivéssemos examinando o tratamento de úlceras de perna, em que algumas pessoas apresentavam uma úlcera em cada perna. Podemos ter 20 assuntos com
    30 úlceras, mas o número de peças independentes de informação é 20 porque o estado das úlceras em cada perna de uma pessoa pode ser influenciado pelo estado de
    saúde da pessoa e uma análise que considerasse úlceras como observações independentes seria incorreta. Para uma análise correta de pares mistos e não pareados
    dados, consulte um estatístico.

A próxima pergunta é "que tipos de dados estão sendo medidos?" O teste usado deve ser determinado pelos dados. A escolha do teste para dados combinados ou emparelhados está descrita na Tabela 1 e para dados independentes na Tabela 2.

Tabela 1 Escolha de teste estatístico de observação pareada ou pareada

É útil decidir as variáveis ​​de entrada e as variáveis ​​de resultado. Por exemplo, em um ensaio clínico, a variável de entrada é o tipo de tratamento - uma variável nominal - e o resultado pode ser alguma medida clínica, talvez normalmente distribuída. O teste necessário é então o t-teste (Tabela 2). No entanto, se a variável de entrada for contínua, digamos um escore clínico, e o resultado for nominal, digamos curado ou não curado, a regressão logística é a análise necessária. UMA t-teste neste caso pode ajudar, mas não nos daria o que exigimos, ou seja, a probabilidade de cura para um determinado valor do escore clínico. Como outro exemplo, suponha que temos um estudo transversal em que perguntamos a uma amostra aleatória de pessoas se elas acham que seu clínico geral está fazendo um bom trabalho, em uma escala de cinco pontos, e queremos verificar se as mulheres têm uma opinião mais elevada de clínicos gerais do que os homens. A variável de entrada é gênero, que é nominal. A variável de resultado é a escala ordinal de cinco pontos. A opinião de cada pessoa é independente das outras, portanto, temos dados independentes. A partir da Tabela 2, devemos usar um teste χ 2 para tendência, ou um teste U de Mann-Whitney com uma correção para empates (NB ocorre empate onde dois ou mais valores são iguais, então não há ordem estritamente crescente de classificações - onde isso acontece, pode-se calcular a média das classificações para valores empatados). Observe, entretanto, se algumas pessoas compartilham um clínico geral e outras não, então os dados não são independentes e uma análise mais sofisticada é necessária. Observe que essas tabelas devem ser consideradas apenas como guias, e cada caso deve ser considerado em seus méritos.

Tabela 2 Escolha do teste estatístico para observações independentes

a Se os dados forem censurados. b O teste de Kruskal-Wallis é usado para comparar variáveis ​​ordinais ou não normais para mais de dois grupos e é uma generalização do teste U de Mann-Whitney. c A análise de variância é uma técnica geral e uma versão (análise de variância unilateral) é usada para comparar variáveis ​​normalmente distribuídas para mais de dois grupos e é o equivalente paramétrico do Kruskal-Wallistest. d Se a variável de resultado for a variável dependente, então desde que os resíduos (as diferenças entre os valores observados e as respostas preditas da regressão) sejam plausivelmente distribuídas normalmente, então a distribuição da variável independente não é importante. e Existem várias técnicas mais avançadas, como a regressão de Poisson, para lidar com essas situações. No entanto, eles exigem certas suposições e geralmente é mais fácil dicotomizar a variável de resultado ou tratá-la como contínua.

Os testes paramétricos são aqueles que fazem suposições sobre os parâmetros da distribuição da população da qual a amostra é retirada. Freqüentemente, pressupõe-se que os dados populacionais são normalmente distribuídos. Os testes não paramétricos são “livres de distribuição” e, como tal, podem ser usados ​​para variáveis ​​não normais. A Tabela 3 mostra o equivalente não paramétrico de uma série de testes paramétricos.

Tabela 3 Testes paramétricos e não paramétricos para comparar dois ou mais grupos

Os testes não paramétricos são válidos tanto para dados não normalmente distribuídos quanto para dados normalmente distribuídos, então por que não usá-los o tempo todo?

Parece prudente usar testes não paramétricos em todos os casos, o que pouparia o incômodo de testar a normalidade. Os testes paramétricos são preferidos, no entanto, pelos seguintes motivos:

1. Raramente estamos interessados ​​em um teste de significância sozinho, gostaríamos de dizer algo sobre a população de onde as amostras vieram, e isso é melhor feito com
estimativas de parâmetros e intervalos de confiança.

2. É difícil fazer modelagem flexível com testes não paramétricos, por exemplo, permitindo fatores de confusão usando regressão múltipla.

3. Os testes paramétricos geralmente têm mais poder estatístico do que seus equivalentes não paramétricos. Em outras palavras, é mais provável detectar diferenças significativas quando
eles realmente existem.

Os testes não paramétricos comparam medianas?

É uma crença comum que um teste U de Mann-Whitney é na verdade um teste para diferenças em medianas. No entanto, dois grupos podem ter a mesma mediana e ainda assim ter um teste U de Mann-Whitney significativo. Considere os seguintes dados para dois grupos, cada um com 100 observações. Grupo 1: 98 (0), 1, 2 Grupo 2: 51 (0), 1, 48 (2). A mediana em ambos os casos é 0, mas a partir do teste de Mann-Whitney P & lt0.0001. Somente se estivermos preparados para fazer a suposição adicional de que a diferença nos dois grupos é simplesmente uma mudança na localização (ou seja, a distribuição dos dados em um grupo é simplesmente deslocada por um valor fixo do outro), podemos dizer que o teste é um teste da diferença de medianas. No entanto, se os grupos tiverem a mesma distribuição, então uma mudança na localização moverá as medianas e as médias na mesma quantidade e, portanto, a diferença nas medianas é a mesma que a diferença nas médias. Assim, o teste U de Mann-Whitney também é um teste para a diferença de médias. Como o teste U de Mann-Whitney está relacionado ao t-teste? Se alguém fosse inserir as classificações dos dados em vez dos próprios dados em uma amostra de dois t-teste programa, o valor P obtido seria muito próximo ao produzido por um teste U de Mann-Whitney.


Medidas de localização e dispersão e seus usos apropriados

Estatísticas: Medidas de localização e dispersão

  • Quer dizer
  • Mediana
  • Modo
  • Faixa
  • Intervalo Interquartil
  • Desvio padrão

Medidas de localização

As medidas de localização descrevem a tendência central dos dados. Eles incluem a média, mediana e modo.

Média ou média

A média (aritmética), ou média, de n observações (pronuncia-se "x bar") é simplesmente a soma das observações dividida pelo número de observações, assim:

Nesta equação, xi representa os valores amostrais individuais e Σxi sua soma. A letra grega 'Σ' (sigma) é a maiúscula grega 'S' e significa 'soma'. Seu cálculo é descrito no exemplo 1, abaixo.

A mediana é definida como o ponto médio dos dados ordenados. Ele é estimado primeiro ordenando os dados do menor para o maior e, em seguida, contando de forma ascendente para metade das observações. A estimativa da mediana é a observação no centro da ordem, no caso de um número ímpar de observações, ou a média simples das duas observações do meio, se o número total de observações for par. Mais especificamente, se houver um número ímpar de observações, é a [(n + 1) / 2] a observação, e se houver um número par de observações, é a média entre [n / 2] e as [(n / 2) +1] ésimas observações.

Exemplo 1 Cálculo da média e mediana

Considere os seguintes 5 pesos de nascimento, em quilogramas, registrados com 1 casa decimal:

A média é definida como a soma das observações dividida pelo número de observações. Assim, média = (1,2 + 1,3 +… + 2,1) / 5 = 1,50kg. É comum citar 1 casa decimal a mais para a média do que os dados registrados.

Existem 5 observações, que é um número ímpar, então o valor mediano é (5 + 1) / 2 = 3ª observação, que é 1,4 kg. Lembre-se de que se o número de observações for par, então a mediana é definida como a média do [n / 2] ésimo e do [(n / 2) +1] ésimo. Assim, se tivéssemos observado um valor adicional de 3,5kg na amostra de pesos ao nascer, a mediana seria a média da 3ª e da 4ª observação do ranking, ou seja, a média de 1,4 e 1,5, que é 1,45kg.

Vantagens e desvantagens da média e mediana

A principal vantagem da média é que ela usa todos os valores dos dados e é, em um sentido estatístico, eficiente.

A principal desvantagem da média é que ela é vulnerável a outliers. Outliers são observações únicas que, se excluídas dos cálculos, têm influência perceptível nos resultados. Por exemplo, se tivéssemos inserido '21' em vez de '2,1' no cálculo da média no Exemplo 1, encontraríamos a média alterada de 1,50 kg para 7,98 kg. Não se segue necessariamente, entretanto, que outliers devam ser excluídos do resumo de dados final, ou que sempre resultem de uma medição errônea.

A mediana tem a vantagem de não ser afetada por valores discrepantes, então, por exemplo, a mediana no exemplo não seria afetada substituindo '2,1' por '21'. No entanto, não é estatisticamente eficiente, pois não faz uso de todos os valores de dados individuais.

Uma terceira medida de localização é o modo. Este é o valor que ocorre com mais frequência ou, se os dados estiverem agrupados, o agrupamento com a frequência mais alta. É pouco utilizado em análises estatísticas, pois seu valor depende da precisão com que os dados são medidos, embora possa ser útil para dados categóricos descrever a categoria mais frequente. A expressão distribuição 'bimodal' é usada para descrever uma distribuição com dois picos. Isso pode ser causado pela mistura de populações. Por exemplo, a altura pode parecer bimodal se houver homens e mulheres na população. Algumas doenças podem aumentar uma medida bioquímica, portanto, em uma população contendo pessoas saudáveis ​​e doentes, pode-se esperar uma distribuição bimodal. No entanto, algumas doenças são definidas pela medida (por exemplo, obesidade ou pressão alta) e, neste caso, as distribuições são geralmente unimodais.

Medidas de dispersão ou variabilidade

As medidas de dispersão descrevem a disseminação dos dados. Eles incluem o intervalo, intervalo interquartil, desvio padrão e variância.

Alcance e Alcance Interquartil

O intervalo é dado como as menores e maiores observações. Esta é a medida mais simples de variabilidade. Observe que na estatística (ao contrário da física) um intervalo é dado por dois números, não a diferença entre o menor e o maior. Para alguns dados é muito útil, porque se desejaria saber esses números, por exemplo, sabendo em uma amostra as idades dos participantes mais jovens e mais velhos. Se houver discrepâncias, isso pode dar uma impressão distorcida da variabilidade dos dados, uma vez que apenas duas observações são incluídas na estimativa.

Quartis e intervalo interquartil

Os quartis, ou seja, o quartil inferior, a mediana e o quartil superior, dividem os dados em quatro partes iguais, ou seja, haverá aproximadamente o mesmo número de observações nas quatro seções (e exatamente iguais se o tamanho da amostra for divisível por quatro e o medidas são todas distintas). Observe que, na verdade, existem apenas três quartis e esses são pontos e não proporções. É um mau uso comum da linguagem referir-se a estar "no quartil superior". Em vez disso, deve-se referir-se a estar "no quarto superior ou" acima do quartil superior ". No entanto, o significado da primeira afirmação é claro e, portanto, a distinção só é realmente útil para mostrar um conhecimento superior de estatística! Os quartis são calculados de forma semelhante à mediana, primeiro organize os dados em ordem de tamanho e determine a mediana, usando o método descrito acima. Agora divida os dados em dois (a metade inferior e a superior, com base na mediana). O primeiro quartil é a observação do meio da metade inferior e o terceiro quartil é a observação do meio da metade superior. Este processo é demonstrado no Exemplo 2, abaixo.

O intervalo interquartil é uma medida útil de variabilidade e é dado pelos quartis inferior e superior. O intervalo interquartil não é vulnerável a outliers e, qualquer que seja a distribuição dos dados, sabemos que 50% das observações estão dentro do intervalo interquartil.

Exemplo 2 Cálculo dos quartis

Suponha que tivéssemos 18 pesos de nascimento organizados em ordem crescente.

1.51, 1.53. 1.55, 1.55, 1.79. 1.81, 2.10, 2.15, 2.18,

2.22, 2.35, 2.37, 2.40, 2.40, 2.45, 2.78. 2.81, 2.85.

A mediana é a média da 9ª e 10ª observações (2,18 + 2,22) / 2 = 2,20 kg. A primeira metade dos dados tem 9 observações, então o primeiro quartil é a 5ª observação, ou seja, 1,79kg. Da mesma forma, o 3º quartil seria a 5ª observação na metade superior dos dados, ou a 14ª observação, a saber, 2,40 kg. Portanto, o intervalo interquartil é de 1,79 a 2,40 kg.

Desvio Padrão e Variância

O desvio padrão de uma amostra (s) é calculado da seguinte forma:

A expressão ∑ (xeu -) 2 é interpretado como: de cada observação individual (xeu) subtraia a média () e eleve ao quadrado essa diferença. Em seguida, adicione cada um dos n diferenças quadradas. Essa soma é então dividida por (n-1). Esta expressão é conhecida como variância da amostra (s 2). A variância é expressa em unidades quadradas, então pegamos a raiz quadrada para retornar às unidades originais, o que dá o desvio padrão, s. Examinando esta expressão, pode-se ver que se todas as observações fossem iguais (ou seja, x1 = x2 = x3 . = xn), então eles seriam iguais à média, e assim s seria zero. Se o x's estavam amplamente espalhados, então s seria grande. Desta maneira, s reflete a variabilidade dos dados. O cálculo do desvio padrão é descrito no Exemplo 3. O desvio padrão é vulnerável a outliers, portanto, se 2.1 fosse substituído por 21 no Exemplo 3, obteríamos um resultado muito diferente.

Exemplo 3 Cálculo do desvio padrão

Considere os dados do exemplo 1. Os cálculos necessários para determinar a soma das diferenças quadradas da média são dados na Tabela 1, abaixo. Descobrimos que a média era de 1,5 kg. Nós subtraímos isso de cada uma das observações. Observe que a média desta coluna é zero. Será sempre assim: os desvios positivos da média anulam os negativos. Um método conveniente para remover os sinais negativos é o quadrado dos desvios, que é dado na próxima coluna. Esses valores são somados para obter um valor de 0,50 kg 2. Precisamos encontrar o desvio médio quadrático. O bom senso sugere dividir por n, mas isso realmente dá uma estimativa da variância da população, que é muito pequena. Isso ocorre porque estamos usando a média estimada no cálculo e deveríamos realmente usar a média real da população. Pode-se mostrar que é melhor dividir pelos graus de liberdade, que é n menos o número de parâmetros estimados, neste caso n-1. Uma maneira intuitiva de ver isso é supor que alguém tinha n postes telefônicos separados por 100 metros cada. Quanto fio seria necessário para ligá-los? Tal como acontece com a variação, aqui não estamos interessados ​​em onde estão os postes telegráficos, mas simplesmente em quão distantes eles estão. Um momento de reflexão deve convencer alguém de que n-1 comprimentos de fio são necessários para ligar n postes telegráficos.

Tabela 1 Cálculo do desvio quadrado médio

A partir dos resultados calculados até agora, podemos determinar a variância e o desvio padrão, como segue:

Variância = 0,50 / (5-1) = 0,125 kg 2

Desvio padrão = √ (0,125) = 0,35 kg

Por que o desvio padrão é útil?

Acontece que em muitas situações cerca de 95% das observações estarão dentro de dois desvios-padrão da média, conhecido como intervalo de referência. É esta característica do desvio padrão que o torna tão útil. É válido para um grande número de medições comumente feitas na medicina. Em particular, é válido para dados que seguem uma distribuição normal. Desvios padrão não devem ser usados ​​para dados altamente distorcidos, como contagens ou dados limitados, uma vez que eles não ilustram uma medida significativa de variação e, em vez disso, um IQR ou intervalo deve ser usado. Em particular, se o desvio padrão for de tamanho semelhante à média, então o SD não é uma medida resumida informativa, exceto para indicar que os dados estão distorcidos.


Psicologia de nível A do OCR: métodos de pesquisa

Exemplo:
Classifique as palavras que se aplicam a você como as mais importantes e as que não se aplicam menos.

- & gt Confiabilidade teste-teste: entreviste os participantes novamente em uma data posterior e compare sua resposta anterior com sua resposta atual, se nenhum tratamento foi dado, deve ser o mesmo.

- & gt Confiabilidade entre entrevistadores: entrevista repetida por dois entrevistadores diferentes, para reduzir o efeito do viés do entrevistador e verificar a consistência.

- Compare as classificações de ou mais observadores e verifique se há concordância em seus dados. Se eles concordarem com uma alta porcentagem de registros observacionais, a confiabilidade é alta. Isso é chamado de confiabilidade entre avaliadores.

Melhorar a validade das observações:
- Conduza a mesma observação em ambientes variados com participantes variados.

- Hipótese bicaudal: não menciona a direção da correlação.

- Hipótese unilateral: precisa incluir a direção da correlação, por exemplo positivo ou negativo.

- Hipótese nula: Não haverá correlação significativa entre _____ e _____.

- às vezes, pode ser convertido em dados quantitativos e, em seguida, analisado. (isso é feito por meio de análise de conteúdo, que envolve a categorização de dados escritos em temas centrais)

- dá ao pesquisador uma imagem mais completa do comportamento em questão

- dados de intervalo: use a média
- dados ordinais: use mediana
- dados nominais: modo de uso

- Faixa: valores mais altos menos valor mais baixo.

- Desvio padrão:
1. Calcule a média
2. Encontre (x-x) ^ 2 - menos a pontuação da média ao quadrado.
3. Some esses números e divida pelo número total de valores menos 1.
4. Tire a raiz quadrada da resposta.

(PARA UMA MELHOR EXPLICAÇÃO -
https://www.mathsisfun.com/data/standard-deviation-formulas.html)

- O desvio padrão é uma medida de variação melhor do que o intervalo, pois é menos afetado por valores extremos, mas leva mais tempo para ser calculado.

- Dados nominais
- Projeto de Medidas Independentes

1. Calcule (O-E) ^ 2 / E para cada possibilidade - & gt E = total da linha x total da coluna / total geral

2. Some os quatro cálculos.
- uma vez que x ^ 2 foi calculado - & gt calcular os graus de liberdade (df) = (número de linhas -1) x (número de colunas - 1)

- Pelo menos dados ordinais
- Medidas independentes

N = número de participantes em um grupo
N ^ 1 = número no grupo 1
N ^ 2 = número no grupo 2.

NECESSIDADE DE CLASSIFICAR TODOS OS PONTUAÇÃO DO MENOR AO MAIS ALTO. (para pontuações idênticas - & gt some as classificações que eles teriam obtido e divida pelo número de pontuações idênticas)
R ^ 1 - soma total das classificações para o grupo 1
R ^ 2 - soma total das classificações para o grupo 2

Etapa 1: os dados são categorizados em uma tabela de resultados.
Etapa 2: Sinais positivos e negativos precisam ser adicionados.

(EXEMPLO DE PERGUNTA SOBRE 24 DO LIVRO DE MÉTODOS DE PESQUISA) Se a condição A for sim e a condição B for não, um mais é adicionado (porque isso apóia a direção da hipótese) e o oposto seria um menos.

Etapa 3: requer a contagem de cada sinal positivo e negativo atribuído às pontuações de cada participante.
Etapa 4: O valor observado de S na menor pontuação de direção total.


A controvérsia

Na literatura de educação médica, há uma controvérsia de longa data sobre se os dados ordinais, convertidos em números, podem ser tratados como dados de intervalo.2 Ou seja, pode significa, desvios padrão e estatísticas paramétricas, que dependem de dados que são normalmente distribuído (figura 2), pode ser usado para analisar dados ordinais?

Ao realizar pesquisas, medimos dados de uma amostra da população total de interesse, não de todos os membros da população. Os testes paramétricos fazem suposições sobre a população subjacente da qual os dados da pesquisa foram obtidos - normalmente, que esses dados populacionais são normalmente distribuídos. Os testes não paramétricos não fazem essa suposição sobre a “forma” da população da qual os dados do estudo foram extraídos. Os testes não paramétricos são menos poderosos do que os testes paramétricos e geralmente requerem um tamanho de amostra maior (valor n) para ter o mesmo poder que os testes paramétricos para encontrar uma diferença entre grupos quando uma diferença realmente existe. Estatísticas descritivas, como médias e desvios-padrão, têm significados pouco claros quando aplicadas às respostas da escala Likert. Por exemplo, o que a média de “nunca” e “raramente” realmente significa? “Raramente e meio” tem um significado útil? 3 Além disso, se as respostas forem agrupadas nos extremos alto e baixo, a média pode parecer neutra ou média, mas isso pode não caracterizar os dados de maneira justa. Esse agrupamento de extremos é comum, por exemplo, em avaliações de trainees de experiências que podem ser muito populares para um grupo e percebidas como desnecessárias por outros (por exemplo, um curso de epidemiologia na faculdade de medicina). Outras distribuições não normais de dados de resposta podem igualmente resultar em uma pontuação média que não é uma medida útil da tendência central dos dados.

Por causa dessas observações, os especialistas ao longo dos anos têm argumentado que a mediana deve ser usada como a medida de tendência central para os dados da escala Likert.3 Da mesma forma, os especialistas afirmam que frequências (porcentagens de respostas em cada categoria), tabelas de contingência, χ 2 testes, a avaliação Spearman rho ou o Mann-Whitney você teste deve ser usado para análise em vez de testes paramétricos, que, estritamente falando, requerem dados de intervalo (por exemplo, t testes, análise de variância, correlações de Pearson, regressão) .3 No entanto, outros especialistas afirmam que se houver um tamanho de amostra adequado (pelo menos 5-10 observações por grupo) e se os dados forem normalmente distribuídos (ou quase normais), paramétricos os testes podem ser usados ​​com dados ordinais da escala Likert.3

Felizmente, o Dr. Geoff Norman, um dos líderes mundiais em metodologia de pesquisa em educação médica, fez uma revisão abrangente dessa controvérsia. Ele fornece evidências convincentes, com exemplos reais usando dados reais e simulados, que testes paramétricos não só podem ser usados ​​com dados ordinais, como dados de escalas Likert, mas também que testes paramétricos são geralmente mais robustos do que testes não paramétricos. Ou seja, os testes paramétricos tendem a dar "a resposta certa", mesmo quando as suposições estatísticas - como uma distribuição normal de dados - são violadas, mesmo em um grau extremo.4 Assim, os testes paramétricos são suficientemente robustos para produzir respostas amplamente imparciais que são aceitavelmente perto da "verdade" ao analisar as respostas da escala Likert.4

Educadores e pesquisadores também costumam criar vários itens do tipo Likert, agrupá-los em uma “escala de pesquisa” e, em seguida, calcular uma pontuação total ou média para os itens da escala. Freqüentemente, essa prática é recomendada, especialmente quando os pesquisadores estão tentando medir conceitos menos concretos, como motivação do trainee, satisfação do paciente e confiança do médico - onde um único item de pesquisa provavelmente não será capaz de capturar totalmente o conceito que está sendo avaliado.5 Nestes Nos casos, os especialistas sugerem usar o teste alfa de Cronbach ou Kappa ou a técnica de análise fatorial para fornecer evidências de que os componentes da escala são suficientemente intercorrelacionados e que os itens agrupados medem a variável subjacente.


Introdução

Os três módulos de teste de hipótese apresentaram uma série de testes de hipótese para resultados contínuos, dicotômicos e discretos. Os testes para resultados contínuos focaram na comparação de médias, enquanto os testes para resultados dicotômicos e discretos focaram na comparação de proporções. Todos os testes apresentados nos módulos de teste de hipótese são chamados testes paramétricos e são baseadas em certas suposições. Por exemplo, ao executar testes de hipótese para médias de resultados contínuos, todos os testes paramétricos presumem que o resultado é aproximadamente normalmente distribuído na população. This does not mean that the data in the observed sample follows a normal distribution, but rather that the outcome follows a normal distribution in the full population which is not observed. For many outcomes, investigators are comfortable with the normality assumption (i.e., most of the observations are in the center of the distribution while fewer are at either extreme). It also turns out that many statistical tests are robust, which means that they maintain their statistical properties even when assumptions are not entirely met. Tests are robust in the presence of violations of the normality assumption when the sample size is large based on the Central Limit Theorem (see page 11 in the module on Probability). When the sample size is small and the distribution of the outcome is not known and cannot be assumed to be approximately normally distributed, then alternative tests called nonparametric tests are appropriate.


SDG: design of the study, initiation of the research, gathering and analysing the data, writing the article RDC: design of the study, co-analysis of the data, editorial revision of earlier drafts RP: main supervision of the research project, design of the study, editorial revision of earlier drafts RC: design of the study, editorial revision of earlier drafts CDB: design of the study, editorial revision of earlier drafts MJ: supervision of the research project, design of the study, editorial revision of earlier drafts.

The authors would like to thank the nurses for their time and effort in participating in this study and two reviewers for their interesting suggestions for improving this manuscript.


Advantages of Parametric Tests

Advantage 1: Parametric tests can provide trustworthy results with distributions that are skewed and nonnormal

Many people aren&rsquot aware of this fact, but parametric analyses can produce reliable results even when your continuous data are nonnormally distributed. You just have to be sure that your sample size meets the requirements for each analysis in the table below. Simulation studies have identified these requirements. Read here for more information about these studies.

  • For 2-9 groups, each group should have more than 15 observations
  • For 10-12 groups, each group should have more than 20 observations

You can use these parametric tests with nonnormally distributed data thanks to the central limit theorem. For more information about it, read my post: Central Limit Theorem Explained.

Advantage 2: Parametric tests can provide trustworthy results when the groups have different amounts of variability

It&rsquos true that nonparametric tests don&rsquot require data that are normally distributed. However, nonparametric tests have the disadvantage of an additional requirement that can be very hard to satisfy. The groups in a nonparametric analysis typically must all have the same variability (dispersion). Nonparametric analyses might not provide accurate results when variability differs between groups.

Conversely, parametric analyses, like the 2-sample t-test or one-way ANOVA, allow you to analyze groups with unequal variances. In most statistical software, it&rsquos as easy as checking the correct box! You don&rsquot have to worry about groups having different amounts of variability when you use a parametric analysis.

Advantage 3: Parametric tests have greater statistical power

In most cases, parametric tests have more power. If an effect actually exists, a parametric analysis is more likely to detect it.


Measures of Location and Dispersion and their appropriate uses

Statistics: Measures of location and dispersion

  • Quer dizer
  • Mediana
  • Modo
  • Faixa
  • Interquartile Range
  • Standard deviation

Measures of Location

Measures of location describe the central tendency of the data. They include the mean, median and mode.

Mean or Average

The (arithmetic) mean, or average, of n observations (pronounced “x bar”) is simply the sum of the observations divided by the number of observations thus:

In this equation, xi represents the individual sample values and Σxi their sum. The Greek letter 'Σ' (sigma) is the Greek capital 'S' and stands for 'sum'. Their calculation is described in example 1, below.

The median is defined as the middle point of the ordered data. It is estimated by first ordering the data from smallest to largest, and then counting upwards for half the observations. The estimate of the median is either the observation at the centre of the ordering in the case of an odd number of observations, or the simple average of the middle two observations if the total number of observations is even. More specifically, if there are an odd number of observations, it is the [(n+1)/2]th observation, and if there are an even number of observations, it is the average of the [n/2]th and the [(n/2)+1]th observations.

Example 1 Calculation of mean and median

Consider the following 5 birth weights, in kilograms, recorded to 1 decimal place:

The mean is defined as the sum of the observations divided by the number of observations. Thus mean = (1.2+1.3+…+2.1)/5 = 1.50kg. It is usual to quote 1 more decimal place for the mean than the data recorded.

There are 5 observations, which is an odd number, so the median value is the (5+1)/2 = 3rd observation, which is 1.4kg. Remember that if the number of observations was even, then the median is defined as the average of the [n/2]th and the [(n/2)+1]th. Thus, if we had observed an additional value of 3.5kg in the birth weights sample, the median would be the average of the 3rd and the 4th observation in the ranking, namely the average of 1.4 and 1.5, which is 1.45kg.

Advantages and disadvantages of the mean and median

The major advantage of the mean is that it uses all the data values, and is, in a statistical sense, efficient.

The main disadvantage of the mean is that it is vulnerable to outliers. Outliers are single observations which, if excluded from the calculations, have noticeable influence on the results. For example, if we had entered '21' instead of '2.1' in the calculation of the mean in Example 1, we would find the mean changed from 1.50kg to 7.98kg. It does not necessarily follow, however, that outliers should be excluded from the final data summary, or that they always result from an erroneous measurement.

The median has the advantage that it is not affected by outliers, so for example the median in the example would be unaffected by replacing '2.1' with '21'. However, it is not statistically efficient, as it does not make use of all the individual data values.

A third measure of location is the mode. This is the value that occurs most frequently, or, if the data are grouped, the grouping with the highest frequency. It is not used much in statistical analysis, since its value depends on the accuracy with which the data are measured although it may be useful for categorical data to describe the most frequent category. The expression 'bimodal' distribution is used to describe a distribution with two peaks in it. This can be caused by mixing populations. For example, height might appear bimodal if one had men and women on the population. Some illnesses may raise a biochemical measure, so in a population containing healthy and ill people one might expect a bimodal distribution. However, some illnesses are defined by the measure (e.g. obesity or high blood pressure) and in this case the distributions are usually unimodal.

Measures of Dispersion or Variability

Measures of dispersion describe the spread of the data. They include the range, interquartile range, standard deviation and variance.

Range and Interquartile Range

The range is given as the smallest and largest observations. This is the simplest measure of variability. Note in statistics (unlike physics) a range is given by two numbers, not the difference between the smallest and largest. For some data it is very useful, because one would want to know these numbers, for example knowing in a sample the ages of youngest and oldest participant. If outliers are present it may give a distorted impression of the variability of the data, since only two observations are included in the estimate.

Quartiles and Interquartile Range

The quartiles, namely the lower quartile, the median and the upper quartile, divide the data into four equal parts that is there will be approximately equal numbers of observations in the four sections (and exactly equal if the sample size is divisible by four and the measures are all distinct). Note that there are in fact only three quartiles and these are points not proportions. It is a common misuse of language to refer to being ‘in the top quartile’. Instead one should refer to being ‘in the top quarter or ‘above the top quartile’. However, the meaning of the first statement is clear and so the distinction is really only useful to display a superior knowledge of statistics! The quartiles are calculated in a similar way to the median first arrange the data in size order and determine the median, using the method described above. Now split the data in two (the lower half and upper half, based on the median). The first quartile is the middle observation of the lower half, and the third quartile is the middle observation of the upper half. This process is demonstrated in Example 2, below.

The interquartile range is a useful measure of variability and is given by the lower and upper quartiles. The interquartile range is not vulnerable to outliers and, whatever the distribution of the data, we know that 50% of observations lie within the interquartile range.

Example 2 Calculation of the quartiles

Suppose we had 18 birth weights arranged in increasing order.

1.51, 1.53. 1.55, 1.55, 1.79. 1.81, 2.10, 2.15, 2.18,

2.22, 2.35, 2.37, 2.40, 2.40, 2.45, 2.78. 2.81, 2.85.

The median is the average of the 9th and 10th observations (2.18+2.22)/2 = 2.20 kg. The first half of the data has 9 observations so the first quartile is the 5th observation, namely 1.79kg. Similarly the 3rd quartile would be the 5th observation in the upper half of the data, or the 14th observation, namely 2.40 kg. Hence the interquartile range is 1.79 to 2.40 kg.

Standard Deviation and Variance

The standard deviation of a sample (s) is calculated as follows:

The expression ∑(xeu - ) 2 is interpreted as: from each individual observation (xeu) subtract the mean (), then square this difference. Next add each of the n squared differences. This sum is then divided by (n-1). This expression is known as the sample variance (s 2). The variance is expressed in square units, so we take the square root to return to the original units, which gives the standard deviation, s. Examining this expression it can be seen that if all the observations were the same (i.e. x1 = x2 = x3 . = xn), then they would equal the mean, and so s would be zero. Se o x's were widely scattered about, then s would be large. Desta maneira, s reflects the variability in the data. The calculation of the standard deviation is described in Example 3. The standard deviation is vulnerable to outliers, so if the 2.1 was replace by 21 in Example 3 we would get a very different result.

Example 3 Calculation of the standard deviation

Consider the data from example 1. The calculations required to determine the sum of the squared differences from the mean are given in Table 1, below. We found the mean to be 1.5kg. We subtract this from each of the observations. Note the mean of this column is zero. This will always be the case: the positive deviations from the mean cancel the negative ones. A convenient method for removing the negative signs is squaring the deviations, which is given in the next column. These values are then summed to get a value of 0.50 kg 2 . We need to find the average squared deviation. Common-sense would suggest dividing by n, but it turns out that this actually gives an estimate of the population variance, which is too small. This is because we are using the estimated mean in the calculation and we should really be using the true population mean. It can be shown that it is better to divide by the degrees of freedom, which is n minus the number of estimated parameters, in this case n-1. An intuitive way of looking at this is to suppose one had n telephone poles each 100 meters apart. How much wire would one need to link them? As with variation, here we are not interested in where the telegraph poles are, but simply how far apart they are. A moment's thought should convince one that n-1 lengths of wire are required to link n telegraph poles.

Table 1 Calculation of the mean squared deviation

From the results calculated thus far, we can determine the variance and standard deviation, as follows:

Variance = 0.50/(5-1) = 0.125 kg 2

Standard deviation = √(0.125) = 0.35 kg

Why is the standard deviation useful?

It turns out in many situations that about 95% of observations will be within two standard deviations of the mean, known as a reference interval. It is this characteristic of the standard deviation which makes it so useful. It holds for a large number of measurements commonly made in medicine. In particular, it holds for data that follow a Normal distribution. Standard deviations should not be used for highly skewed data, such as counts or bounded data, since they do not illustrate a meaningful measure of variation, and instead an IQR or range should be used. In particular, if the standard deviation is of a similar size to the mean, then the SD is not an informative summary measure, save to indicate that the data are skewed.


Introdução

The three modules on hypothesis testing presented a number of tests of hypothesis for continuous, dichotomous and discrete outcomes. Tests for continuous outcomes focused on comparing means, while tests for dichotomous and discrete outcomes focused on comparing proportions. All of the tests presented in the modules on hypothesis testing are called testes paramétricos and are based on certain assumptions. For example, when running tests of hypothesis for means of continuous outcomes, all parametric tests assume that the outcome is approximately normally distributed in the population. This does not mean that the data in the observed sample follows a normal distribution, but rather that the outcome follows a normal distribution in the full population which is not observed. For many outcomes, investigators are comfortable with the normality assumption (i.e., most of the observations are in the center of the distribution while fewer are at either extreme). It also turns out that many statistical tests are robust, which means that they maintain their statistical properties even when assumptions are not entirely met. Tests are robust in the presence of violations of the normality assumption when the sample size is large based on the Central Limit Theorem (see page 11 in the module on Probability). When the sample size is small and the distribution of the outcome is not known and cannot be assumed to be approximately normally distributed, then alternative tests called nonparametric tests are appropriate.


The Controversy

In the medical education literature, there has been a long-standing controversy regarding whether ordinal data, converted to numbers, can be treated as interval data.2 That is, can means, standard deviations, and parametric statistics, which depend upon data that are normally distributed (figure 2), be used to analyze ordinal data?

When conducting research, we measure data from a sample of the total population of interest, not from all members of the population. Parametric tests make assumptions about the underlying population from which the research data have been obtained—usually that these population data are normally distributed. Nonparametric tests do not make this assumption about the “shape” of the population from which the study data have been drawn. Nonparametric tests are less powerful than parametric tests and usually require a larger sample size (n value) to have the same power as parametric tests to find a difference between groups when a difference actually exists. Descriptive statistics, such as means and standard deviations, have unclear meanings when applied to Likert scale responses. For example, what does the average of “never” and “rarely” really mean? Does “rarely and a half” have a useful meaning?3 Furthermore, if responses are clustered at the high and low extremes, the mean may appear to be the neutral or middle response, but this may not fairly characterize the data. This clustering of extremes is common, for example, in trainee evaluations of experiences that may be very popular with one group and perceived as unnecessary by others (eg, an epidemiology course in medical school). Other non-normal distributions of response data can similarly result in a mean score that is not a helpful measure of the data's central tendency.

Because of these observations, experts over the years have argued that the median should be used as the measure of central tendency for Likert scale data.3 Similarly, experts have contended that frequencies (percentages of responses in each category), contingency tables, χ 2 tests, the Spearman rho assessment, or the Mann-Whitney você test should be used for analysis instead of parametric tests, which, strictly speaking, require interval data (eg, t tests, analysis of variance, Pearson correlations, regression).3 However, other experts assert that if there is an adequate sample size (at least 5–10 observations per group) and if the data are normally distributed (or nearly normal), parametric tests can be used with Likert scale ordinal data.3

Fortunately, Dr. Geoff Norman, one of world's leaders in medical education research methodology, has comprehensively reviewed this controversy. He provides compelling evidence, with actual examples using real and simulated data, that parametric tests not only can be used with ordinal data, such as data from Likert scales, but also that parametric tests are generally more robust than nonparametric tests. That is, parametric tests tend to give “the right answer” even when statistical assumptions—such as a normal distribution of data—are violated, even to an extreme degree.4 Thus, parametric tests are sufficiently robust to yield largely unbiased answers that are acceptably close to “the truth” when analyzing Likert scale responses.4

Educators and researchers also commonly create several Likert-type items, group them into a “survey scale,” and then calculate a total score or mean score for the scale items. Often this practice is recommended, particularly when researchers are attempting to measure less concrete concepts, such as trainee motivation, patient satisfaction, and physician confidence—where a single survey item is unlikely to be capable of fully capturing the concept being assessed.5 In these cases, experts suggest using the Cronbach alpha or Kappa test or factor analysis technique to provide evidence that the components of the scale are sufficiently intercorrelated and that the grouped items measure the underlying variable.


OCR A-level Psychology: Research Methods

Exemplo:
Rank the words that apply to you as most important and those that don't as least.

-> Test-restest reliability: interview the participants at a later date again and compare their previous response to their current response if no treatment was given it should be the same.

-> Inter-interviewer reliability: interview repeated by two different interviewers, to reduce the effect of interviewer bias and check consistency.

- Compare the ratings of or more observers and check for agreement in their data. If they agree on a high percentage of observational recordings, then the reliability is high. This is called inter-rater reliability.

Improving the validity of observations:
- Conduct the same observation in varied settings with varied participants.

- Two-tailed hypothesis: does not mention the direction of the correlation.

- One-tailed hypothesis: needs to include the direction of the correlation e.g. positive or negative.

- Null hypothesis: There will be no significant correlation between _____ and _____.

- sometimes it can be converted to quantitative data and then analysed. (this is done through content analysis which involves the categorising written data into core themes)

- gives the researcher a fuller picture of the behaviour in question

- interval data: use mean
- ordinal data: use median
- nominal data: use mode

- Range: highest values minus lowest value.

- Standard deviation:
1. Work out the mean
2. Find (x-x)^2 - minus the score from the mean squared.
3. Add these numbers together and divide by the total number of values minus 1.
4. Take the squared root of the answer.

( FOR A BETTER EXPLANATION -
https://www.mathsisfun.com/data/standard-deviation-formulas.html )

- Standard deviation is a better measure of variation than range since it is less affected by extreme values, but it takes longer to calculate.

- Nominal Data
- Independent Measures Design

1. Work out (O-E)^2 / E for each possibility --> E = row total x column total / overall total

2. Add together the four calculations.
- once x^2 has been calculated --> work out the degrees of freedom (df) = (number of rows -1 ) x (number of columns - 1)

- At least ordinal data
- Independent measures

N= number of participants in a group
N^1 = number in group 1
N^2 = number in group 2.

NEED TO RANK ALL SCORED FROM SMALLEST TO HIGHEST. (for identical scores -> add up the ranks they would have taken and divide by the number of identical scores)
R^1 - total sum of ranks for group 1
R^2 - total sum of ranks for group 2

Step 1: Data is categorised into a table of results.
Step 2: Positive and negative signs need to be added.

(EXAMPLE QUESTION ON 24 OF RESEARCH METHODS BOOKLET)If condition A is yes and condition B is no a plus is added (because this supports the direction of the hypothesis) and the opposite would be a minus.

Step 3: Requires the counting of each positive and negative sign assigned to each participant's scores.
Step 4: The observed value of S in the smallest total direction score.


Advantages of Parametric Tests

Advantage 1: Parametric tests can provide trustworthy results with distributions that are skewed and nonnormal

Many people aren&rsquot aware of this fact, but parametric analyses can produce reliable results even when your continuous data are nonnormally distributed. You just have to be sure that your sample size meets the requirements for each analysis in the table below. Simulation studies have identified these requirements. Read here for more information about these studies.

  • For 2-9 groups, each group should have more than 15 observations
  • For 10-12 groups, each group should have more than 20 observations

You can use these parametric tests with nonnormally distributed data thanks to the central limit theorem. For more information about it, read my post: Central Limit Theorem Explained.

Advantage 2: Parametric tests can provide trustworthy results when the groups have different amounts of variability

It&rsquos true that nonparametric tests don&rsquot require data that are normally distributed. However, nonparametric tests have the disadvantage of an additional requirement that can be very hard to satisfy. The groups in a nonparametric analysis typically must all have the same variability (dispersion). Nonparametric analyses might not provide accurate results when variability differs between groups.

Conversely, parametric analyses, like the 2-sample t-test or one-way ANOVA, allow you to analyze groups with unequal variances. In most statistical software, it&rsquos as easy as checking the correct box! You don&rsquot have to worry about groups having different amounts of variability when you use a parametric analysis.

Advantage 3: Parametric tests have greater statistical power

In most cases, parametric tests have more power. If an effect actually exists, a parametric analysis is more likely to detect it.


Conteúdo

Consider the data (1, 1, 2, 2, 4, 6, 9). It has a median value of 2. The absolute deviations about 2 are (1, 1, 0, 0, 2, 4, 7) which in turn have a median value of 1 (because the sorted absolute deviations are (0, 0, 1, 1, 2, 4, 7)). So the median absolute deviation for this data is 1.

The median absolute deviation is a measure of statistical dispersion. Moreover, the MAD is a robust statistic, being more resilient to outliers in a data set than the standard deviation. In the standard deviation, the distances from the mean are squared, so large deviations are weighted more heavily, and thus outliers can heavily influence it. In the MAD, the deviations of a small number of outliers are irrelevant.

Because the MAD is a more robust estimator of scale than the sample variance or standard deviation, it works better with distributions without a mean or variance, such as the Cauchy distribution.

The MAD may be used similarly to how one would use the deviation for the average. In order to use the MAD as a consistent estimator for the estimation of the standard deviation σ , one takes

Therefore, we must have that

Another way of establishing the relationship is noting that MAD equals the half-normal distribution median:

This form is used in, e.g., the probable error.

Similarly to how the median generalizes to the geometric median in multivariate data, a geometric MAD can be constructed that generalizes the MAD. Given a 2 dimensional paired set of data (X1,Y1), (X2,Y2). (Xn,Yn) and a suitably calculated geometric median ( X

This gives the identical result as the univariate MAD in 1 dimension and extends easily to higher dimensions. In the case of complex values (X+iY), the relation of MAD to the standard deviation is unchanged for normally distributed data.

The population MAD is defined analogously to the sample MAD, but is based on the complete distribution rather than on a sample. For a symmetric distribution with zero mean, the population MAD is the 75th percentile of the distribution.

Unlike the variance, which may be infinite or undefined, the population MAD is always a finite number. For example, the standard Cauchy distribution has undefined variance, but its MAD is 1.

The earliest known mention of the concept of the MAD occurred in 1816, in a paper by Carl Friedrich Gauss on the determination of the accuracy of numerical observations. [4] [5]


SDG: design of the study, initiation of the research, gathering and analysing the data, writing the article RDC: design of the study, co-analysis of the data, editorial revision of earlier drafts RP: main supervision of the research project, design of the study, editorial revision of earlier drafts RC: design of the study, editorial revision of earlier drafts CDB: design of the study, editorial revision of earlier drafts MJ: supervision of the research project, design of the study, editorial revision of earlier drafts.

The authors would like to thank the nurses for their time and effort in participating in this study and two reviewers for their interesting suggestions for improving this manuscript.


The mean is usually the best measure of central tendency to use when your data distribution is continuous and symmetrical, such as when your data is normally distributed. However, it all depends on what you are trying to show from your data.

The mode is the least used of the measures of central tendency and can only be used when dealing with nominal data. For this reason, the mode will be the best measure of central tendency (as it is the only one appropriate to use) when dealing with nominal data. The mean and/or median are usually preferred when dealing with all other types of data, but this does not mean it is never used with these data types.


Parametric and Non-parametric tests for comparing two or more groups

Statistics: Parametric and non-parametric tests

Escolhendo um Teste

In terms of selecting a statistical test, the most important question is "what is the main study hypothesis?" In some cases there is no hypothesis the investigator just wants to "see what is there". For example, in a prevalence study there is no hypothesis to test, and the size of the study is determined by how accurately the investigator wants to determine the prevalence. Se não houver hipótese, não há teste estatístico. It is important to decide a priori which hypotheses are confirmatory (that is, are testing some presupposed relationship), and which are exploratory (are suggested by the data). No single study can support a whole series of hypotheses. A sensible plan is to limit severely the number of confirmatory hypotheses. Although it is valid to use statistical tests on hypotheses suggested by the data, the P values should be used only as guidelines, and the results treated as tentative until confirmed by subsequent studies. A useful guide is to use a Bonferroni correction, which states simply that if one is testing n independent hypotheses, one should use a significance level of 0.05/n. Thus if there were two independent hypotheses a result would be declared significant only if P<0.025. Note that, since tests are rarely independent, this is a very conservative procedure – i.e. one that is unlikely to reject the null hypothesis. The investigator should then ask "are the data independent?" This can be difficult to decide but as a rule of thumb results on the same individual, or from matched individuals, are not independent. Thus results from a crossover trial, or from a case-control study in which the controls were matched to the cases by age, sex and social class, are not independent.

  • Analysis should reflect the design, and so a matched design should be followed by a matched analysis.
  • Results measured over time require special care. One of the most common mistakes in statistical analysis is to treat correlated variables as if they were
    independent. For example, suppose we were looking at treatment of leg ulcers, in which some people had an ulcer on each leg. We might have 20 subjects with
    30 ulcers but the number of independent pieces of information is 20 because the state of ulcers on each leg for one person may be influenced by the state of
    health of the person and an analysis that considered ulcers as independent observations would be incorrect. For a correct analysis of mixed paired and unpaired
    data consult a statistician.

The next question is "what types of data are being measured?" The test used should be determined by the data. The choice of test for matched or paired data is described in Table 1 and for independent data in Table 2.

Table 1 Choice of statistical test from paired or matched observation

It is helpful to decide the input variables and the outcome variables. For example, in a clinical trial the input variable is the type of treatment - a nominal variable - and the outcome may be some clinical measure perhaps Normally distributed. The required test is then the t-test (Table 2). However, if the input variable is continuous, say a clinical score, and the outcome is nominal, say cured or not cured, logistic regression is the required analysis. UMA t-test in this case may help but would not give us what we require, namely the probability of a cure for a given value of the clinical score. As another example, suppose we have a cross-sectional study in which we ask a random sample of people whether they think their general practitioner is doing a good job, on a five point scale, and we wish to ascertain whether women have a higher opinion of general practitioners than men have. The input variable is gender, which is nominal. The outcome variable is the five point ordinal scale. Each person's opinion is independent of the others, so we have independent data. From Table 2 we should use a χ 2 test for trend, or a Mann-Whitney U test with a correction for ties (N.B. a tie occurs where two or more values are the same, so there is no strictly increasing order of ranks – where this happens, one can average the ranks for tied values). Note, however, if some people share a general practitioner and others do not, then the data are not independent and a more sophisticated analysis is called for. Note that these tables should be considered as guides only, and each case should be considered on its merits.

Table 2 Choice of statistical test for independent observations

a If data are censored. b The Kruskal-Wallis test is used for comparing ordinal or non-Normal variables for more than two groups, and is a generalisation of the Mann-Whitney U test. c Analysis of variance is a general technique, and one version (one way analysis of variance) is used to compare Normally distributed variables for more than two groups, and is the parametric equivalent of the Kruskal-Wallistest. d If the outcome variable is the dependent variable, then provided the residuals (the differences between the observed values and the predicted responses from regression) are plausibly Normally distributed, then the distribution of the independent variable is not important. e There are a number of more advanced techniques, such as Poisson regression, for dealing with these situations. However, they require certain assumptions and it is often easier to either dichotomise the outcome variable or treat it as continuous.

Parametric tests are those that make assumptions about the parameters of the population distribution from which the sample is drawn. This is often the assumption that the population data are normally distributed. Non-parametric tests are “distribution-free” and, as such, can be used for non-Normal variables. Table 3 shows the non-parametric equivalent of a number of parametric tests.

Table 3 Parametric and Non-parametric tests for comparing two or more groups

Non-parametric tests are valid for both non-Normally distributed data and Normally distributed data, so why not use them all the time?

It would seem prudent to use non-parametric tests in all cases, which would save one the bother of testing for Normality. Parametric tests are preferred, however, for the following reasons:

1. We are rarely interested in a significance test alone we would like to say something about the population from which the samples came, and this is best done with
estimates of parameters and confidence intervals.

2. It is difficult to do flexible modelling with non-parametric tests, for example allowing for confounding factors using multiple regression.

3. Parametric tests usually have more statistical power than their non-parametric equivalents. In other words, one is more likely to detect significant differences when
they truly exist.

Do non-parametric tests compare medians?

It is a commonly held belief that a Mann-Whitney U test is in fact a test for differences in medians. However, two groups could have the same median and yet have a significant Mann-Whitney U test. Consider the following data for two groups, each with 100 observations. Group 1: 98 (0), 1, 2 Group 2: 51 (0), 1, 48 (2). The median in both cases is 0, but from the Mann-Whitney test P<0.0001. Only if we are prepared to make the additional assumption that the difference in the two groups is simply a shift in location (that is, the distribution of the data in one group is simply shifted by a fixed amount from the other) can we say that the test is a test of the difference in medians. However, if the groups have the same distribution, then a shift in location will move medians and means by the same amount and so the difference in medians is the same as the difference in means. Thus the Mann-Whitney U test is also a test for the difference in means. How is the Mann- Whitney U test related to the t-test? If one were to input the ranks of the data rather than the data themselves into a two sample t-test program, the P value obtained would be very close to that produced by a Mann-Whitney U test.


Assista o vídeo: Interpretacja danych - diagram słupkowy #2 Porządkowanie informacji (Dezembro 2021).