Resumo

Neste artigo, argumentamos que modelos lineares mistos (MLMs) são mais adequados que Análise de Variância (ANOVA) para lidar com dados de tempo de reação. Com a análise de um conjunto de dados simulados, mostramos que MLMs têm menor chance de incorrer em erros do Tipo I por permitir a inclusão de mais de um efeito aleatório (geralmente participantes e itens) em um único modelo. Também apresentamos uma introdução à implementação e análise de dados por meio de MLMs usando R e sugerimos materiais adicionais para os pesquisadores que desejarem fazer esse tipo de análise. Nosso principal objetivo é fomentar o uso de MLMs na comunidade psicolinguística brasileira.

Introdução

A pesquisa experimental em psicolinguística depende da análise de dados de experimentos que, frequentemente, têm algumas características comuns. Em primeiro lugar, o estudo recruta um conjunto de participantes, geralmente alunos universitários. Além disso, coleta-se o julgamento ou o tempo de resposta a itens linguísticos criados pelos experimentadores de acordo com as variáveis a serem testadas. No caso de dados resultantes de tempos de resposta - caso de que trataremos - é comum que o pesquisador conduza sua análise por meio de Análise de Variância.

Neste artigo, seguimos o exposto em Baayen, Davidson e Bates (2008)[1] e argumentamos que uma análise por meio de modelos lineares mistos é mais adequada para lidar com os dados de medidas repetidas que são obtidos em experimentos psicolinguísticos. Nosso objetivo principal é apresentar as vantagens desse tipo de análise frente a uma Análise de Variância para que a prática se torne mais comum no país. Além disso, apresentamos um passo-a-passo básico de como se implementa um modelo linear misto por meio da linguagem R e como se interpretam seus resultados. A escolha pela linguagem R, aqui, não se deve a mera casualidade, mas segue a necessidade crescente de disponibilizar códigos para construir um ambiente acadêmico transparente quanto à coleta e análise de dados. Por fim, recomendamos outros tutoriais e recursos disponíveis em português que podem auxiliar o pesquisador brasileiro que queira começar a analisar seus dados por meio de modelos lineares mistos.

1. Psicolinguística: medidas repetidas e generalização

Para ilustrar as possibilidades de análise estatística de dados de tempo de resposta, consideremos um experimento simples de priming semântico. Imaginemos que um linguista selecionou 60 palavras alvo, que foram apresentadas a 20 participantes1. Esses itens foram apresentados após uma palavra semanticamente relacionada (e.g. leite > CAFÉ) ou não relacionada (pente > CAFÉ). O pesquisador queria testar se a apresentação de uma palavra semanticamente relacionada antes da palavra alvo facilitaria seu reconhecimento, e, por isso, registrou quanto tempo os participantes levavam para decidir se a palavra apresentada era ou não uma palavra do português brasileiro. Ao final, o pesquisador registrou que a diferença entre as médias de tempo de reação para palavras em cada uma das duas condições foi de 68,90ms (690,58ms para a condição relacionada, 759,48ms para a condição não-relacionada). Nesse cenário, o linguista deve ponderar o que ele espera que os resultados desse experimento informem dadas as condições de obtenção dos dados.

É nesse sentido que Raaijmakers (2003)[2] destaca que a diferença entre médias de dois grupos em um contexto experimental não deve ser tomada pelo seu valor absoluto, mas precisa levar em conta se essa distinção permanecerá caso o experimento seja repetido. Portanto, um modelo estatístico deve considerar as variáveis que podem influenciar o resultado em uma possível replicação. Um dos fatores que pode influenciar os tempos de resposta é justamente a variável manipulada. A variável experimental preditora (ou independente) é um fator cujos níveis de variação são fixos (e.g., há dois níveis: relacionados e não relacionados), determinados pelo pesquisador e repetidos (esses níveis podem ser repetidos para cada novo item). Essa variável representa aquilo que chamamos de efeito fixo. No entanto, há ainda uma série de fatores - chamados efeitos aleatórios - que inserem variabilidade no conjunto de dados sem que sejam controlados pelo pesquisador. No experimento em tela, dois desses efeitos aleatórios são os itens experimentais e os participantes.

É razoável assumir que características intrínsecas a cada participante influenciam suas respostas de maneiras distintas. Como cada participante é diferente, alguns serão mais rápidos, outros mais lentos, alguns estarão desconfortáveis com a tarefa, outros já terão participado de outros experimentos e estarão mais à vontade, e todos terão características próprias no modo como construíram seu vocabulário e como usam a língua no dia a dia. Além disso, os itens do experimento - no caso, as palavras selecionadas - também são diferentes entre si. Por mais que os estímulos experimentais sejam controlados, cada um tem características próprias que interferem nos tempos de resposta. Isso significa que uma replicação do experimento com outros itens e outros participantes pode levar a resultados diferentes. Por fim, há ainda variabilidade decorrente das interações participante x condição e item x condição. É possível que o efeito da variável testada seja maior para um ou outro indivíduo ou item específico, o que contribui para a distribuição de dados.

Tanto no caso dos participantes quanto dos itens experimentais temos apenas um pequeno conjunto do fenômeno que queremos testar: os participantes são uma amostra dos falantes de português, e as palavras selecionadas são apenas uma amostra da língua portuguesa. Ao conduzir um experimento e aplicar modelos estatísticos para analisar seus dados, o pesquisador certamente imagina que seus resultados possam ser interpretados como representativos do processamento da linguagem na população, embora o experimento tenha sido aplicado em apenas duas dezenas de participantes. Além disso, o pesquisador também espera que qualquer efeito identificado através de análise quantitativa diga respeito ao fenômeno linguístico estudado, ou seja, ao fenômeno do priming semântico. Isso significa que o pesquisador quer ter certeza de que o efeito encontrado possa ser generalizado para a língua, não sendo mero reflexo do pequeno conjunto de 60 itens selecionados para a tarefa experimental.

A reflexão de que participantes e itens introduzem uma variabilidade aleatória no conjunto de dados coletados deve levar o experimentador a adotar modelos estatísticos que prevejam esse efeito. Por esse motivo, a análise de dados dessa natureza, na psicolinguística, geralmente se dá por meio de um de dois tipos de modelos lineares: uma Análise de Variância (ou ANOVA) ou um Modelo Linear Misto. Para argumentarmos por que acreditamos que a segunda opção é melhor para analisar dados de tempos de resposta com medidas repetidas, consideremos inicialmente como se faz esse tipo de análise a partir de uma ANOVA.

2. Modelo de Análise de Variância

Na psicolinguística, uma ANOVA é geralmente empregada para averiguar se, em dados coletados experimentalmente, há diferença em ao menos um par de médias entre as condições comparadas. Esse teste calcula uma estatística com fins de verificar se a variância associada à manipulação de uma variável (no nosso caso, tipo de prime) é maior que a variância causada por fatores aleatórios não controlados pelo experimentador (para maiores detalhes sobre o cálculo das variâncias e da estatística , cf. KUTNER et al., 2004)[3].

A fim de que a análise quantitativa dê conta das variações causadas por participantes e itens específicos, é preciso que esses dois elementos sejam tratados como variáveis que introduzem uma variação aleatória em um modelo estatístico. Como lembram Baayen, Davidson e Bates (2008)[1], a psicolinguística tem adotado a proposta de Clark (1973)[4], que consiste no cálculo de uma estatística quasi- a partir do agrupamento de dados por participante ( ) e por item ( ). Para o cálculo de , as observações de cada participante são agregadas para produzir uma média para cada condição. Para o cálculo de , as observações de cada item são agregadas também para produzir uma média para cada condição. Devido à dificuldade do cálculo de quasi- , Clark (1973)[4] propõe que um valor mínimo de quasi- , chamado , seja obtido a partir de e através da equação .

A crítica de Clark (1973)[4] foi incorporada aos modos de análise da psicolinguística, uma vez que o cálculo de e é prática corrente até os dias atuais e refletem uma preocupação em lidar com itens e participantes como efeitos aleatórios em um modelo estatístico. No entanto, Raaijmakers, Schrijnemakers e Gremmen (1999)[5] reportam uma mudança no modo como a análise é feita para o cálculo da estatística do teste: embora a maioria dos artigos publicados no Journal of Memory and Language reportasse também o valor de em conjunto com e na década de 70, vinte anos depois quase nenhum artigo o fazia. Segundo os autores, ao longo do tempo, e deixaram de ser vistos como um passo intermediário para o cálculo de , e foram reinterpretados como testes realizados para generalizar os resultados, respectivamente, por participantes e por itens. Raaijmakers (2003) sugere que um dos motivos para essa mudança foi o fato de que pode não ser significativo mesmo quando e o são. Isso, aliado à crítica de alguns autores de que o uso de seria um teste muito conservador (SMITH, 1976[6]; WIKE; CHURCH, 1976; apud RAAIJMAKERS, 2003[2,7]) fez com que a prática padrão da área se limitasse ao cálculo de e .

Há uma discussão sobre quão conservador de fato é o uso de , com alguns autores defendendo que o teste fornece uma boa aproximação da estatística (DAVENPORT e WEBSTER, 1973; apud RAAIJMAKERS, 2003[2,8]). Porém, aqui chamamos atenção para outras consequências do uso da ANOVA para análise de dados de experimentos psicolinguísticos. Ao lançar mão de um valor de e outro de , esses testes se baseiam em duas análises distintas para derivar um único resultado, e nenhuma delas engloba, em um único modelo, todos os efeitos aleatórios que influenciam o experimento. A própria prática de calcular dois valores de advém do fato de que uma ANOVA pode considerar apenas um efeito aleatório por vez.

Há pelo menos dois problemas que derivam dessa prática. Em primeiro lugar, a realização de dois testes aumenta as taxas de falsos positivos, também conhecidos como erros do tipo I, principalmente quando os p-valores não são corrigidos (KUTNER et al., 2004)[3]. Além disso, há situações em que apenas uma das análises se mostra estatisticamente significativa. Embora haja entendimento de que um resultado só é considerado estatisticamente significativo quando os dois valores de estão abaixo do nível de assumido, isso não impede que alguns trabalhos reportem os resultados como significativos mesmo quando apenas um dos valores cumpre esse critério.

Se ainda não houvesse possibilidade de inclusão de itens e participantes como efeitos aleatórios em um mesmo modelo, uma ANOVA de fato se mostraria como melhor alternativa para análise dos dados. Porém, novas ferramentas para análise estatística foram desenvolvidas desde a publicação de Clark (1973)[4], em grande parte graças ao maior poder computacional disponível atualmente. Hoje, a inclusão de itens e participantes como efeitos aleatórios cruzados em um mesmo modelo é possível em uma classe de modelos lineares chamados modelos lineares mistos (MLMs). Esse tipo de análise tem se tornado popular para a análise de dados em pesquisa linguística desde a publicação de Baayen, Davidson e Bates (2008)[1], mas ainda é subutilizada na comunidade linguística brasileira (algumas exceções são COSTA, 2013, e GODOY et al., 2017[9,10]). Na próxima seção, detalharemos as vantagens do um modelo misto e suas semelhanças e diferenças em relação à ANOVA. Para tanto, utilizaremos um conjunto de dados simulados para o experimento de priming descrito na primeira seção2.

3. O conjunto de dados analisado

Os dados analisados neste trabalho foram gerados de maneira aleatória, utilizando o método proposto por Debruine e Barr (2019)[11]. Muito comuns da literatura estatística, as simulações de Monte Carlo são utilizadas para avaliar o desempenho de modelos estatísticos em situações computacionais controladas. Estas situações replicam o comportamento real dos dados, permitindo que estudos em larga escala sejam realizados sem a necessidade da coleta de dados reais. Tais métodos são utilizados desde casos mais simples, como a estimativa das probabilidades de uma roleta (MORETTIN; BUSSAB, 2004)[12], até aplicações complexas de estatística, como a utilização de séries temporais para modelagem de sequências de DNA (LOPES e NUNES, 2006)[13].

O conjunto de dados utilizado neste trabalho foi gerado a partir de uma simulação de Monte Carlo. Em primeiro lugar, definimos o número de sujeitos (20) e itens (60). Como nosso objetivo neste trabalho é mostrar que os resultados de uma ANOVA, tal qual realizada rotineiramente, podem levar a aumento da detecção de falsos positivos, foram definidas médias iguais para as condições não-relacionada e relacionada do prime. Note que, por ser um processo de Monte Carlo, as estimações pontuais dessas médias podem divergir, mas elas não são estatisticamente diferentes. Desta forma, estamos condicionando os dados a não possuírem diferença entre os níveis da variável prime.

Há dois tipos principais de eventos na natureza: eventos determinísticos e eventos estocásticos. Eventos determinístico são aqueles em que, mantidas as condições iniciais, o resultado final será sempre o mesmo, não importando quantas vezes forem repetidos. Por exemplo, o tempo que uma esfera de 1kg leva para cair de uma altura de 20m será sempre o mesmo, desde que este evento seja repetido sob exatamente as mesmas condições, como presença ou ausência de vácuo, temperatura do local do experimento, pressão atmosférica, valor da aceleração gravitacional e tudo o mais que pode ser controlado pelo experimentador.

Eventos estocásticos, por outro lado, variam seu resultado mesmo quando as condições iniciais são mantidas. O evento estocástico mais simples possível é o lançamento de uma moeda. Embora saibamos que os únicos resultados possíveis são cara ou coroa, o resultado dos lançamentos individuais de uma moeda são imprevisíveis. Entretanto, é possível modelar com alguma incerteza o comportamento do lançamento de um número grande de moedas.

Graças à participação de seres humanos, experimentos de psicolinguística são estocásticos. Desta forma, inserimos uma variabilidade geral no modelo, pois estamos tratando com dados estocásticos. Além da variabilidade geral do modelo, inserimos variabilidades extras por item e por participante para simular a variabilidade introduzida por esses termos na distribuição dos dados. Feitos esses ajustes, obtivemos uma distribuição normal dos dados de tempo de resposta. Reconhecemos que, em geral, dados de tempo de reação tem uma distribuição com cauda longa à direita e, com frequência, passam por uma transformação logarítmica para que possam ser analisados (GODOY, 2019)[14]. Aqui optamos por criar uma distribuição normal para que o exemplo fosse mais simples e não tirasse o foco do objetivo do artigo, que é comparar o desempenho de MLMs e ANOVAs na análise de dados de experimentação linguística.

Antes de seguirmos para a análise dos dados por meio de um MLM, analisamos o mesmo conjunto com uma ANOVA que toma o tipo de prime como variável preditora. Não nos aprofundaremos em explicar os passos dessa ANOVA por acreditarmos que esse tipo de análise é conhecido pela comunidade psicolinguística do Brasil a despeito do software utilizado. A Tabela 1 resume os resultados de e , que sugerem um efeito significativo3 de prime por participante e por item (F1(1, 38) = 0,0301; F2(1, 58) = 0,0449). Dito de outro modo, uma ANOVA encontrou efeito de prime no conjunto de dados analisado ao fazer uma análise considerando a variabilidade de itens e de participantes separadamente. Contudo, como veremos a seguir, ao inserirmos esses dois termos em um único modelo linear, o resultado é diferente.

Teste DF SS MS F p-valor
F1 1 39109 39019 5,0789 0,0301
38 292609 7700 - -
F2 1 58664 58664 4,2011 0,0449
58 809907 13964 - -
Table 1.TABELA 1 – Resultados de  e  para os dados analisadosFonte: Elaborada pelos autores

4. Modelos Lineares Mistos

Modelos Lineares Mistos (MLMs) são uma classe de modelos estatísticos que recebem esse nome por especificarem, em sua equação, dois tipos de efeitos: efeitos fixos e aleatórios. Para entender melhor a construção de um MLM, consideremos o exemplo de experimento apresentado. Segundo a hipótese levantada, há uma variável - prime - que pode influenciar o tempo de resposta dos participantes. Representamos isso formalmente com a equação abaixo, que pode ser lida como “tempo varia em função de prime”.

tempo ~ prime

Na Figura 1, vemos a distribuição dos valores de tempo de resposta para cada uma das condições de prime de um dos participantes do experimento. A reta ajustada parte do valor médio da condição relacionada (690,58ms) para o valor médio da condição não-relacionada (759,48ms).

Figure 1.FIGURA 1Distribuição do tempo de resposta (ms) para as condições relacionada (rel) e não-relacionada (nrel) do prime.Fonte: Elaborada pelos autores.

## ## Call: ## lm(formula = tempo ~ prime, data = .)

## ## Residuals:

## Min 1Q Median 3Q Max

## -379.40 -124.78 -4.98 112.35 474.87

## ## Coefficients: ## Estimate Std. Error t value Pr(>|t|)

## (Intercept) 690.58 33.75 20.460 <2e-16 ***

## primenrel 68.90 47.73 1.443 0.154

## ---

## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

## ## Residual standard error: 184.9 on 58 degrees of freedom ## Multiple R-squared: 0.03468, Adjusted R-squared: 0.01803

## F-statistic: 2.083 on 1 and 58 DF, p-value: 0.1543

Os valores estimados para o intercepto e o slope – ou e – estão no output acima, na tabela de coeficientes (Coefficients, em inglês). O valor de é 690,58 e de é 68,90. Desta forma, a equação do modelo linear deste exemplo pode ser resumida em (2).

tempo = 690,58 + 68,90 x prime (2)

Para entender como obtivemos os valores de e reportadas na tabela de coeficientes, vamos assumir que o prime relacionado é nosso nível de referência4. Assim, a variável assume dois níveis: 0 para prime relacionado e 1 para prime não-relacionado. Desta forma, podemos resolver a equação (2) substituindo os valores de por seus equivalentes numéricos como em (3):

prime relacionado : 690,58 + 68,90 x 0 = 690,58

prime não relacionado: 690,58 + 68,90 x 1 =759,48 (3)

A média de tempo de resposta para a condição de prime relacionado intercepta o eixo y no valor 690,58. Dizemos que esse é o valor do nosso intercepto para um modelo linear, e a partir desse valor de referência, podemos ver a variação do outro nível da condição prime. Para a condição não-relacionada, a média foi de 759,48; portanto, dizemos que essa condição apresenta um coeficiente de 68,90 em comparação ao valor do intercepto, o que resulta na média calculada (i.e., 690,58 + 68,90).

No entanto, conforme já indicamos, os tempos de resposta também estão sujeitos à variabilidade dos participantes. Dizemos que temos medidas repetidas por participante porque cada um deles contribuiu com 60 medidas de tempos de resposta, e, independentemente do tipo de condição, suas médias são bem diferentes e refletem idiossincrasias de cada um. Na Figura 1 vemos o comportamento das respostas de um dos participantes, enquanto na Figura 2 podemos comparar o desempenho de todos eles simultaneamente. Enquanto alguns participantes tiveram tempos de respostas mais rápidos, outros foram mais lentos. Enquanto alguns participantes foram mais rápidos nas respostas para a condição relacionada, outros participantes foram mais rápidos na execução da tarefa não-relacionada. Além disso, a inclinação da reta - ou seja, o slope - é diferente para cada um deles.

Figure 2.FIGURA 2Comparação do tempo de resposta (ms) para as condições relacionada e não-relacionada do prime para todos os participantes do experimento.Fonte: Elaborada pelos autores.

Ao construirmos um modelo estatístico que tente explicar como a condição prime afeta o tempo de resposta, seria adequado que esse modelo levasse em conta a variabilidade de cada participante. Ao utilizar o modelo ANOVA proposto por Clark (1973)[4] e calcular as médias por item e participante, o pesquisador não considera estas variabilidades e acaba enfraquecendo a sua modelagem, descartando informações importantes sobre a variabilidade dos dados coletados.

Usando a sintaxe do R, o efeito aleatório do participante pode ser inserido no modelo da seguinte maneira:

tempo ~ prime + (1|participante)

O que a notação acima indica é que o modelo deve considerar interceptos diferentes para cada participante (o número 1, aqui, representa o intercepto). Como modela um tipo de variabilidade aleatória, esse intercepto é chamado de intercepto aleatório. Considerando ainda que nossos dados têm outra fonte de variável aleatória – os itens – acrescentamos mais um termo a nosso modelo para que ele leve em conta esse efeito: interceptos aleatórios por item.

tempo ~ prime + (1|participante) + (1|item)

Por fim, a Figura 2 nos mostrou também que o declive da reta entre as duas condições difere para cada um dos participantes, e podemos assumir que isso também seja verdade para todos os 60 itens experimentais. Para considerar as diferenças dos declives – slopes – associados às condições experimentais, inserimos um novo termo no modelo chamado de slope aleatório, pode ser representado em nosso modelo da seguinte maneira:

tempo ~ prime + (1+prime|participante) + (1+prime|item)

A sintaxe 1 + prime pode ser lida como “intercepto aleatório + slope aleatório por prime”. De modo geral, essa equação se lê como “um modelo linear misto com tempo como variável resposta, prime como efeito fixo, interceptos aleatórios para participantes e itens e slopes aleatórios por prime para participantes e itens”. A partir dessa fórmula, criamos um MLM que tem como efeito fixo a condição prime, mas que considera, ao mesmo tempo, variabilidade por item e por participante. Ainda que uma ANOVA se proponha a fazer o mesmo, a análise por MLM permite considerar, em um único modelo, mais de uma fonte de variabilidade aleatória.

Uma vez introduzidos os parâmetros de um modelo misto, vejamos como se dá sua implementação e análise de resultados no R.

5. Modelos Lineares Mistos com um Efeito Fixo

Faremos um modelo misto considerando o conjunto de dados que vemos abaixo e que contém 4 colunas: tempo, com o tempo de resposta dos participantes em milissegundos; e prime, com identificação das condições de prime relacionado (rel) e não-relacionado (nrel); participante, com identificação dos 20 participantes da pesquisa; e item, com identificação dos 60 itens experimentais.

## tempo prime participante item

## 1 397.3359 nrel P_01 item_01

## 2 789.1405 nrel P_01 item_02

## 3 651.0004 nrel P_01 item_03

## 4 455.5234 nrel P_01 item_04

## 5 586.7212 nrel P_01 item_05

## 6 1113.3861 nrel P_01 item_06

## 7 966.7943 nrel P_01 item_07

## 8 734.0415 nrel P_01 item_08

## 9 681.3087 nrel P_01 item_09

## 10 859.2883 nrel P_01 item_10

Com a função lmer do pacote lme45, construímos um modelo linear chamado modelo.prime. Os argumentos de lmer são, nessa ordem, a fórmula do MLM a ser ajustada – e que construímos acima – e o nome do conjunto de dados a partir do qual se deve construir o modelo. Como resultado, temos o seguinte código:

modelo.prime <- lmer(tempo ~ prime + (1+prime|participante) + (1+prime|item), data = priming)

## Warning in checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, :

## unable to evaluate scaled gradient

Note que recebemos um aviso após rodar este ajuste, identificado por “Warning in checkConv(attr(opt, "derivs"), opt$par, ctrl = control$checkConv, : unable to evaluate scaled gradient”. Este erro se refere à função gradiente. O gradiente é uma técnica utilizada para encontrar o valor máximo da função de verossimilhança do modelo. A função de verossimilhança é importante para a teoria Estatística porque o seu máximo determina as estimativas dos parâmetros do modelo ajustado aos dados. Portanto, é fundamental que a procura pelo máximo desta função convirja numericamente. Assim, temos a garantia de termos chegado em um modelo com estimativas corretas para os seus parâmetros.

Recebemos apenas um aviso no ajuste de nosso modelo. Outro aviso muito comum que pode surgir neste tipo de análise é identificado por “Model failed to converge: degenerate Hessian with 1 negative eigenvalues”. Este aviso diz respeito à matriz Hessiana dos dados. Esta matriz determina a curvatura local da função que está sendo maximizada. Entretanto, ela necessita ser positiva semi-definida, ou seja, seus autovalores devem ser todos não-negativos. Somente assim é possível garantir que a estimativa do gradiente encontrou, de fato, um ponto de máximo global. De acordo com os resultados que obtivemos, com um autovalor negativo, não há garantia de que a estimativa encontrada para o modelo seja, de fato, o máximo procurado.

De maneira simplificada, isso indica que o modelo não foi ajustado a contento: as estimações numéricas realizadas não convergiram a um valor final referente a uma máxima global. Ou seja, os resultados obtidos pelo modelo não são confiáveis. Como a função lmer é baseada em um algoritmo iterativo, não há a garantia de que uma resposta sempre será encontrada, devido a problemas de convergência numérica. Infelizmente, esta característica surge devido a limitações computacionais que, até o momento da publicação deste trabalho, ainda não haviam sido sanadas (BOLKER et al., 2013; apud BATES et al., 2015[15,16]).

Para evitar problemas de convergência do algoritmo numérico iterativo, Barr et al. (2013)[17] sugerem que comecemos a análise da maneira que iniciamos, com a estrutura mais complexa possível para os efeitos aleatórios. Caso o modelo tenha problemas de convergência no método iterativo, devemos simplificar esta estrutura até atingir uma convergência sem problemas. Portanto, simplificaremos a estrutura dos efeitos aleatórios dos participantes, retirando o slope aleatório dos itens, mantendo apenas o intercepto aleatório para este efeito. Manteremos a estrutura dos participantes da maneira original.

modelo.prime <- lmer(tempo ~ prime + (1+prime|participante) + (1|item), data = priming)

Dessa vez, com as estruturas dos efeitos aleatórios para os participantes mantida como no modelo mais complexo, mas simplificando a estrutura aleatória definida para os itens, conseguimos que o modelo ajustado convergisse sem problemas. Vemos os resultados desse modelo através do comando summary.

summary(modelo.prime)

## Linear mixed model fit by REML ['lmerMod']

## Formula: tempo ~ prime + (1 + prime | participante) + (1 | item)

## Data: priming

## ## REML criterion at convergence: 15575.6

## ## Scaled residuals:

## Min 1Q Median 3Q Max

## -2.7733 -0.6842 -0.0081 0.6540 3.2723

## ## Random effects:

## Groups Name Variance Std.Dev. Corr

## item (Intercept) 12906 113.60

## participante (Intercept) 9145 95.63

## primenrel 5367 73.26 -0.69

## Residual 21161 145.47

## Number of obs: 1200, groups: item, 60; participante, 20

## ## Fixed effects:

## Estimate Std. Error t value

## (Intercept) 695.01 30.38 22.880

## primenrel 62.54 34.63 1.806

## ## Correlation of Fixed Effects:

## (Intr)

## primenrel -0.672

Há, em primeiro lugar, informações sobre os efeitos aleatórios (random effects). Nele, vemos a variabilidade dos dados que pode ser explicada pelos participantes e itens. Há, ainda, informação de variabilidade residual (residuals), que indica a variação que não pode ser explicada pelos parâmetros explícitos no modelo. A tabela de efeitos fixos nos informa os efeitos da nossa variável independente. Vemos que há duas linhas: (Intercept) e primenrel. Isso significa que o modelo assumiu a condição relacionada como intercepto, e está comparando a condição relacionada com ela. Por esse motivo, o coeficiente estimado para intercept corresponde à média de tempo de resposta para as palavras de prime relacionado (695,01ms). O p-valor do intercept é pouco informativo nesse caso: ele assume a hipótese nula de que o valor do intercepto é igual a zero, o que não diz nada sob o efeito investigado, pois nunca se esperaria que um tempo de resposta foi de zero milissegundos.

A média para as palavras de prime relacionado foi 757,50ms. Isso é 62,54ms a mais que a média do intercepto, como evidencia o valor positivo do coeficiente para a linha primenrel. Essa linha, portanto, nos dá o valor do coeficiente estimado para a condição relacionada em comparação aos valores do intercepto, bem como as estatísticas associadas a esse coeficiente.

6. Comparação de modelos aninhados

Até o momento, vimos que um MLM consegue lidar com a variabilidade de itens e participantes em um único modelo, tornando desnecessária uma análise que o faça a partir da agregação de médias para cada um desses termos, como uma ANOVA. Após a construção do nosso modelo na Seção 5, analisamos seus coeficientes para explicarmos como devemos lê-los. No entanto, esse artifício foi apenas um recurso didático, pois em geral se parte para a análise de coeficientes de MLMs apenas quando se encontra o melhor modelo ajustado. Esse modelo é aquele que consegue explicar a distribuição dos dados de modo mais parcimonioso, i.e., com o menor número de efeitos fixos possíveis. Pra encontrar o melhor modelo ajustado aos dados, fazemos o que se chama de comparação de modelos aninhados para realizar um teste de razão de verossimilhança. Nas palavras de Winter (2013, p. 12)[18], “verossimilhança é a probabilidade de observar seu conjunto de dados dado o seu modelo. A lógica do teste de razão de verossimilhança é comparar a verossimilhança de dois modelos entre si. Primeiro, o modelo sem o fator de interesse (…), e depois o modelo com o fator em que se está interessado”. No caso do experimento que estamos analisando, perguntamo-nos se os dados têm maior probabilidade de serem observados dado um modelo que tenha prime como efeito fixo em comparação a um modelo que não o tenha. Fazemos isso ao compararmos modelo.prime (que repetimos abaixo para incluir o argumento REML6) e modelo.nulo. A função anova é então usada para realizar o teste de razão de verossimilhança e averiguar se os dois modelos explicam os dados de maneiras significativamente distintas. Como modelo.nulo está aninhado (i.e., contido) em modelo.prime exceto pela variável que estamos investigando, dizemos que esta é uma comparação de modelos aninhados.

modelo.nulo <- lmer(tempo ~ 1 + (1+prime|participante) + (1|item), data = priming, REML = FALSE) modelo.prime <- lmer(tempo ~ prime + (1+prime|participante) + (1|item), data = priming, REML = FALSE)

anova(modelo.nulo, modelo.prime)

## Data: priming

## Models:

## modelo.nulo: tempo ~ 1 + (1 + prime | participante) + (1 | item)

## modelo.prime: tempo ~ prime + (1 + prime | participante) + (1 | item)

## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)

## modelo.nulo 6 15608 15638 -7797.9 15596

## modelo.prime 7 15606 15642 -7796.3 15592 3.2545 1 0.07123 .

## ---

## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Note que o próprio output explica quais foram os modelos considerados nesta análise. Para que os modelos sejam comparáveis, eles devem estar aninhados: modelo.nulo indica que este MLM não possui efeito de prime, enquanto modelo.prime possui este efeito.

Além disso, cada coluna da tabela resposta neste output possui seu próprio significado. Df indica o número de graus de liberdade de cada modelo. As colunas AIC e BIC são estatísticas chamadas Akaike Information Criterion e Bayaesian Information Criterion, respectivamente. Elas servem como auxiliares na escolha do melhor modelo para os dados analisados. Não existe um valor de referência para estas estatísticas. Vamos escolher o modelo que possua o menor valor de AIC ou BIC. Entretanto, esta decisão precisa ser tomada a partir de um Teste de Razão de Verossimilhanças, sobre o qual comentamos no próximo parágrafo. A coluna logLik reporta o logaritmo da máxima verossimilhança dos modelos ajustados. Este valor é utilizado no cálculo de AIC e BIC.

Para determinar se os valores de AIC e BIC reportados são estatisticamente diferentes, o indicado, estamos interessados em testar as hipóteses em que é o efeito procurado na análise. Em nosso caso, é o parâmetro que representa o efeito de prime. Sob a hipótese nula ( ), assumimos que este efeito é nulo, enquanto sob a hipótese alternativa ( ) assumimos o complementar disso. De acordo com Kutner et al. (2004), o Teste de Razão de Verossimilhanças é definido por em que indica o máximo do logaritmo da função de verossimilhança para os valores de sob a hipótese e indica o máximo do logaritmo da função de verossimilhança para os valores de sob a hipótese . Sob a , a estatística possui distribuição com graus de liberdade, em que e são o número de parâmetros a serem estimados pelos modelos prime e nulo, respectivamente.

As últimas três colunas deste output indicam o resultado do Teste de Razão de Verossimilhanças aplicado nos dois modelos. A coluna Chisq informa o valor da estatística calculada pela equação (4), enquanto Chi Df indica quantos graus de liberdade esta estatística possui. A coluna Pr(>Chisq) reporta o p-valor do teste aplicado.

Como o p-valor reportado (0,0712) está acima da taxa de erros do Tipo I considerada (em nosso caso, ), a comparação indica que não houve diferença na verossimilhança entre os modelos. Nesse caso, nosso pesquisador fictício deveria reportar os resultados com um texto como

“Ajustamos um Modelo Linear Misto com prime como variável preditora, interceptos aleatórios para participantes e itens e slope aleatório por prime para item. Uma comparação com modelos aninhados indicou que prime não contribui significativamente para o modelo ( , p-valor = 0,0712)”.

Supondo que o p-valor da comparação entre modelos fosse significativo, o indicado seria dizer que o melhor modelo ajustado foi o modelo com prime como efeito fixo (além de todos os efeitos aleatórios já citados). Além de reportar a estatística da comparação que atestaria essa significância, o pesquisador poderia ainda apresentar a tabela com os coeficientes do melhor modelo ajustado, indicando o , o erro padrão (Std. Error) e o valor-t associado ao prime não-relacionado7.

O objetivo deste artigo é apresentar uma alternativa ao uso da ANOVA nos casos em que o pesquisador encontra medidas repetidas provenientes de experimentos de tempo de resposta. Por isso, o exemplo de experimento apresentado contém apenas uma variável preditora e é bastante simples. Foge de nosso escopo detalhar os procedimentos para interpretação de resultados de modelos mais complexos, que contenham duas ou mais variáveis preditoras e suas interações. No entanto, destacamos que, nesse caso, também se mantém o método de comparação de modelos aninhados. Em vez de reportar os coeficientes do modelo mais complexo, o pesquisador primeiro testaria a significância dos efeitos fixos por meio de comparação de modelos, e então reportaria os coeficientes do modelo mais simples que melhor se ajusta aos dados. Para um passo-a-passo mais detalhado sobre como conduzir a análise de MLMs, recomendamos os tutoriais de Winter (2013, em inglês) e Godoy (2019, em português).

7. Discussão

Conforme visto nas análises feitas neste artigo, o modelo ANOVA apresentou resultados conflitantes em relação ao MLM. Enquanto a análise de dados tradicional, baseada nas estatísticas e , apresentou efeito significativo de prime por participante e por item, o modelo proposto neste trabalho não encontrou esses efeitos ao tomar conjuntamente a variabilidade dos efeitos aleatórios. Dado este quadro, nos posicionamos junto a Baayen, Davidson e Bates (2008)[1], Barr et al. (2013)[17], Bates et al. (2015)[16], Boker et al. (2013)[15], Winter (2013)[18] e Godoy (2019)[14] ao assumirmos que os resultados oriundos de MLMs são preferíveis.

O primeiro argumento que podemos usar a favor do MLM é a sua idade. Assim como todas as ciências, a Estatística também evoluiu. Quando Clark (1973)[4] propôs seu método de análise, a teoria de Modelos Lineares ainda estava incipiente. As últimas quatro décadas trouxeram muitos avanços para a análise de dados de experimentos, e é natural que ciências experimentais - como a psicolinguística - acompanhem essas mudanças.

Além disso, no começo da década de 1970, a computação científica estava em sua infância. Naquela época era desejável utilizar métodos estatísticos mais simples, pois o acesso a computadores não era largamente democratizado como nos dias atuais. Isto é particularmente importante em relação aos MLMs, pois estes são métodos que dependem da convergência de algoritmos iterativos. Estes algoritmos possuem instruções que são executadas centenas ou até milhares de vezes, o que tornava impraticável a aplicação destes métodos algumas décadas atrás. O pesquisador nos dias atuais não precisa limitar os métodos de análise que utiliza de acordo com as restrições de hardware existentes no passado.

Experimentos complexos exigem métodos de análise mais sofisticados. Embora à primeira vista não pareça que estamos trabalhando com um experimento deste tipo, lembremos que cada sujeito teve seu tempo de resposta medido mais de uma vez. Ou seja, a hipótese de independência das observações exigida pelo modelo ANOVA é violada, e isso aumenta a complexidade do experimento realizado. Se lembrarmos do tipo de cálculo necessário para agregar os tempos de resposta por participante e por item, percebemos que o pesquisador está descartando informações importantes coletadas durante o experimento. Utilizar apenas a média por participante ou por item despreza o comportamento que é mostrado na Figura 2, na qual vemos que cada participante reage do seu jeito ao experimento que foi aplicado.

Por fim, acreditamos que a resposta da análise de dados deve ser assertiva. O pesquisador deve ser capaz de concluir se o efeito de prime é significativo ou não. Ao reportar as estatísticas e e seus respectivos p-valores, é possível que apenas uma delas seja significativa. Assim, não é possível afirmar de maneira definitiva se o efeito de prime está presente ou não na análise realizada. Mais uma vez, uma análise por MLMs mostra vantagem por permitir que um único modelo combine dois ou mais efeitos aleatórios.

8. O uso de MLM em estudos linguísticos no Brasil

Há ainda poucos trabalhos no Brasil que fazem uso de MLM. Essa escassez se explica, em parte, pelo fato de a técnica ser relativamente nova nos estudos da linguagem. Podemos traçar sua popularização com a publicação de Baayen, Davidson e Bates (2008)[1] no periódico Journal of Memory and Language, provavelmente responsável pelo status privilegiado de que esse tipo de análise goza atualmente na comunidade internacional. Contudo, a falta de material em português pode dificultar o acesso de novos pesquisadores a essa classe de modelos.

Em termos de materiais disponíveis para consulta e para introdução a modelos lineares, há duas opções gratuitas e com foco em pesquisa linguística no país. Há o material do curso de estatística de Oushiro (2017)[19], voltado especialmente para dados oriundos de pesquisa sociolinguística e com duas sessões sobre regressão linear. O tutorial de Godoy (2019)[14] é uma opção para pesquisadores da área de psicolinguística que queiram começar a fazer análises por meio de modelos lineares. Ambos os materiais fazem uso da linguagem R para análise de dados. Com o auxílio desses recursos e a argumentação construída ao longo deste artigo, esperamos fomentar o uso de análises mais atuais que, no geral, contornam as limitações presentes em uma ANOVA tradicional.

References

  1. Baayen R. H, Davidson D. J., Bates D. M. Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language. 2008; 59(4):390-412.
  2. Barr D. J, et al. Random effects structure for confirmatory hypothesis testing: Keep it maximal. Journal of Memory and Language. 2013; 68(3):255-278.
  3. Bates D. , et al. Fitting Linear Mixed-Effects Models Using lme4. Journal of Statistical Software. 2015; 67(1):1-48.
  4. Bolker B. M, et al. Strategies for fitting nonlinear ecological models in R, AD Model Builder, and BUGS. Methods in Ecology and Evolution. 2013; 4(6):501-512.
  5. Clark H. H. The Language-as-Fixed-Effect Fallacy: A Critique of Language Statistics in Psychological Research. Journal of Verbal Learning and Verbal Behavior. 1973; 12:335-359.
  6. Costa I. O. Verbos meteorológicos no plural em orações relativas do português brasileiro: sintaxe e processamento. Dissertação (Mestrado em Estudos da Linguagem). Pontifícia Universidade Católica do Rio de Janeiro, Rio de Janeiro, 2013.
  7. Davenport J. M, Webster J. T. A comparison of some approximate -tests. Technometrics. 1973; 15:779-789.
  8. Debruine L. M, Barr D. J. Understanding mixed effects models through data simulation PsyArXiv. psyarxiv.com/xp5cy. 2020.
  9. Garcia G. D. When lexical statistics and the grammar conflict: Learning and repairing weight effects on stress. Language. 2019; 95(4):612-641.
  10. Godoy Mahayana. Introdução aos modelos lineares mistos para os estudos da linguagem. Open Science Framework. 2019. DOI
  11. Godoy M. C. O papel do conhecimento de eventos no processamento de sentenças isoladas. Letrônica. 2017; 10(2):538-554.
  12. Kruschke J. K, Liddel T. M. Bayesian data analysis for newcomers. Psychonomic Bulletin & Review. 2018; 25(1):155-177.
  13. Kutner M, et al. Applied Linear Statistical Models. McGraw-Hill/Irwin: New York; 2004.
  14. Lopes S. R. C, Nunes M. A. Long memory analysis in DNA sequences. Physica A: Statistical Mechanics and its Applications. 2006; 361(2):569-588.
  15. Moretin P. A, Bussab W. O. Estatística básica. Saraiva: São Paulo; 2004.
  16. Oushiro L. Introdução à Estatística para Linguistas. Zenodo; 2017.
  17. Raaijmakers J. G. W. A Further Look at the &quot;Language-as-Fixed-Effect Fallacy&quot;. Canadian Journal of Experimental Psychology. 2003; 57(3):141-151.
  18. Raaijamakers J. G. W, Schrijnemarkers J. M. C, Gremmen F. How to Deal with &quot;The Language-as-Fixed-Effect Fallacy&quot;: Common Misconceptions and Alternative Solutions. Journal of Memory and Language. 1999; 41:416-426.
  19. Smith J. E. K. The assuming-will-make-it-so fallacy. Journal of Verbal Learning and Verbal Behavior. 1976; 3:262-263.
  20. Wike E. L, Church J. D. Comments on Clark’s &quot;The language-as-fixed-effect fallacy&quot;. Journal of Verbal Learning and Verbal Behavior. 1976; 15(3):249-255.
  21. Winter B. Linear models and linear mixed effects models in R with linguistic applications. CoRR. 2013; abs/1308.5499
  22. Winter B. Statistics for Linguists: An Introduction Using R. Routledge: New York; 2019.