Resumo

Relações estreitas entre gramática e lógica são inegáveis. As primeiras gramáticas basearam-se claramente na lógica aristotélica e as gramáticas escolares são, hoje, a principal manifestação do modo de entender as linguagens que dela decorre. As teorias linguísticas contemporâneas, apesar de, em parte ao menos, abandonarem a lógica aristotélica, constroem seus modelos analíticos a partir de noções e processos oriundos da lógica matemática. Essas noções, no entanto, nem sempre são bem compreendidas e alguns resultados de sua aplicação à teoria linguística são surpreendentes. Vou analisar aqui o uso da noção lógico-matemática de recursividade na gramática gerativa, que a converte numa noção biológica.

Introdução

Vou abrir este texto com uma afirmação forte e categórica: nunca houve gramática que não fosse baseada na lógica. Se não diretamente, pelo menos assentada em noções e processos desenvolvidos pelos lógicos. Portanto, o debate sobre as relações entre a lógica e a gramática não pode se basear em tentativas de afirmar/negar essa relação, mas sim em esclarecer – e eventualmente rever determinados aspectos – uma relação que tem mais de dois mil anos.

Essa relação, no entanto, nem sempre é pacífica. Mútuas incompreensões pavimentam a estrada que liga a lógica à gramática, por vezes quase tornando-a intransitável.

1. Gramática e lógica aristotélica

Começo dizendo que conhecemos basicamente dois tipos de lógica: uma lógica baseada em supostas características das línguas naturais e uma lógica baseada em supostas características da linguagem da matemática.

O primeiro tipo de lógica é conhecido como “lógica aristotélica” e foi a única lógica conhecida até fins do século XIX. Surge na antiguidade como uma “teoria da demonstração”, que buscava avaliar os raciocínios e os argumentos em busca de uma “verdade” mais segura. Começa a ser construída por Aristóteles e vai ser desenvolvida e aperfeiçoada pelos estóicos, pelos filósofos medievais, até receber uma formulação que pode ser considerada definitiva pelos senhores de Port Royal, no século XVII. Em nossos dias, esse tipo de lógica não é mais utilizada e só tem interesse histórico.

Uma de suas características está em ter sido construída a partir do conhecimento acumulado, no tempo de Aristóteles, sobre a língua grega. Aristóteles constrói um modelo de análise linguística (rudimentar, frente ao nosso conhecimento atual) como base para seu modelo de análise lógica. E é justamente essa análise linguística rudimentar que vai constituir a base para o desenvolvimento da gramática.

Aristóteles e seus seguidores atribuem aos enunciados gregos uma estrutura tripartite – sujeito, cópula e predicado (ou atributo) – e a partir dessa estrutura constroem o núcleo da lógica (a teoria do silogismo categórico). Com base na distinção nas diferentes formas de predicação, Aristóteles estabelece um conjunto de Categorias.

O filósofo Gilbert Ryle (RYLE 1953), refletindo sobre as categorias aristotélicas, se pergunta: “Aristóteles pensava que sua lista de Categorias era uma lista de quê?” e responde que a lista de Aristóteles pretendia ser uma lista dos tipos últimos dos predicados”. O raciocínio é o seguinte: imaginemos um conjunto de proposições, simples e singulares1, todas elas sobre um mesmo particular. A diferença entre elas será dada pelo predicado que cada uma atribui ao particular. Esses predicados, por sua vez, são classificados num número finito de “famílias” ou “tipos” da seguinte maneira: qualquer proposição simples acerca de um particular, “Sócrates”, por exemplo, responde a uma suposta pergunta feita sobre “Sócrates”; qualquer pergunta feita sobre “Sócrates” determinará uma gama de respostas possíveis, de forma que algumas proposições sobre “Sócrates” serão respostas à pergunta e algumas proposições não o serão.

Segundo Ryle (1956: 30):

.

Existem tantos tipos diferentes de predicados de Sócrates quantas espécies irredutivelmente diferentes de perguntas existem acerca dele. Assim, a pergunta: que tamanho? Seleciona e reúne as respostas: um metro e oitenta de altura, um metro e sessenta de altura, oitenta quilos, sessenta quilos, etc., não selecionando bastante cabeludo, no jardim ou um pedreiro. Onde? seleciona e reúne predicados de localização; que tipo? seleciona predicados de espécie; parecido com o quê? seleciona qualidades, e assim por diante.

.

Dois predicados que satisfaçam a mesma pergunta pertencem à mesma categoria; dois predicados que respondam a perguntas distintas pertencem a categorias distintas. Podemos fazer, sobre um objeto particular, uma série de perguntas e, cada uma delas, vai expor, em suas respostas, um conjunto de predicados possíveis do objeto particular em questão.

Por outro lado, podemos perguntar, também, sobre os predicados, quem o possui? ou qual deles o possui? e as respostas a essas perguntas vão indicar objetos particulares, como Sócrates, eu, o filósofo, etc. Estas perguntas, então, não delimitam conjuntos de predicados e sim conjuntos de possuidores de predicados. Nas palavras de Ryle (1953: 30):

.

Assim, Sócrates está na categoria de substância, ao passo que de nariz chato está na categoria de qualidade e marido, na categoria de relação. Como resultado dessa expansão, categoria não mais significava apenas tipo de predicado, mas tipo de termo, onde termo significa fator que pode ser abstraído num conjunto de proposições simples e singulares.

.

Por esse procedimento, Aristóteles vai compor uma lista de categorias, entendidas como tipos de termos. Como Aristóteles sempre toma por base a linguagem natural (língua grega, no caso), tanto para listar as espécies de perguntas quanto para estabelecer as respostas possíveis, não é difícil entender como de suas Categorias chegamos às classes de palavras (ou partes do discurso) reconhecidas pela Gramática Tradicional.

Creio que a posteridade deu dois passos a partir dessa posição: (i) associou a Categoria aristotélica à sua expressão e passou a denominar as expressões com os designadores das Categorias, resultando nas classes de palavras, definidas nocionalmente; (ii) diante de certo fracasso das definições nocionais, passou a classificar as expressões a partir dos esquemas sentenciais de que participam, ignorando a contraparte categorial, resultando nas classificações formais (morfossintáticas) das expressões. Já entre os alexandrinos (séc. I a.C.) encontramos classificações formais coexistindo com as classificações nocionais.

Para Aristóteles, a construção de um juízo (uma sentença, uma proposição) sempre pressupunha a identificação de um particular (designado por um nome) e a atribuição ou negação de um predicado a esse particular. Percebendo que nem sempre os predicados tinham escopo sobre a totalidade do particular, os aristotélicos criaram uma “teoria da distribuição” e foram obrigados – por razões essencialmente lógicas – a distinguir nomes próprios de nomes comuns (distinção estabelecida originalmente por Crisipo de Solis, filósofo estóico que viveu no século III a.C.), a identificar e descrever os quantificadores (universal e particular), a mostrar como os verbos, com a exceção do verbo “ser” (a cópula), são amálgamas da cópula com algum atributo, e assim por diante.

Deste modo, as estruturas sintáticas e a classificação das palavras foram sendo identificadas primeiramente para fins da lógica. Filósofos e gramáticos interessados nas línguas e não na lógica usaram, subsidiariamente, as noções da lógica para construir gramáticas.

Os construtores das primeiras gramáticas, da língua grega (cf. Dionísio Trácio no séc. I a.C.) ou da língua latina (como Varrão no século I a.C.) não mais tinham por objetivo o desenvolvimento da lógica, mas não se afastaram muito da análise linguística aristotélica no que diz respeito à teoria linguística de fundo. Dessa forma, embora tivessem outros objetivos, as gramáticas da antiguidade basearam-se fortemente na teoria linguística construída pelos lógicos. Creio que posso fazer, nesta altura, outra afirmação forte: a gramática greco-latina é subproduto da lógica aristotélica.

Exemplos claros dessa interdependência entre gramática e lógica podem ser vistos nas gramáticas especulativas da baixa Idade Média (entre 1200 e 1400), particularmente na Gramática de Tomás Erfurt (1315), ou no trabalho de Antoine Arnauld, que escreveu a Lógica de Port Royal e a Gramática de Port Royal na segunda metade do século XVII.

As gramáticas ditas “tradicionais”, ainda em nossos dias, mantêm- se fiéis à teoria (ou, como querem alguns, à doutrina gramatical) das gramáticas da antiguidade e, consequentemente, a seu suporte lógico- linguístico.

2. Gramática e lógica matemática

O segundo tipo de lógica surge basicamente do trabalho de matemáticos e é conhecida como “lógica matemática” (entre outras denominações, como “lógica simbólica”, p. ex.).

Esta nova lógica deixa de ter a língua natural como suporte para a construção de seus modelos e passa a usar características da linguagem da aritmética no desenvolvimento de seus modelos.

Com exceção de alguns poucos trabalhos pioneiros, como os de Yehoshua Bar-Hillel, Joachim Lambek e Richard Montague, poucas foram as tentativas de construir uma gramática para as línguas naturais que tivessem como sustentação a lógica matemática.

Não obstante, noções oriundas dessa nova lógica são frequentemente usadas na construção de propostas, de caráter eminentemente linguístico, para análise de fenômenos das línguas naturais. Não podemos esquecer, por exemplo, a tentativa de axiomatização da teoria linguística proposta por Bloomfield, já nos anos 1920 (Bloomfield, 1926).

O exemplo mais claro dessa utilização de noções oriundas da lógica e da matemática na construção de teorias linguísticas, no entanto, pode ser visto no trabalho de Noam Chomsky, em sua Gramática Gerativa. Muito já se escreveu sobre a forte influência exercida pela lógica no trabalho de Chomsky, particularmente nos anos 1950. Um trabalho recomendável sobre o assunto é (Tomalin, 2006), que trata com profundidade as relações entre lógica, matemática e as primeiras formulações da gramática gerativa.

Numa descrição grosseira, a gramática gerativa de Chomsky inicia com a proposta de que, ao contrário do que pensavam os estruturalistas americanos, a pesquisa linguística prescinde das coletas de corpora. Para os estruturalistas, a coleta de um corpus antecedia o estudo de uma língua e era sobre os dados do corpus que se construíam as hipóteses teóricas. Para Chomsky, esse corpus inicial é inútil. O trabalho deve começar pela criação de um conjunto de regras (um mecanismo formal) capaz de produzir expressões linguísticas de uma determinada língua: se as regras forem adequadas, o resultado obtido será um conjunto de expressões (sentenças, em princípio) que corresponde integralmente aos muitos corpora que podemos coletar junto aos falantes daquela língua.

A proposta original de Chomsky era a de construir um sistema formal com capacidade gerativa que especificaria todas, e apenas, as sentenças gramaticais de uma dada língua. O sistema formal – uma gramática gerativa no sentido lógico-matemático do termo – geraria o corpus máximo da língua. Em outras palavras, a ideia de Chomsky – ainda muito influenciado pelo pensamento estruturalista – era obter um meio mecânico que permitisse chegar à língua tal como definida por Bloomfield (Bloomfield 1926: 155): “a totalidade dos enunciados que podem ser feitos numa comunidade linguística é a língua desta comunidade linguística”. A gramática gerativa seria o mecanismo capaz de enumerar todos, e apenas, os enunciados que podiam ser feitos numa comunidade linguística.

Esse sistema – a gramática gerativa – é equivalente a um tipo de mecanismo desenvolvido pelos lógicos para especificar o conjunto de expressões bem formadas (EBFs ou WFFs, em inglês) nas linguagens do cálculo lógico.

Acreditando que as características das línguas naturais diferem das características das linguagens dos lógicos, Chomsky mostra que apenas mecanismos de reescritura (gramáticas sintagmáticas, sistemas produtivos de Post ou sistemas semithueianos) seriam insuficientes e acrescenta à sua teoria um conjunto de regras transformacionais. Chomsky chega assim à Gramática Gerativa Transformacional, nome que por muitos anos recebeu a sua teoria linguística.

No entanto, metodologicamente nascida da lógica, a gramática gerativa traz em si inúmeros mecanismos e procedimentos dela herdados.

A gramática gerativa busca chegar à Gramática Universal (GU), que é um mecanismo formal gerador de gramáticas particulares e que deve ser inato. Nesta busca, os gerativistas têm tentado chegar a mecanismos simples, biologicamente viáveis, que, juntamente com um mecanismo geral de aquisição de informações do meio (LAD – “Language Acquisition Device”), permitam passar das informações inatas da GU às diversas gramáticas das línguas particulares.

É preciso notar que os gerativistas pressupõem que as línguas humanas são essencialmente diferentes dos sistemas de comunicação dos animais. É preciso incluir, então, na GU, características que diferenciem cabalmente as línguas humanas dos outros sistemas comunicativos.

Uma proposta recente de característica diferenciadora consiste em dizer que as línguas humanas são essencialmente recursivas, enquanto os sistemas de comunicação dos animais ou não são recursivos ou têm a recursividade como uma propriedade marginal.

3. A recursividade

Passemos, então, à recursividade, uma das noções lógico-matemáticas que estão presentes na gramática chomskiana desde os primeiros tempos, e uma noção cada vez mais relevante e central para os gerativistas.

Na matemática, um processo recursivo define objetos a partir de objetos do mesmo tipo. Um bom exemplo é a série de Fibonacci, em que cada novo número da série é obtido a partir da soma dos dois números anteriores (por exemplo, começando com 1, a série continuaria com 1, depois 2, depois 3 e assim por diante: 1, 1, 2, 3, 5, 8, 13, 21, 34, ...). Embora não necessariamente, a série de Fibonacci é geralmente definida por meio de uma regra recursiva (uma regra que se aplica, sucessivamente, ao resultado de sua última aplicação).

Para Chomsky, de início, a presença de mecanismos recursivos na gramática de uma língua natural tem apenas o papel de simplificar o sistema de regras: está ligada, então, a critérios de simplicidade relativos à formulação das regras.

No entanto, a existência de regras recursivas na teoria passou a ser identificada com a existência de determinados tipos de estrutura nas línguas descritas. Os linguistas – em geral pouco conhecedores de lógica e matemática – passaram a acreditar que a existência, numa língua, de estruturas encaixadas, como (1) e (2), eram razão suficiente para que se postulassem regras recursivas na gramática dessa língua.

.

(1) O gato que Maria ganhou comeu o peixe.

[O gato [que Maria ganhou] comeu o peixe].

.

(2) O rato que o gato que o cachorro mordeu caçava fugiu.

[O rato [que o gato [que o cachorro mordeu] caçava] fugiu].

.

Em 2002, Chomsky e dois outros pesquisadores – Marc Hauser e W. Tecumseh Fitch – levantam a hipótese de que a propriedade que distingue as línguas humanas dos sistemas de comunicação animal, é a recursividade2: propriedade universal das línguas humanas, a recursividade estaria ausente dos sistemas de comunicação dos animais (ou teria neles apenas um papel marginal).A noção formal de recursividade é ontologizada: a recursividade passa a ser incluída entre as propriedades da gramática biológica3.

Para eles a expressão “faculdade da linguagem” pode assumir dois sentidos: no sentido mais amplo (FLB – facultyo flanguage – broad sense), além do sistema computacional interno, inclui dois sistemas que não são propriamente linguísticos: o sistema sensório-motor e o sistema conceptual-intencional; no sentido mais restrito (FLN – facultyo flanguage – narrow sense), é constituído apenas pelo sistema computacional linguístico abstrato, independente de outros sistemas com que interaja ou com que estabeleça interfaces. Nas palavras de Hauser, Chomsky e Fitch (2002: 1571)4: “Todas as abordagens concordam que uma propriedade central da FLN é a recursividade”.

Hauser, Chomsky e Fitch discutem duas hipóteses correntes entre os pesquisadores, sem optar por nenhuma delas: (i) FLB é estritamente homóloga à comunicação animal e (ii) FLB é uma adaptação derivada, unicamente humana, para a linguagem. No entanto, apresentam – e tentam dar suporte no texto – a uma terceira hipótese: Apenas FLN é unicamente humana.

Como já afirmaram que a recursividade é central na FLN, Hauser, Chomsky e Fitch passam a estudar essa propriedade nos sistemas de comunicação dos animais e concluem que há alguma evidência a favor da presença da recursividade em alguns animais, mas apenas em domínios não comunicativos. Esta conclusão remete a novas perguntas: Por que apenas os humanos, e não os outros animais, usaram o poder da recursividade para criar um sistema de comunicação ilimitado? Por que o nosso sistema recursivo opera sobre um número de elementos (p.ex. números, palavras) maior do que o sistema dos outros animais? Para Hauser, Chomsky e Fitch (2002: 1578),

.

Uma possibilidade, consistente com o pensamento atual nas ciências cognitivas, é que a recursividade em animais seja um sistema modular desenhado para uma função particular (p. ex., navegação) e incapaz de penetrar outros sistemas. Durante a evolução, o sistema recursivo, modular e altamente específico de um domínio, tornou- se de domínio geral e capaz de penetrar outros sistemas. Isso abriu o caminho para que os humanos, talvez unicamente, aplicassem o poder da recursividade a outros problemas (os grifos são acrescentados).

.

Não quero discutir aqui a proposta de Hauser, Chomsky e Fitch, na medida em que se trata ainda de pura especulação. Quero discutir um pouco mais a noção de recursividade que eles estão assumindo. O que eles entendem por recursividade nesse contexto não-lógico, mas essencialmente biológico? Já escrevi alguma coisa sobre o assunto – a partir do debate entre Daniel Everett e Nevins, Pesetsky e Rodrigues sobre a recursividade no pirahã (Borges Neto, 2014)– mas quero abordar a questão numa perspectiva diferente e a partir de publicações bem recentes.

Em 2014, são publicados inúmeros trabalhos que discutem a noção de recursividade e sua aplicação nas teorias linguísticas. Entre eles, em janeiro é publicado, numa plataforma eletrônica destinada à apresentação do resultado de pesquisas e debate dessas apresentações chamada Frontiers in Psychology, um texto chamado “On recursion”, escrito por Jeffrey Watumull, Marc Hauser, Ian Roberts e Norbert Hornstein (Watumull et al., 2014). Em abril, David Lobina publica um texto chamado “Probing Recursion” no periódico Cognitive Processing (Lobina, 2014a) e, em maio, dois outros textos: um chamado “What linguists are talking about when talking about...” (Lobina, 2014b), no periódico Language Sciences, e outro chamado “When linguists talk mathematica llogic” (Lobina, 2014c), na plataforma Frontiers in Psychology.

No que segue, vou apresentar algumas questões levantadas por esses textos – particularmente pelos textos de David Lobina – sobre o alcance da noção de recursividade na teoria linguística e sobre alguns equívocos que os linguistas cometem quando se valem dessa noção, de natureza lógico-matemática, no estudo de fenômenos biolinguísticos.

Vou começar pela crítica que Lobina (2014c) faz da noção de recursividade proposta em (Watumull et al., 2014), mostrando que ela resulta simplesmente de má compreensão do que os lógicos e matemáticos propõem.

Não vou entrar em detalhes técnicos que acredito não caberem aqui, mas a crítica de Lobina se baseia nas seguintes considerações:

.

a)

  • A noção de recursividade de Watumull et al. baseia- se, explicitamente, numa suposta definição de recursividade proposta em Gödel (1931). Mas a leitura que fazem de Gödel está errada. O que Gödel quer definir, em seu trabalho, é uma classe de funções – as funções recursivas primitivas – e não, como acreditam Watumull et al., a recursividade em si.
  • b)

  • A definição de Gödel não é uma combinação de propriedades que delimitam um conceito, como Watumull et al. parecem entender. Gödel apenas diz que dada uma lista de funções, qualquer uma delas será dita recursiva se (i) for definida por indução de outras funções anteriores, OU (ii) for substituída por alguma delas, OU (iii) for a função constante, OU (iv) for a função sucessor. Em outras palavras, Watumull et al. entendem como ligada por conjunção a lista disjuntiva de propriedades apresentada por Gödel.
  • .

    O resultado, então, é que a caracterização da recursividade feita por Watumull et al. é lógica, matemática e computacionalmente inadequada. Embora explicitamente baseada em uma noção lógico-matemática, o termo recursividade não está sendo usado com o mesmo sentido que tem na lógica, na matemática e na computação. No mínimo, há uma redefinição do termo quando usado na linguística. E tal redefinição é ignorada ou sequer percebida.

    Segundo Lobina (2014b: 56), um olhar sobre o modo como a noção de recursividade foi introduzida na linguística mostra que Chomsky sempre entendeu essa noção como uma característica central dos processos gerativos da forma como se fazia na lógica matemática dos anos 1930 a 1950.

    A recursividade é a propriedade de autoreferência presente em todos os tipos de funções recursivas. Definições recursivas (ou definições por indução), além disso, justificam cada estágio das computações efetuadas pelos procedimentos computacionais, tais como: sistemas de produção de Post (regras de reescritura, em linhas gerais) e operadores sobre conjuntos como merge. Isto torna a recursividade uma característica verdadeiramente crucial para a gramática gerativa.

    Porém, a literatura linguística contemporânea confundiu essa propriedade das gramáticas com outras coisas, como: sentenças encaixadas, operações encaixadas ou certos tipos de regras de reescritura. E esses equívocos obscurecem o papel que a recursividade possa ter na teoria da linguagem. O texto de Lobina (2014b) discute, separadamente, quatro desses equívocos: (i) confundir mecanismos recursivos com seus produtos; (ii) confundir funções recursivamente definidas e sentenças com encaixamentos; (iii) confundir regras recursivas e operações de encaixamento; (iv) confundir o que uma operação faz com o como ela se aplica. Quer me parecer, no entanto, que, embora tecnicamente distintos, os quatro equívocos têm uma origem única – uma espécie de “macro equívoco” – que poderia ser caracterizado como uma confusão entre mecanismos formais e fenômenos linguísticos. Como tento evitar exposições muito técnicas, vou tratar informalmente os quatro equívocos apontados por Lobina, sem tentar distingui-los.

    A questão básica é achar que uma gramática que apresente regras recursivas deve gerar uma língua com estruturas de algum tipo especial (estruturas encaixadas) e que estruturas com encaixamento só podem ser geradas por gramáticas que incluam mecanismos recursivos.

    O que se esquece é que a recursividade é uma propriedade exclusiva das gramáticas e não das línguas.

    Ray Jackendoff, em (Jackendoff, 2011), distingue recursividade formal (um conjunto de regras que podem se aplicar a seu output) de recursividade estrutural (um conjunto de estruturas que são geradas recursivamente). Para ele, a evidência para o primeiro tipo de recursividade repousa em dados do segundo tipo. Aparentemente, Jackendoff está assumindo que a recursividade é uma noção que pode ser também aplicada a objetos, além dos mecanismos computacionais. Ou seja, que a recursividade também pode ser entendida como fenômeno que existe nas línguas.

    Se Jackendoff está certo, a distinção entre recursividade formal e estrutural faria algum sentido. O ponto a discutir, porém, é que a suposta existência de estruturas recursivas (estruturas com múltiplos encaixamentos, por exemplo) num determinado domínio não implica, necessariamente, que elas devem ser geradas recursivamente. Assim como a presença de regras recursivas numa gramática não implicaria que a língua tivesse, necessariamente, estruturas recursivas. É sobejamente conhecido na área da computação o fato de que uma língua com encaixamentos pode ser gerada por uma gramática sem regras recursivas e que uma gramática com regras recursivas pode gerar uma língua sem encaixamentos. Recursividade é uma propriedade das gramáticas; encaixamento é uma propriedade das línguas.

    É um equívoco grave confundir a recursividade de algumas regras com operações de encaixamento. Esta transferência de uma propriedade do mecanismo computacional para uma propriedade das estruturas não poderia acontecer: “it simply fuses two diferente computational operation sinto one” (Lobina 2014b: 66).

    Lobina aponta este equívoco também em (Fitch, 2010). Fitch afirma que, em linguística, ao contrário do que ocorre em lógica e matemática, uma regra recursiva tem a propriedade de gerar estruturas com encaixamento. Segundo Fitch (2010: 79), “[a] recursive rule is one which has the property of self-embedding, that is, in which the same phrase type appears on both sides of a phrase structure rewrite rule”. A motivação de Fitch é aparentemente metodológica: uma vez que não podemos observar diretamente a função (ou o “código de programação”), supomos que regras recursivas geram estruturas recursivas. A consequência é que Fitch acaba por igualar recursividade com operação de encaixamento. A regra será recursiva porque deve gerar estruturas encaixadas e as estruturas têm encaixamento porque são geradas por regras recursivas.

    Na verdade, a regra é recursiva por causa de sua capacidade de “chamar a si mesma” e seu efeito não tem nada a ver com o encaixamento de uma estrutura em outra, como supõe Fitch.

    Como já disse em outro lugar (Borges Neto, 2014), este é um equívoco cometido também por Daniel Everett, embora na direção contrária. Para Everett, a inexistência de estruturas de encaixamento na língua pirahã implica a ausência de recursividade na gramática internalizada dessa língua. Ou seja, Everett, claramente, iguala regra recursiva com operação de encaixamento.

    Mesmo que sistemas produtivos com merge (como acontece com a versão minimalista da Gramática Gerativa) envolvam a postulação de uma operação que “encaixa” um objeto em outro já construído, isso não pode ser confundido com a definição de merge como um procedimento que constrói recursivamente objetos sintáticos. Ou seja, encaixar objetos em outros é o que merge faz (o que resulta da operação de merge são encaixamentos), não necessariamente o como merge procede. Em outras palavras, merge não é, necessariamente, uma operação recursiva. Voltamos a destacar que encaixamento e recursividade são coisas diferentes. Não podemos confundir o que uma operação faz (o que resulta dela) com o modo como procede.

    As regras são mecanismos formais que usamos para chegar a determinados resultados. Assim como podemos descrever operações de encaixamento por meio de regras recursivas, podemos fazê-lo sem regras recursivas. A presença de encaixamentos no resultado da aplicação da regra de merge, não exige que merge seja uma regra recursiva. O eventual argumento de que a formulação de merge como uma operação recursiva simplifica a gramática nos leva, de volta, à questão da simplicidade. Seria necessário que a simplicidade passasse a ser mais do que uma mera postulação para que pudesse ser usada como argumento em favor da existência de regras recursivas na gramática biológica.

    A literatura parece confundir um passo recursivo em uma computação com uma operação que encaixa elementos em outros. Para os cientistas da computação, a recursividade é uma propriedade do como uma operação se dá e não o que uma operação faz. Como diz Lobina (2014b: 67): “a great number of computations can be specified recursively – the factorials, the Fibonacci series, etc. – but they all exhibit different combinatorial operations”. Ou seja, a fatoração e as séries de Fibonacci são operações combinatórias distintas (fazem coisas distintas) e, no entanto, podem ser, ambas, tratadas recursivamente (o modo como operam pode ser o mesmo).

    Conclusão

    Como podemos ver, esses equívocos parecem ter uma mesma fonte: a confusão entre mecanismos formais e os objetos do mundo que os mecanismos formais deveriam ajudar a descrever. No fundo, uma confusão entre teoria e empiria, resultado talvez de uma naturalização da teoria, como tenho dito em outros lugares (ver, por exemplo, a resenha que publiquei sobre a distinção entre flexão e derivação – (Borges Neto, 2012)). Notem que é completamente diferente dizer que a recursividade é uma habilidade cognitiva e dizer que há uma habilidade cognitiva que pode ser descrita adequadamente por mecanismos recursivos. Naturalizar teorias é fonte potencial de equívocos sérios.

    Para finalizar, quero dizer que é preciso – o mais possível – formalizar teorias e hipóteses linguísticas. O papel da formalização é o de obter explicitude, de liberar a linguística do “achismo”, de hipóteses obscuras, de sistemas inconsistentes, de noções vagas e de procedimentos inaplicáveis. Mas o uso inadequado de noções mal compreendidas não ajuda a explicitude, apenas obscurece mais nossas teorias e hipóteses.

    Como me disse certa vez Carlos Franchi: a lógica deve ser feita pelos lógicos; os linguistas não devem se meter a fazer o que não sabem. O que eles precisam é saber dizer com clareza para os lógicos o que querem que os modelos formais representem. Linguística não é lógica ou matemática. E nenhuma das três é trabalho para amadores.

    Referências

    1. A set of postulates for the science of language BLOOMFIELD L. Language.1926;2:156-164.
    2. Flexão e derivação: será que os tratamentos dados a esta distinção não adotam uma perspectiva enviesada? BORGES NETO J. Cadernos de Estudos Linguísticos.2012;54(2):307-317.
    3. Variabilidade das línguas e invariância: escolhas dos linguistas BORGES NETO J. In: REZENDE L. M, SILVA O. N, MENDONÇA M. C, ZAVAGLIA C, BRUNELLI A. F, eds. A interdisciplinaridade e a especificidade linguística: teoria e práticas. São Paulo: Cultura Acadêmica; 2014 .
    4. Three meanings of “recursion”: key distinctions for biolinguistics FITCH W.T. In: LARSON R. K, DÉPREZ V, YAMAKIDO H, eds. The evolution of human language: biolinguistics perspectives. Cambridge: Cambridge University Press; 2010 .
    5. The faculty of language: What it is, who has it, and how did it evolve? HAUSER M. D, CHOMSKY N, FITCH W. T. Science.2002;298:1569-1579.
    6. What is the human laguage faculty? Two views JACKENDOFF R. Language.2011;87(3):586-624.
    7. Probing recursion Lobina David J.. Cognitive Processing.2014a;15(4). CrossRef
    8. What linguists are talking about when talking about... LOBINA D. L. Language Sciences.2014b;:56-70.
    9. When linguists talk mathematical logic LOBINA D. L. Frontiers in psychology.2014c;:1-3.
    10. Investigating Recursion within a domain-specific framework MARTINS M. D, FITCH W. T. In: LOWENTHAL F, LEFEBVRE L, eds. Language and Recursion. New York: Springer; 2014 .
    11. Categorias RYLE G. In: Coleção Os Pensadores. São Paulo: Abril Cultural; 1975 [1953] .
    12. Linguistics and the Formal Sciences. The origins of Generative Grammar TOMALIN M. Cambridge: Cambridge University Press; 2006.
    13. On recursion WATUMULL J, et al . Frontiers in Psychology.2014;4:1-7.