Cpdpédia Wiki
Advertisement

Este material foi extraído e adaptado da Tese de Doutoramento de Ana Paula da Silva Huback: Efeitos de frequência nas representações mentais, sob orientação da Profa. Dra. Thaïs Cristófaro-Silva, na Faculdade de Letras da UFMG, em 2007. O material, que merece ser lido pela clareza e informatividade, encontra-se, na íntegra, aqui [1].

No que diz respeito à questão da estocagem das palavras no léxico mental dos falantes, várias teorias foram propostas no sentido de entender como a mente humana categoriza, armazena e acessa informações lingüísticas. Apesar de existirem vários modelos teóricos que discutem esse tema, em linhas gerais, a diferença mais proeminente entre tais abordagens reside no papel que cada uma delas confere ao léxico.

De um lado, encontramos propostas, como a Teoria de Palavras e Regras, que defendem a existência de regras abstratas a partir das quais palavras e sentenças são formadas. Nesse tipo de modelo, o papel do léxico é relativamente reduzido, porque se propõe a armazenagem de radicais e afixos e, a partir da aplicação de regras abstratas, palavras e sentenças são formadas. Palavras inteiras são armazenadas apenas se forem irregulares e, portanto, não dedutíveis a partir de regras.

Por outro lado, existem propostas, como o Modelo de Redes e a Teoria dos Exemplares, que conferem papel crucial ao léxico, visto que todas as palavras, inclusive as regulares e morfologicamente complexas, podem ser estocadas e, além disso, existe, também, a possibilidade de armazenagem de fatores pragmáticos e sociais associados aos itens léxicos. Portanto, sob o ponto de vista macroestrutural, poderíamos afirmar que as teorias de estocagem de informações lingüísticas diferem, primordialmente, em sua forma de conceber o léxico mental ela é espetacular a mulher kama sutra.

Modelo conexionista[]

É um modelo de redes neurais que tenta emular o funcionamento dos processos cognitivos. Em vez de apenas receber e processar as informações, torna possível a aprendizagem com base nos estímulos a que está exposto. Dessa forma, torna possível simular a maneira como o cérebro humano armazena e acessa as informações linguísticas.

De acordo com Cielo (1998), o conexionismo surgiu com o objetivo de simular a topologia neurológica do cérebro. Vários elementos computacionais simples, semelhantes a neurônios, foram conectados entre si, numa estrutura de redes, e passaram a receber, em paralelo, sinais uns dos outros por meio das suas conexões, exercendo influências mútuas entre si.

Nesse sentido, trata-se de um modelo que pode ser treinado a desempenhar diversas tarefas, tais como prever o reaparecimento de um objeto por detrás de uma tela, flexionar um verbo no passado, prever a palavra seguinte numa frase, categorizar objetos, categorizar sons da fala, "ler" um texto escrito, pegar uma bola ou equilibrar uma régua. De acordo com Plunkett (2000), para cada uma dessas atividades, o algoritmo de aprendizagem ajusta cuidadosamente a força das conexões na rede até atingir um desempenho similar ao do cérebro de um adulto. Esse modelo interessa aos estudiosos da cognição, uma vez que demonstra, de forma explícita, como a aprendizagem ocorre dentro das redes.

Apesar de haver várias formas de se fazer conxenionismo, todas elas compartilham as seguintes características:

  • O processamento de informações é realizado por grupos de elementos chamados nós ou unidades. Esses itens são configurados para imitar o funcionamento dos neurônios. Sendo assim, o acesso a um desses nós repercute nos demais.
  • Em vez de adotarem representações simbólicas, as redes neurais artificiais empregam padrões de ativação para as diferentes unidades.
  • Por meio de algoritmos de aprendizagem, essas redes são capazes, por si mesmas, de atribuir diferentes pesos para as conexões. Esse procedimento dispensa a realização de ajustes por um ser humano;
  • Relacionando formas de input (estímulo apresentado) com formas de output (resultado alcançado), a rede ajusta os pesos das conexões e melhora seu desempenho após sucessivos treinamentos.

O modelo funciona da seguinte maneira: quando se depara com um input, ele produz um resultado (output) e este é comparado com um alvo, que é a forma real (gramaticalmente correta) daquela palavra. A diferença entre a forma produzida pelo modelo e a forma esperada é calculada para cada resultado alcançado e, através de ajustes na rede, o sistema vai aprendendo a fornecer gradativamente as formas corretas para as palavras apresentadas.

A representação fonológica dos itens léxicos é realizada através dos Wickelphones e Wickelfeatures, ou seja, cada palavra é representada por unidades designando um fonema, seu antecessor e seu sucessor. Dessa forma, quando o radical de um verbo do inglês é apresentado ao modelo, ele o codifica em Wickelphones que gerarão, através de conexões múltiplas, uma representação do passado. Mas isso requer um número enorme de combinações para conseguir cobrir todas as sequências possíveis da língua, daí a adoção dos Wickelfeatures, que representam os traços de cada um dos fonemas, permitindo que uma quantidade menor de informação seja arquivada.

Coube a Rumelhart e McClelland (1986), o desafio de avaliar se uma rede desse tipo poderia realmente aprender padrões semelhantes aos adquiridos por seres humanos. Para isso, investigaram o processo de aprendizagem do passado dos verbos do inglês. Será que o modelo conexionista seria capaz de aprender a flexionar verbos do inglês sem usar regras abstratas? Captaria a regularização na aquisição dos verbos, aplicando a desinência indicadora de passado –ed?

No treinamento do modelo proposto, foram utilizados 506 verbos extraídos de corpus. As frequências de token dos verbos foram consideradas tendo por base, a frequência do gerúndio. Foram encontrados:

  • 10 verbos de alta frequência
  • 410 verbos de média frequência
  • 86 verbos de baixa frequência

Em posse desses dados, num primeiro momento, o modelo recebeu os 10 verbos mais frequentes (oito regulares e dois irregulares); no segundo momento, recebeu os 410 verbos de média frequência (334 regulares e 76 irregulares) e, por fim, no terceiro momento, recebeu os 86 de baixa frequência (72 regulares e 14 irregulares). Com isso, obteve 90% de acerto na flexão verbal do passado de qualquer palavra apresentada e tornou-se apto a generalizar.

Esse resultado foi satisfatório, uma vez que conseguiu reproduzir as três fases do desenvolvimento da criança na aquisição da flexão de passado dos verbos:

  • 1ª fase: a utilização de poucos verbos no passado, geralmente irregulares de alta frequência de token;
  • 2ª fase: a regularização de vários verbos segundo o paradigma da desinência –ed, inclusive os já aprendidos no estágio anterior;
  • 3ª fase: a coexistência dos verbos regulares e irregulares em suas formas corretas, embora algumas regularizações ainda possam ocorrer, inclusive na fase adulta, devido à baixa frequência de token de algumas formas verbais.

Apesar do aparente sucesso, o modelo sofreu críticas de Pinker (1988) e Prince (1994):

  • O fato de o corpus ter sido composto primordialmente por verbos irregulares, tendo em vista que as crianças são expostas a todos os tipos de verbos desde a primeira fase;
  • A Wickelfonologia não considera a posição dos segmentos, fundamental para determinar sub-regularidades como “ring”/ “rang” e “sing”/”sang”;
  • Os falantes lançam mão de outras fontes, não apenas as fonológicas. Como fazem para diferenciar “ring”/”rang” de “wring”/ “wrang”, por exemplo, que, devido a homofonia, dependem de diferenciação semântica?

Críticas como essas, levaram ao surgimento de outros modelos conexionistas a fim de sanarem os problemas apresentados. Plunkett e Marchman (1991), por exemplo, elaboraram um léxico artificial que preservava algumas informações sobre os verbos do inglês, como as sequências CVC, VCC e CCV, que não correspondiam a conjuntos reais de sílabas do inglês, mas respeitavam a fonotática da língua. Informações sobre a posição dos segmentos também foram preservadas e passaram a controlar não só as frequências de token, mas também as frequências de type.

Além dessas mudanças, os pesquisadores utilizaram, como treinamento, um corpus de 500 verbos. A rede continha algoritmos e divisões intermediárias, em vez de apenas duas camadas (um input e um output). Continha camadas ocultas não definidas a priori.

Com todas essas alterações, o modelo apresentou um resultado melhor quanto às sub-regularidades (“cut”/ “cut”; “ring”/”rang”; “send”/”sent”). Com um número ainda maior de dados (6.090), MacWhitnney e Leinbach (1991) conseguiram resultados melhores.

Elman (1998) aplicou o modelo na investigação sobre ordem da sentença. Inseriu sentenças que apresentavam a palavra “boy” (menino), como sujeito, mas nunca como objeto direto. O fato da palavra “boy” compartilhar contextos com outros agentes humanos foi suficiente para que a rede pudesse operar de forma generalizada e fizesse com que “boy” aparecesse também em contextos que outros agentes humanos ocorriam: passou a ser utilizado também como objeto direto.

Essa pesquisa foi importante pois evidenciou a relação entre a ampliação do léxico e a emergência da gramática e fortaleceu a premissa de que saber uma palavra é saber como usá-la.

Estudos como esses, demonstram que não é necessário termos uma experiência exaustiva com todas as palavras. Basta o conhecimento de termos semelhantes, para formarmos uma categoria. A gramática emerge de associações e generalizações sobre padrões identificados no próprio léxico, o que torna a separação entre léxico e gramática insustentável.

Os modelos conexionistas vem trazendo muitas contribuições acerca do processo de aquisição e armazenamento de informações linguísticas. Dentre elas, merecem destaque as seguintes descobertas:

  • que, a partir do contato com os pais, as crianças adquirem inconscientemente informações estatísticas sobre a língua;
  • que a tarefa das crianças é aprender a língua, não sua classificação gramatical;
  • que as redes neurais são capazes de fazer generalizações sobre aplicação de padrões sem que evidências negativas sejam fornecidas;
  • que o fato de haver subclasses de regularidades na língua facilita a tarefa da criança em operar com generalizações abstratas.

É claro que, com o avanço das neurociências, podemos constatar que os neurônios do cérebro estão conectados de forma muito mais complicada do que as unidades de uma rede conexionista. No entanto, de acordo com Cielo (1998), embora essas redes estejam longe de simular modelos perfeitos de conexões neurológicas do cérebro biológico, representam o que de mais próximo existe das bases biológicas da cognição.

Além do caráter reducionista dos modelos conexionistas, outros problemas vem sendo levantados, tais como:

  • o desprezo pelo papel desempenhado por peculiaridades físicas (a noção de espaço, por exemplo, é determinada, em grande parte, pelas características do nosso sistema visual). Como as redes neurais desconsideram as limitações e possibilidades corporais, suas simulações só conseguem replicar parcialmente a estrutura e o funcionamento da cognição humana.
  • o desprezo pela diversidade de comportamentos dos organismos biológicos. É sabido que não há apenas uma função ou padrão de conduta único nesses organismos. No entanto, redes neurais são arquitetadas para aprender apenas uma coisa, como o sistema verbal do inglês, por exemplo.
  • a conceptualização de "cognição", como um fenômeno não-social. No entanto, é notório que os seres humanos aprenderem padrões de comportamento a partir da convivência em sociedade.

No modelo conexionista, o indivíduo é considerado um 'avarento cognitivo' (cognitive miser), ou seja, é tido como um processador de informação de capacidade limitada, podendo lidar, num dado momento, unicamente com uma pequena quantidade de dados. Dessa forma, o indivíduo acaba adotando estratégias para simplificar problemas complexos. Essas estratégias podem não produzir respostas normativamente corretas, mas aumentam a rapidez e a eficiência. Consequentemente, os erros e enviesamentos no tratamento da informação são considerados como fruto de características inerentes ao próprio sistema cognitivo, e não atribuídos à interferência de motivações exteriores.

Modelo de palavras e regras[]

Pinker e Prince (1988) passaram a defender a existência de dois mecanismos diferentes de acesso a itens regulares e irregulares. Formas regulares como walk/ walked; learn/learned são geradas por REGRAS SIMBÓLICAS e formas irregulares como eat/ ate; drink/ drunk são armazenadas diretamente no léxico mental. A hipótese básica desse modelo é que a divisão entre as duas categorias é uma propriedade cerebral, não uma característica particular de uma língua.

Os defensores desse modelo partem do princípio de que a linguagem humana funciona a partir da memorização de palavras e da aplicação de regras, cuja combinação resulta em sintagmas e sentenças. Dessa forma, o sistema psicológico conteria dois mecanismos cognitivos:

um que obedeceria o princípio da arbitrariedade, dotado de um léxico que armazenaria as palavras com informações sobre a representação simbólica do significado, do som e da categoria gramatical. Assim como num dicionário, uma sequência de sons funcionaria como um rótulo mnemônico para fazer lembrar o conceito que se tem dessa sequência na enciclopédia mental e a categoria gramatical da palavra.

O outro que possibilitaria o poder expressivo fantástico do ser humano: a capacidade de combinar as palavras para representar um número ilimitado de sentenças, que representariam pensamentos, sensações e sentimentos, por meio da aplicação de regras gramaticais. Essas regras seriam produtivas, simbólicas e combinatórias, pois especificariam uma cadeia de tipos de palavras (símbolos abstratos, como substantivo, verbo ou adjetivo) que se combinariam para formar todas as sentenças de uma dada língua.

Em sua proposta, Pinker apresenta um diagrama representando os módulos mentais das unidades linguísticas que materializam idéias. Um dos módulos armazenaria as palavras, o léxico mental, outro conteria as regras para a formação de palavras, a morfologia, um terceiro abrigaria as regras para combinar as palavras e formar sentenças, a sintaxe. Esses três módulos, numa interface com a mente através do módulo da semântica, executam o produto para a fala que, antes do resultado final, passa pelo módulo que contém as regras de pronúncia, a fonologia.

Com relação ao passado dos verbos em inglês, Pinker defende que os verbos irregulares (praticamente uma classe fechada, imprevisível e restrita, com aproximadamente 160 itens) são memorizados no léxico mental e recuperados como palavras individuais,– uma mera entrada lexical. Os verbos regulares, ao contrário, (classe aberta, previsíveis e gerados livremente) são produtos de uma regra morfológica. O sufixo -ed, armazenado no léxico, contém várias informações, a serem utilizadas pelo módulo da fonologia na formação do verbo flexionado:

  • -ed
  • Som: [d]
  • Classe gramatical: sufixo
  • Uso 1: passado de um verbo
  • Uso 2: particípio passado de um verbo
  • Uso 3: particípio passivo de um verbo
  • Uso 4: adjetivo formado de um verbo

Assim, o modelo de processamento dual de Pinker atribui aos verbos regulares e irregulares da língua inglesa um tratamento diferente. O passado regular é formado por uma regra do módulo da morfologia, que vai buscar no léxico a raiz e o morfema para juntá-los e formar a palavra para ser utilizada pela sintaxe. Já os verbos irregulares atuam de outra forma, pois, sendo arbitrários e imprevisíveis, têm a forma de passado como outra raiz armazenada no léxico.

De acordo com esse modelo, os verbos regulares e irregulares adotam mecanismos computacionais diferentes: a combinação de símbolos para as formas regulares e a memória associativa para as formas irregulares. De uma maneira simplificada, o sistema funciona com o acesso paralelo ao léxico e à gramática toda vez que uma palavra tenha que ser flexionada. Se a forma verbal flexionada já existir no léxico (por exemplo, tinha visto), ela acabará sendo recuperada. Assim, o processo de sufixação pela operação gramatical é bloqueado para prevenir uma formação conflitante (por exemplo, tinha vido). Se não houver a forma flexionada no léxico, o processo gramatical é ativado e o sistema procedural entra em ação para execução da regra para ligar o -do à base do verbo e formar o passado (por exemplo, tinha twitado).

Alguns problemas podem ser detectados facilmente nesse modelo:

  • o fato de falantes transformarem formas regulares em formas irregulares (por exemplo, trazido/trago). A interferência desses dois tipos de forma não deveria acontecer, uma vez que, segundo o modelo de palavras e regras, constituem mecanismos diferentes;
  • os grupos de verbos irregulares que apresentam similaridades fonológicas (ring/rang; sing/sang; grow/ grew)devem ser tratados como regulares ou irregulares?

Pinker, em 1999, admite que tanto o Gerativismo quanto o Conexionismo apresentam problemas. Em primeiro lugar, o Gerativismo, porque, ao postular regras para todas as flexões, precisa recorrer a estruturas profundas “implasíveis” (pág. 121) e não consegue encontrar justificativas para o fato de que os verbos irregulares do inglês apresentam similaridades em suas formas de passado. Já o conexionismo apresenta problemas, porque, ao negar a atuação de regras, não pode explicar por que todos os verbos regulares do inglês apresentam a mesma desinência (-ed).

Esse tipo de interação envolvendo léxico e gramática é relativamente mecanicista e apriorístico, tendo em vista que parte do princípio que a linguagem serve para expressar crenças e desejos e que há um caminho inequívoco entre a boca/ouvido dos interlocutores, passando pelos diferentes componentes da gramática.

Modelo de redes[]

Segundo os defensores desse modelo, as palavras são representadas no léxico a partir de diferentes “forças lexicais”. A cada vez que uma palavra é acessada, sua representação se torna mais forte. Nesse sentido, palavras regulares derivadas são listadas no léxico desde que tenham alta frequência de token. Essas palavras acabam por formar conexões lexicais com outros itens similares em termos fonológicos e semânticos. Itens irregulares também são estocados no léxico mental.

Já as palavras regulares derivadas que não têm alta frequência de token são projetadas por meio de de representações de itens que partilham as mesmas propriedades semânticas e fonológicas, ou seja, as conexões lexicais são mais ou menos fortes de acordo com o numero de traços que as palavras que constituem essas conexões partilham entre si.

O conhecimento do falante sobre a sua linguagem é tomado como organizado em hierarquias taxonômicas. Assim, construções substantivas, por exemplo, são vistas como instâncias de outras construções esquemáticas abstratas, passando por níveis intermediários. Assim, construções de nível mais baixo são instâncias de construçoes de nível mais alto, em múltiplas direções. Há duas explicações para o modo como a informação necessária e suficiente sobre as construções é representada:

  • Modelo da herança completa (Fillmore): Toda informação sobre uma construção é armazenada no nível mais alto de esquematicidade e o processamento é maximizado.
  • Modelo de entrada plena (Goldberg): Toda informação é armazenada em todos os níveis da taxonomia e o processamento é miximizado.

Com o propósito de demonstrar o Modelo de entrada plena, Goldberg (1995) identificou 04 redes de ligação no seu trabalho sobre estrutura argumental das construções:

  • Ligações polissêmicas: captura a relação entre qualquer sentido particular de uma construção e as extensões deste sentido.
  • Ligações de extensão por metáforas: captura a relação entre duas cosntruções relacionadas metaforicamente.
  • Ligações com subpartes: mostra que uma construção existe independentemente de outra, mas sempre é um subtipo de outra construção.
  • Ligações com instâncias: uma construção é uma instância ou caso especial de outra construção.

Dessa forma, a semelhança entre certas construções aparentemente não relacionadas pode facilmente ser expressa em termos dessa engenharia.

Há evidências de que a palavra é a unidade fundamental do processo de armazenamento: a) é somente a partir da comparação de palavras inteiras dentro de um paradigma que o falante depreende a estrutura interna dos itens lexicais; b) expressões frequentemente mais usadas são mais propensas a fenômenos de redução fonético-fonológicos em geral; c) expressões altamente frequentes são processadas como unidades inteiras o que faz com que sejam suscetíveis a fenômenos de redução.

Palavras altamente frequentes têm representação lexical mais forte. Por isso, sofrem menos análise e são menos dependentes de suas formas primitivas. Já as palavras infrequentes não têm autonomia lexical e, para serem ativadas, dependem de conexões com outros itens lexicais com que partilham propriedades semânticas e fonológicas. Ressalte-se que as palavras frequentes são acessadas mais rapidamente do que as palavras infrequentes, justamente porque sua representação lexical é mais forte e sua memória é ativada com mais rapidez.

Dessa forma, a manutenção de uma palavra com flexão irregular depende de sua frequência de ocorrência. Palavras irregulares e frequentes têm representação lexical mais forte, portanto costumam resistir a mudanças analógicas. Por outro lado, palavras irregulares e infrequentes não são suficientemente reforçadas no léxico mental para que sua irregularidade se mantenha, por isso, é comum que se encaixem nos paradigmas mais frequentes da língua.

Palavras derivadas e de frequência de ocorrência baixa e média formam conexões mais fortes que palavras derivadas e de alta frequência de ocorrência. Isso acontece porque os itens infrequentes dependem de sua classe para serem relembrados, portanto, a cada vez que são acessados, reforçam a coesão de sua rede; por outro lado, itens derivados altamente frequentes ganham autonomia lexical e sua ativação não é feita necessariamente através de sua classe, por isso o acesso a itens derivados e frequentes reforça a conexão da classe como um todo. Portanto, é a frequência de type, não de a frequência de token, que garante a produtividade de uma classe.

Como decorrência, os padrões flexionais encontrados em palavras altamente frequentes não tendem a se espalhar para outros itens lexicais, porque o acesso a tais itens não reforça a rede. Por outro lado , as flexões de itens com frequência baixa e média podem, mais facilmente, ser adotadas por novas palavras, uma vez que o acesso a palavras pouco frequentes é importante para a força lexical da rede.

Frisch et al (2001) discutem generalizações fonotáticas no inglês e no árabe. Os autores postulam que, ao contrário do que a teoria gerativa prevê, existe gradiência no julgamento sobre aceitabilidade ou inaceitabilidade de um item léxico dentro dos padrões fonotáticos de uma língua específica. Nesse sentido, o julgamento dos falantes sobre a inexistência de palavras no léxico é probabilístico (em vez de categórico), dependendo da frequência das unidades fonológicas que compõem o item léxico e do tamanho do próprio dicionário mental de cada um dos falantes.

As representações linguisticas partilham as mesmas características das representações de outros objetos cognoscíveis, ou seja, informações linguísticas são armazenadas e acessadas da mesma forma que informações não-linguísticas, de modo que a mente humana opera da mesma maneira na categorização e processamento de objetos diferentes.

A experiência afeta as representações. A forma como as palavras são usadas modifica sua estocagem e acesso no léxico mental. Dessa forma, a categorização humana e a forma com que o ser humano experiencia todos os eventos que lhe acontecem modela suas representações mentais, não apenas linguisticamente, mas em termos de conhecimento como um todo.

A categorização é baseada em identidade e similaridade, por isso é importante que diferentes ocorrências de uma mesma palavra sejam armazenadas. Com a estocagem de informações redundantes, o léxico mental é capaz de organizar as palavras listadas, considerando, principalmente, a frequência e a similaridade semântica e fonológica.

Não existe separação clara entre léxico e gramática, visto que as formas estocadas no léxico já são flexionadas. Generalizações emergem desses itens e novas formas podem ser criadas a partir da analogia, não sendo necessária, portanto a utilização de regras abstratas para gerar novos itens léxicos.

Bybee (2006) afirma que, em uma teoria baseada-no-uso, a gramática pode ser definida como a organização cognitiva da nossa experiência por meio da linguagem. Assim, gramática não é um sistema estático, mas uma estrutura que emerge, sobretudo, da repetição de eventos comunicativos na comunicação diária. A frequência com que estruturas ou palavras ocorrem desempenha o papel de remodelar a gramática, fazendo com que novas estruturas emerjam e antigas caiam em desuso.

Tanto o modelo de redes como o conexionista atribui à frequência, um papel importante na produtividade de um padrão linguistico. Mas, o modelo de redes não pressupõe que exista um módulo específico no cérebro para a armazenagem de informações linguísticas. Além disso, defende que a experiência afeta as representações mentais de informações linguísticas.

Outra diferença entre os dois modelos é que, no modelo conexionista a frequência de token é considerada em função da projeção entre a forma base e a derivada. O modelo de redes, por sua vez, estabelece a possibilidade de generalizações a partir de formas derivadas.

Modelo de exemplares[]

O Modelo de exemplares fornece a base para a formulação da organização do léxico em redes. Foi proposto inicialmente por psicolinguistas e trazido para o estudo dos sons da fala, por Johnson (1997). Nessa proposta, os itens lexicais são categorizados mais de uma vez, já que são estabelecidos em função das similaridades, que se fazem e refazem através dos processamentos mentais.

A arquitetura mental é formada por meio de um léxico organizado em redes de conexões lexicais em função de similaridades fonéticas e semânticas, não havendo uma separação entre léxico e fonologia; fonologia e fonética; fonologia e morfologia. Através das similaridades encontradas, as estruturas podem estar mais próximas ou mais afastadas dos melhores exemplares da categoria. A categoria será emergente e não mais pré-definida, como nos modelos tradicionais.

O esqueleto da gramática deixa de ter uma única representação, para operar com múltiplas representações superficiais de um mesmo item lexical. Dessa forma, o conhecimento linguístico será adquirido através do uso. A capacidade de adquirir uma lingua é considerada inata. Essa proposta permite integrar a variação sociolinguística na arquitetura da gramática.

Na aquisição do sistema fonético, o falante categoriza, em termos probabilísticos, o sinal de fala recebido. Sendo assim, padrões mais frequentes são mais acessíveis e, portanto, apreendidos primeiro, ao passo que categorias menos usadas ou com poucos exemplares são construídas mais tarde. A aquisição do inventário fonético da língua ocorre através da generalização estatística dos padrões disponíveis no ambiente em que a criança convive.

Mas será possível que a mente humana tenha capacidade suficiente para estocar todas as palavras? Para Johnson (1997), a mente humana tem grande capacidade de memória e, além disso, um exemplar não corresponde a uma experiência única, mas a uma classe de experiências que foram percebidas como praticamente idênticas. Portanto, uma nuvem de exemplares é formada a partir de vários exemplares similares da mesma categoria. Assim, quando um falante encontra uma nova ocorrência de um item, este é classificado de acordo com as semelhanças que partilha com outros itens já armazenados na memória. Todas essas conexões vão depender das relações já existentes nas redes de exemplares.

Pierrehumbert (2001, p. 143)apresenta dois sucessos alcançados pelo Modelo de Exemplares:

  • Já que, para esse modelo, o detalhamento fonético sobre palavras individuais é parte indissociável da aquisição linguística e da categorização de novos itens, o modelo fornece explicações plausíveis para o fato de que falantes nativos possuem conhecimento fonético detalhado sobre diferentes níveis (fonológico, morfológico, sintático) de sua língua.
  • O modelo permite a existência de itens prototípicos dentro de uma determinada nuvem de exemplares, no sentido de que um item léxico de uma categoria pode ser um exemplar mais forte ou mais fraco, dependendo, entre outros fatores, de sua frequência de token e do seu processamento mais rápido na produção e reconhecimento da fala.

Pierrehumbert (2000) discute de forma bastante apropriada a questão dos universais linguísticos, a partir do que foi proposto pela teoria gerativa:

[...] as línguas podem diferir sistematicamente em detalhes fonéticos finos. Isso não significa que nós queiramos pensar em categorias fonéticas universais, mas de preferência em recursos fonéticos universais que são organizados e aproveitados pelo sistema cognitivo. A água é um recurso físico. É usada de diferentes maneiras em diferentes culturas. [...] O espaço vocálico – um espaço contínuo físico tornado útil pela conexão que ele estabelece entre articulação e percepção – é também um recurso físico. Culturas divergem na forma de dividir e usar esse recurso físico.(PIERREHUMBERT, 2000, p. 12)

Percebemos, portanto, que universais não são traços recorrentes em todas as línguas do mundo, mas sim, são recursos físicos disponíveis pela espécie humana para produzir padrões. Assim que o indivíduo entra em contato com a língua, vai se formando a projeção dos exemplares em nuvens,considerando fatores sociais, pragmáticos, semânticos, morfológicos, fonológicos e fonéticos. Cada pequeno detalhe é importante para a distribuição das categorias, que estarão disponíveis para a compreensão.

Muitas vezes, exemplares com diferenças sutis podem ser classificados como iguais. Para a produção, a escolha também se dará pela força de ativação conforme a frequência da forma no léxico mental, mas elementos sociolinguísticos podem interferir na escolha. Um determinado exemplar pode ser estigmatizado ou inapropriado para o contexto e, consequentemente, evitado pelo falante, por exemplo.

Com base nesse quadro, as pesquisas do C&PD optam pelas teorias que conferem, ao léxico, um papel crucial nas representações linguísticas, como o Modelo de Redes e a Teoria dos Exemplares. A escolha por esses modelos de armazenamento se justifica:

1) pelo fato de acreditarmos que experiência afeta a forma como o conhecimento humano é categorizado, o que corrobora a perspectiva de mente corporificada, adotada pelo grupo. Nesse sentido, a frequência de uso da língua no cotidiano interfere na representação mental de informações lingüísticas.

2) pelo fato de acreditarmos que a habilidade linguística faz parte da cognição humana e não constitui um módulo diferenciado na mente, o que nos leva a defender que informações linguísticas são processadas da mesma forma que outros tipos de conhecimento.

3) pelo fato de acreditarmos que o cérebro humano é capaz de armazenar múltiplas informações sobre objetos cognoscíveis, o que nos leva a reivindicar a hipótese de que palavras regulares e irregulares são estocadas no léxico mental.

Referências[]

CIELO, Carla Aparecida. A flexibilidade do paradigma conexionista. Letras de Hoje, Porto Alegre, v. 33. n. 2, p. 43-50, Junho 1998.

FRISCH, Stefan A. et al. Emergent phonotactic generalizations in English and Arabic. In: BYBEE, Joan; HOOPER, Paul (Eds.). Frequency and the emergence of linguistic structure. Amsterdam: John Benjamins, 2001.

JOHNSON, Keith. Speech perception without speaker normalization: an exemplar model. In: JOHNSON, Keith; MULLENNIX, John (Eds.). Talker Variability in Speech Processing. San Diego: Academic Press, 1997.

LANGACKER, Ronald. Foundations of cognitive grammar. Volume 1 – Theoretical prerequisites. Stanford: Stanford University Press, 1987.

McCLELLAND, James; PATTERSON, Karalyn. Rules or connections in past-tense inflections: what does the evidence rule out? TRENDS in Cognitive Sciences, Oxford, v. 6, n. 11, p. 465-472, 2002.

PIERREHUMBERT, Janet. An unnatural process. Written version of paper delivered at 8th meeting on Laboratory Phonology, New Haven, 6/02. Under review for Laboratory Phonology 8, Mouton de Gruyter, 2002.

PINKER, Steven. Rules of language. Science, [S.l.], n. 253, p. 530-535, 1991.

PINKER, Steven; PRINCE, Alan. On language and connectionism: analysis of a parallel distributed processing model of language acquisition. Cognition, [S.l.], n. 28, p. 73-193, 1988.

PINKER, Steven; PRINCE, Alan. Regular and irregular morphology and the psychological status of rules of grammar. In: LIMA, Susan; CORRIGAN, Roberta; IVERSON, Gregory (Eds.). The reality of linguistic rules. Amsterdam/Philadelphia: John Benjamins, 1994. p. 321-351.

PLUNKETT, Kim. O conexionismo hoje. Tradução de Márcia Zimmer e Rosângela Gabriel. Letras de Hoje, Porto Alegre, v. 35, n. 4, p. 109-122, Dez. 2000.

RUMELHART, David; McCLELLAND, James. On learning the past tenses of English verbs: implicit rules or parallel distributed processing? In: McCLELLAND, James; RUMELHART, David et al. (Orgs.). Parallel distributed processing: explorations in the microstructure of cognition. Cambridge: MIT Press, 1986. p. 216-71.

WICKELGREN, Wayne A. Context-sensitive coding, associative memory, and serial order in (speech) behavior. Psychology Review, Washington, D.C. n. 86, p. 44-60, 1969 apud RUMELHART, David; McCLELLAND, James. On learning the past tenses of English verbs: implicit rules or parallel distributed processing? In: McCLELLAND, James; RUMELHART, David et al. (Orgs.). Parallel distributed processing: explorations in the microstructure of cognition. Cambridge: MIT Press, 1986. p. 216-71.

Advertisement