Comprensión de la estructura del lenguaje

Introducción

El objetivo de la interpretación de una frase es asignar papeles temáticos a las palabras de la frase que se está procesando: quién le está haciendo qué a quién.

Es probable que las personas identifiquen las frases como parecidas a partir del verbo principal más que a partir del sujeto de la frase, siendo especialmente importante la estructura del argumento.

El primer paso del análisis sintáctico consiste en determinar cuál es la categoría sintáctica a la que pertenece la palabra de la frase. A continuación combinamos estas categorías para crear locuciones o sintagmas.

Un paso importante del análisis sintáctico es determinar cuál es el sujeto de la frase. A partir de esa información sobre las palabras individuales se empieza a construir una representación del significado de la frase.

La ambigüedad estructural

El estudio de la ambigüedad sintáctica es una forma excelente de descubrir cómo funciona el procesamiento de una frase.

La mayor parte de la evidencia demuestra que nos pasamos más tiempo leyendo la parte ambigua de las frases que las partes no ambiguas de frases de control pero, a menudo, pasamos más tiempo leyendo la parte de desambiguación.

La cuestión central del análisis sintáctico es cuándo se utilizan los distintos tipos de información. En principio, se pueden construir dos árboles de análisis sintáctico alternativos para “I saw the Alps flying to Romania”. Podríamos construir uno con una base puramente sintáctica y decidir a continuación utilizar la información semántica para ver si tiene sentido o no. Si tiene sentido, aceptamos la representación; si no tiene sentido, volvemos hacia atrás y volvemos a probar. Este es un modelo de representación en serie. Alternativamente, podríamos construir todas las representaciones sintácticas posibles en paralelo, utilizando, de nuevo, exclusivamente la información sintáctica, y después utilizar la información semántica, o de otro tipo, para elegir la más adecuada. Este sería un modelo autónomo en paralelo. O podríamos utilizar información semántica de las fases más tempranas para guiar el análisis sintáctico de forma que sólo pudiéramos construir representaciones sintácticas semánticamente verosímiles. O podríamos activar las representaciones de todos los análisis posibles, quedando el nivel de activación afectado por la verosimilitud de cada una. Las dos últimas son versiones de un modelo interactivo.

Hasta ahora solo nos hemos fijado en ejemplos de una ambigüedad permanente (o global). En estos casos cuando se llega la final de la frase, sigue siendo sintácticamente ambigua. En las frases que son ambiguas localmente, la ambigüedad queda desambiguada gracias al material posterior. A veces, nos damos cuenta de que nuestro análisis inicial era incorrecto y tenemos que volver atrás y volver a analizar. De hecho, incluye una oración de relativo. Una oración de relativo es una que modifica el sustantivo principal y está reducida porque carece del pronombre relativo. Las frases que llaman a engaño son las herramientas favoritas de los investigadores interesados en el análisis sintáctico.

La eliminación del complementador “que” también puede producir resultados engañosos. Se ha visto que una puntuación adecuada, como la inserción de comas, puede reducir la magnitud del efecto de engaño mejorando la percepción que tiene el lector de la estructura de la frase.

Cuando se hace una interjección antes de una frase nominal no ambigua, los oyentes tienen más probabilidades de pensar que la frase nominal es el sujeto de una nueva oración, más que el objeto de una anterior. Las interrupciones pueden ayudar, pero sólo siempre que estén en el lugar adecuado. Son correctas cuando apuntan correctamente al nuevo sujeto, pero no cuando no lo hacen.

Sin embargo, solo porque las personas den claves prosódicas al hablar, y los oyentes las utilicen, no significa que quienes hablan siempre pretendan dar estas claves con el propósito explícito de ayudar al oyente (lo que se denomina hipótesis del diseño para la audiencia).

McKoon y Ratcliff (2003) demostraron que las frases con cláusulas relativas reducidas con verbos como “race” se producen en el lenguaje natural con una probabilidad cercana a 0 (se consideran inaceptables para la mayoría de la gente).

A primera vista, nuestra experiencia de estas frases es la evidencia a favor de un procesador autónomo en serie. No obstante, ha habido gran cantidad de investigación tratando de averiguar de que tipo factores han sido engañosos, si los sintácticos o los semánticos. Según el modelo autónomo en serie, se experimenta el efecto del engaño porque la representación sintáctica singular que se esta construyendo en función de la sintaxis resulta incorrecta. Según el modelo autónomo en paralelo, una representación está mucho más actica que las otras debido a la potencia de las pistas sintácticas, pero resulta incorrecta. Según el modelo interactivo, varias fuentes de información respaldan el análisis más que su alternativa. Sin embargo, la información posterior es incoherente con los niveles de activación inicial.

Primeros estudios sobre el análisis sintáctico

Se basaban en la teoría de Chomsky de la gramática generadora; los psicólogos pusieron a prueba la idea de que la comprensión de las frases implica la recuperación de la estructura profunda.

Evaluación psicolingüística de la teoría lingüística de Chomsky

Cuando se publicó por primera vez el trabajo de Chomsky hubo dos ideas que atrajeron un interés particular: la teoría derivativa de la complejidad (DTC) y la autonomía de la sintaxis.

La idea de la DTC es que, cuanto más compleja es la derivación sintáctica formal de una frase (más transformaciones hacen falta para formarla) más complejo es el procesamiento psicológico necesario para comprenderla y producirla. Esto significa que las frases de transformación compleja deberían ser más difíciles de procesar que las menos complejas. Esto debería ser detectable con una medida como por ej.: los tiempos de reacción.

El principio psicológico de la autonomía de la sintaxis lleva aún más lejos la afirmación de Chomsky de que las reglas sintácticas deben estar especificadas independientemente de otras restricciones, hasta afirmar que los procesos sintácticos operan de forma independiente de otros. Lo que significa que los procesos sintácticos deberían ser autónomos respecto a los procesos semánticos.

Chomsky (1957) distinguió entre transformaciones opcionales y obligatorias. Las transformaciones obligatorias eran aquellas sin las que la frase no sería correcta gramaticalmente. Las demás transformaciones son optativas.

Chomsky definió un subconjunto de frases que denominó frases nucleares, a las que sólo se han aplicado transformaciones obligatorias.

Miller y McKean (1964) investigaron la idea de que cuantas más transformaciones hay en una frase, más difícil es procesarla. Su resultado respaldó a la realidad psicológica de la gramática transformacional.

Otros experimentos de la época respaldaban esta idea. Savin y Perchonock (1965) concluyeron que las frases que tenían más transformaciones requerían más espacio de memoria. Cuanto mayor era la complejidad transformacional de una frase, menos elementos podían recordar simultáneamente. Melher (1963) descubrió que cuando los participantes cometían errores recordando las frases, tendían a hacerlo en el sentido de olvidar las etiquetas de transformación, en vez de añadirlas.

Problemas en la interpretación psicológica de la gramática transformacional

Las tareas que respaldaban la realidad psicológica de la gramática transformacional utilizaban todas las mediciones indirectas del procesamiento del lenguaje. Lo que recordamos de una frase no tiene por qué tener una relación con la forma en que la procesamos realmente.

Slobin (1966) analizó el procesamiento de lo que se denominan frases pasivas reversibles e irreversibles. Slobin determinó que los resultados de Miller y McKean, sólo se podían obtener en el caso de las pasivas reversibles. La conclusión de Slobin de que la profundidad de procesamiento sintáctico se ve afectada por consideraciones semánticas como la reversibilidad también va contra de la idea de la autonomía de la sintaxis, aunque esto resulta más controvertido. En conjunto, los resultados de los experimentos implican que lo que observamos depende de los detalles de las tareas utilizadas, pero que tanto los factores sintácticos como los semánticos tienen un efecto sobre la dificultad de las frases.

Wason (1965) analizó la relación entre la estructura de una frase y su función. Y llego a la conclusión de que el tiempo que se tarda en procesar una construcción sintáctica como una formación negativa depende del contexto semántico. En resumen, las primeras afirmaciones que respaldaban las ideas de la complejidad derivativa eran, prematuros o simplemente erróneos, el grado en el que los procesos sintácticos y semánticos son independientes es uno de los temas más controvertidos e importantes de la psicolingüística.

La teoría de la gramática transformacional de Chomsky también tuvo una gran influencia sobre la forma en que se pensaba que se producía el procesamiento sintáctico psicológico. A pesar de su promesa inicial, los experimentos posteriores han respaldado poco a la realidad psicológica de la gramática transformacional. Chomsky tenía a mano una retirada: las teorías lingüísticas describen nuestra competencia lingüística más que nuestro rendimiento lingüístico. Esto ha llevado a una separación de la lingüística y la psicolingüística, por la que cada disciplina busca sus propios objetivos.

Miller, que proporcionó un aparente respaldo empírico, terminó creyendo que todo el tiempo que se utiliza en el procesamiento de una frase se dedica a operaciones semánticas.

Los primeros trabajos de la psicolingüística sobre el análisis sintáctico

La sintaxis propone y la semántica dispone. El enfoque más sencillo considera que la sintaxis es un módulo de procesamiento independiente o autónomo: sólo se utiliza la información sintáctica para construir el árbol sintáctico.

¿Qué tamaño tienen las unidades del análisis sintáctico?

Una vez que se ha procesado una frase, la memoria literal de la misma se disipa muy rápidamente. Por tanto, la frase es una unidad de procesamiento fundamental. Resulta que también la oración es una unidad importante. Una oración es una parte de una frase que tiene tanto un sujeto como un predicado. Además, la gente considera que es más fácil leer de línea en línea si cada línea se corresponde con un elemento constituyente principal.

Cuando se recuerdan las palabras se produce un efecto de delimitación de la oración: es más fácil recordar las palabras de una oración que se está procesando actualmente, independientemente del número de palabras que contenga. La carga de procesamiento es máxima al final de la oración, y las fijaciones de los ojos son más largas en la última palabra de una oración.

Una de las primeras técnicas más utilizadas para analizar el tamaño de la unidad fue la técnica del desplazamiento del clic. La idea básica era que las unidades de procesamiento fundamental se resisten a la interrupción: terminamos lo que estamos haciendo, y después procesamos otro material en la primera oportunidad adecuada. Los participantes oían con auriculares un discurso por un oído y en determinados puntos de la frase se presentaban en el otro oído clics extraños. Es decir, según los participantes, debe parecer que los clics migran. El estudio original afirmaba que se demostraba así que la oración es una unidad fundamental en el procesamiento perceptual y sintáctico.

Hay acuerdo en torno a que el análisis sintáctico es, en gran medida, un proceso incremental: intentamos construir estructuras de palabra en palabra (no permanecemos inactivos esperando a que se acabe la cláusula). Muchos estudios han demostrado que el análisis sintáctico y semántico son incrementales. La gente no solo construye la representación de forma gradual, sino que intenta anticipar que viene a continuación, hace movimientos oculares anticipatorios hacia los probables objetos siguientes, y anticipa una gran cantidad de información, incluso con estructuras verbales más complejas. Concluyendo que el procesador del lenguaje utiliza distintas fuentes de información, de las cuales algunas no son lingüísticas.

En resumen, el procesador del lenguaje opera de forma incremental: construye rápidamente un análisis sintáctico para un fragmento de una frase, asignándole una interpretación semántica, y relacionando esta interpretación con el conocimiento de las palabras.

Estrategias de análisis sintáctico basadas en claves de la estructura superficial

La estructura superficial de las frases proporciona una serie de pistas evidentes sobre la representación sintáctica subyacente.

Bever (1970) y Fodor y Garrett (1967) detallaron una serie de estrategias de análisis sintáctico que sólo utilizaban claves sintácticas. En la mayoría de las frases que oímos o leemos, el primero sustantivo es el sujeto, y el segundo el objeto (estrategia de la frase ortodoxa). Primero probamos con las estrategias más sencillas y, si no funcionan, con otras, si se agotan, tenemos que probar con otra cosa.

Fodor, Bever y Garrett (1974) afirmaron que el objetivo del análisis sintáctico consistía en recuperar la estructura profunda subyacente a una frase. Sin embargo, hay poca evidencia de que la estructura profunda esté representada mentalmente de forma independiente del significado. No obstante, el principio general de que cuando hacemos análisis sintáctico utilizamos las pistas de la estructura superficial sigue siendo influyente y se ha formalizado.

Dos primeras explicaciones del análisis sintáctico

Kimball (1973) afirmó que la estructura superficial proporciona pistas que permiten desvelar la estructura sintáctica subyacente. Propuso 7 principios del análisis sintáctico para explicar el comportamiento del mecanismo humano del análisis sintáctico (AS) de las frases. Afirmó que primero computamos la estructura superficial de una frase guiados por reglas que se basan en las restricciones psicológicas, como la minimización de la carga de la memoria. Afirmó que estos principios explicaban por qué se asigna la estructura que se asigna a la frases, porqué es más difícil analizar unas que otras, y porque tenemos un sesgo al analizar sintácticamente muchas frases estructuralmente ambiguas de determinada manera.

El primer principio es que el AS es un proceso de arriba abajo, excepto cuando aparece una conjunción. Significa que partimos del nodo de la frase y predecimos sus elementos constituyentes.

El segundo principio se denomina asociación a la derecha, que significa que las nuevas palabras se relacionan preferentemente con el nodo más bajo posible de la estructura construida hasta ahora.

El tercer principio de Kimball eran nuevos nodos. Las palabras funcionales indican el comienzo de un nuevo sintagma. El cuarto principio es que el procesador sólo puede trabajar con nodos asociados con dos nodos de frases en un momento dado.

El siguiente principio es el de cierre, que afirma que el procesador prefiere cerrar una oración lo antes posible. El sexto principio se denomina de estructura fija. Una vez cerrada una oración es muy costoso abrirla. Este principio explica nuestra dificultad con las frases que llaman a engaño. El último principio es el principio de procesamiento. Cuando se cierra una oración, sale de la MCP y pasa a una segunda fase de procesamiento semántico más profundo.

Los principios de Kimball explican bien una serie de propiedades del procesador, pero tal vez se podía simplificar el modelo, ya que el de procesamiento subyace a otros muchos. La investigación sobre la fijación de los ojos demuestra que es posible que no miremos directamente a algunas palabras funcionales: con frecuencia se saltan las palabras muy cortas, aunque puede procesarse parafovealmente, es decir, podríamos seguir extrayendo información de ellas a pesar de que no estén en el centro de nuestro campo visual.

Frazier y Fodor (1978) simplificaron a Kimball, proponiendo un modelo que denominaron “máquina de embutidos”, con 2 fases. La primera se denomina empaquetador preliminar de oraciones, PPP: tiene una visión limitada a unas 6 palabras. Esta fase va seguida del supervisor de la estructura de la frase, SSS: ensambla los paquetes producidos por el PPP, pero no puede deshacer su trabajo. Esta idea operacionaliza el principio de procesamiento de Kimball

Warner (1980) señaló problemas del modelo de la máquina de los embutidos: no puede explicar la preferencia de la asociación a la derecha en algunas frases de 6 palabras.

Fodor y Frazier (1980) aceptaron que la asociación a la derecho no surge directamente de la arquitectura de la máquina de embutidos. Añadieron un nuevo principio que gobierna la ejecución de la máquina, que afirma que la asociación a la derecha actúa cuando la asociación mínima no puede determinar dónde debe ir un elemento constituyente. La máquina de embutidos evolucionó hasta convertirse en el modelo de la vía muerta.

Procesamiento de la ambigüedad estructural

Uno de los principales focos de atención sobre el AS consiste en intentar comprender cómo procesamos la ambigüedad sintáctica, porque esto nos ofrece una herramienta importante para evaluar modelos alternativos de cómo actúa el procesador sintáctico.

Modelos de vía muerta frente a modelos basados en restricciones del análisis sintáctico

Hay dos modelos que dominan la investigación sobre AS. El modelo de vía muerta es un modelo autónomo en dos fases, mientras que el modelo basado en restricciones es un modelo interactivo en una fase.

El modelo de la vía muerta

Según el modelo de vía muerta (Frazier, 1978), el AS se produce en 2 fases. En la primera, el procesador sólo utiliza información sintáctica. Si el material entrante es ambiguo sólo se crea una estructura. La adjudicación inicial sólo está determinada por las preferencias sintácticas dictadas por los 2 principios de adjudicación mínima el cierre tardío. Si los resultados del primer análisis son incompatibles con la información sintáctica, pragmática o semántica y temática posterior en un procesador temático independiente, es necesario un segundo análisis para revisar el árbol del análisis sintáctico. Sólo se puede utilizar la información temática sobre los papeles semánticos en la segunda fase del AS.

Hay dos principios fundamentales del AS que determinan la adjudicación inicial, denominados la adjudicación mínima y el cierre tardío. Según la adjudicación mínima, se debe adjudicar el material entrante al marcador de la locución que se está construyendo, utilizando el menor número de nodos posible. Según el cierre tardío, se debe incorporar el material entrante a la frase u oración que se está procesando en ese momento. Si hay conflicto entre ambos, predomina la adjudicación mínima.

Modelos de análisis sintáctico basados en restricciones

Es un tipo de modelo interactivo, en que el procesador utiliza múltiples fuentes de información incluyendo información sintáctica, semántica, del discurso y basada en la frecuencia, que se denominan restricciones. La construcción más respaldada por estas múltiples restricciones es la que está más activada, aunque es posible que también permanezcan activas las alternativas menos plausibles. Se genera una “vía muerta” cuando el análisis correcto de una ambigüedad local recibe una escala activación.

Evidencia de la autonomía en el procesamiento sintáctico

El modelo de la vía muerta afirma que podemos resolver la ambigüedad utilizando la asignación mínima y el cierre tardío sin ayuda semántica.

Ferreira y Clifton (1986) describieron un experimento que sugiere que los factores semánticos no nos pueden evitar que seamos engañados. Afirmaron que la información semántica no impide ni causa una “vía muerta” pero puede acelerar la recuperación del engaño. La dificultad planteada por la ambigüedad tiene una duración muy breve y se resuelve cuando se lee la palabra que sigue al verbo.

Mitchel (1987), a partir de los datos de una tarea de lectura de ritmo libre, concluyó que la etapa inicial sólo utiliza a información de parte de la oración, y la información detallada del verbo sólo afecta a la segunda fase evaluadora de procesamiento.

Van Gompel y Pickering (2001) llegaron a la misma conclusión utilizando la metodología del movimiento de los ojos. Estos experimentos sugieren que la primera fase del análisis sintáctico es miope y no utiliza la información semántica o temática. Análogamente, Ferreira y Henderson (1990) concluyeron que la información del verbo no afecta al análisis sintáctico inicial, aunque es posible que guíe la segunda fase del reanálisis.

Podemos manipular la relación semántica de sustantivos y verbos en contextos en los que son sintácticamente adecuados o inadecuados. Los resultados sugieren que el análisis sintáctico precede al análisis semántico y es independiente del mismo. Los datos de tareas de nombramiento sugieren que el análisis sintáctico es previo a la integración semántica e independiente de la misma.

La evidencia de la neurociencia sugiere que los procesamientos semántico y sintáctico son independientes. Se cree que un potencial evento-relacionado (ERP) negativo, identificado a las 400 ms (N400) de producirse un suceso, es particularmente sensible al procesamiento semántico, y particularmente indicativo de los incumplimientos de la expectativa semántica. Se identifica una oleada positiva a los 600 ms (P600) del incumplimiento sintáctico.

Los datos ERP sugieren que el procesamiento sintáctico y semántico son procesos distintivos. Ainsworth-Darnell y cols. analizaron los ERP cuando se oían frases que contenían una anomalía sintáctica, una anomalía semántica, o ambos tipos de anomalía. Las frases que incluían ambos tipos de anomalías seguían provocando tanto un N400 como un P600. Ainsworth-Darnell y cols. concluyeron que se activan distintas partes del cerebro cuando existen anomalías sintácticas y cuando existen anomalías semánticas y, por tanto, que estos procesos están representados por separado.

Resulta útil diferenciar entre la modularidad de las representaciones y la modularidad del procesamiento. La modularidad de las representaciones afirma que el conocimiento semántico y sintáctico se representan por separado. Es decir, hay distintos tipos de representación lingüística que pueden estar almacenados o procesados en distintas partes del cerebro.

Evidencias sobre la interacción en el procesamiento sintáctico

Taraban y McClelland (1988) compararon los tiempos de lectura a ritmo libre en frases con estructura de adjudicación mínima. Determinaron que se lee más deprisa la frase sin estructura de adjudicación mínima. Concluyeron que las violaciones del proceso puramente sintáctico de las palabras añadidas a una representación estructural en desarrollo no ralentizan la lectura, pero las violaciones del proceso semántico de la asignación de las palabras a los papeles temático sí. También concluyeron que los estudios anteriores que parecían respaldar la adjudicación mínima habían confundido, de hecho, la simplicidad sintáctica con el sesgo semántico.

Milne (1982) afirmó que los factores semánticos, más que los sintácticos, nos engañan. ¿Cómo explican los factores semánticos nuestra dificultad con las oraciones de relativo reducidas?

Crain y Steedman (1985) utilizan una tarea de evaluación gramatical acelerada para demostrar que un contexto semántico inadecuado puede eliminar las vías muertas. En esta tarea, los participantes ven una serie de palabras y tienen que decidir lo más rápidamente posible si esa serie de palabras es correcta gramaticalmente o no. Los participantes tienen, en conjunto, más probabilidades de identificar erróneamente las frases que llaman a engaño que las frases que no llaman a engaño.

Crain y Steedman afirmaron que no hay nada parecido a un contexto totalmente neutro desde el punto de vista semántico. Afirmaron que se pueden explicar todas las preferencias del análisis sintáctico desde un punto de vista semántico. Todas las alternativas sintácticas son analizadas en paralelo y las consideraciones semánticas seleccionan rápidamente entre ellas. La dificultad semántica se basa en la cantidad de información que hay que suponer: cuantos más supuestos hay que hacer, más difícil resulta procesar la frase.

Altmann y Steedman (1988) pusieron de relieve que el procesador construye una representación sintáctica de forma paulatina, de palabra en palabra. En cada palabra se generan en paralelo interpretaciones sintácticas alternativas y, a continuación, se toma una decisión utilizando el contexto. Este enfoque se conoce como teoría referencial del AS. El procesador construye un análisis en paralelo y utiliza el contexto el discurso para desambiguarlo de inmediato. Es la naturaleza inmediata de esta desambiguación la que diferencia a la teoría referencial de los modelos de la vía muerta. Puesto que hay muchos factores que guían el AS, deben ser las consideraciones semánticas las que en este caso nos llevan a engaño.

¿Es posible diferenciar las teorías basadas en restricciones de la teoría referencial? Las teorías son similares ya que ambas niegan que el AS esté limitado a utilizar información sintáctica. En las teorías basadas en restricciones se utilizan todas las fuentes de información semántica, incluyendo el conocimiento general del mundo, para desambiguar, pero en la teoría sólo es importante la complejidad referencial dentro del modelo del discurso. Crain, Ni, y Shankweiler (1996) intentaron separar los efectos de estos distintos tipos de conocimiento estudiando los tiempos de lectura y los movimientos oculares cuando se leen frases ambiguas. Los resultados sugerían que se utiliza de inmediato la información semántica-referencial, pero que el conocimiento más general del mundo tarda más tiempo en estar disponible. Además, el conocimiento del mundo dependía de la capacidad de la memoria de trabajo, mientras que los principios semánticos-referenciales no.

Los análisis sugirieron que estos principios referenciales se utilizan de inmediato para resolver la ambigüedad. La información sobre la plausibilidad semántica de las interpretaciones se utiliza más tarde. Sin embargo, como señaló Pickering (1999) la teoría referencial no puede ser una explicación exhaustiva del AS porque sólo se puede aplicar a ambigüedades que ambigüedades que incluyen sintagmas nominales sencillos y complejos.

Algunos contextos sesgarán al procesador hacia una interpretación de cláusula relativa e impedirán la vía muerta:

Cuando la información sintáctica provoca una ambigüedad y es posible una vía muerta, el procesador procede a construir una representación sintáctica a partir de la mejor conjetura semántica.

Evidencia a favor de los modelos basados en restricciones de la conclusión de que se puede utilizar información temática para eliminar el efecto de la vía muerta en estas frases relativas reducidas.

Trueswell et al: si las restricciones semánticas eran suficientemente fuertes, las cláusulas relativas reducidas no eran más difíciles que las construcciones sin reducir.

Ferreira y Clifton al contrario que Trueswell encontraron evidencia de una mayor dificultad con materiales parecidos. Trueswell et al afirmaron que el sesgo semántico en su experimento era demasiado débil; si la restricción semántica no es suficientemente fuerte, se producirá una vía muerta.

Sesgo del verbo: idea importante de los modelos basados en restricciones; que afirma que, aunque algunos verbos pueden aparecer en una serie de estructuras sintácticas, algunas de sus estructuras sintácticas son más comunes que otras.

Las frecuencias relativas de las interpretaciones alternativas de los verbos predicen si la gente tendrá dificultades o no para comprender las cláusulas relativas reducidas.

Su información esta disponible de inmediato en cuanto se reconoce el verbo.

Los verbos con un sesgo hacia las oraciones complementarias no provocaban dificultades en el procesamiento, mientras que sí lo hacían los verbos con un sesgo al Objeto Directo.

Su información interactúa con la posibilidad de que un sustantivo temporalmente ambiguo sea un Objeto Directo.

Según el modelo de vía muerta, no debería haber ningún efecto temprano de la verosimilitud y del sesgo del verbo.

Hay controversia sobre sus efectos son reales: algunos estudios han determinado que no existe un efecto de la información de la frecuencia del verbo.

Pickering et al determinaron que los lectores experimentaban dificultades con las cláusulas de complemento de las frases temporalmente ambiguas incluso cuando los verbos estaban sesgados hacia ese análisis.

Kennison encontró que las estructuras ambiguas provocaban dificultades independientemente del sesgo del verbo.

Pickerin y Van Gompel: la información del sesgo del verbo tiene cierta influencia sobre el procesamiento sintáctico, pero con frecuencia no la suficiente como para impedir que tengamos problemas con las frases temporalmente ambiguas.

Garnsey et al: la experiencia anterior de la gente con determinados verbos guía su interpretación de la ambigüedad temporal

En los modelos basados en restricciones se termina resolviendo la ambigüedad sintáctica mediante la competencia:

Las restricciones activan distintos análisis en distinta medida; si 2 o más análisis están muy activados, la competencia es fuerte y hay graves dificultades de procesamiento.

Tabor y Tanenhaus: se resuelve la competencia acomodándose en una cuenca de atracción en una red de atractores similar a la postulada para explicar el reconocimiento de las palabras.

McRae et al: propusieron un modelo de tipo conexionista de resolución de la ambigüedad denominado de competencia- integración: La competencia entre estructuras alternativas comprueba esencialmente su estructura preferida tras cada nueva palabra.

La evidencia a favor de los modelos de competencia en paralelo proviene de los estudios que demuestran que, cuanto más compromiso asume la gente con una elección de Análisis Sintáctico, más difícil resulta que se recupere, un efecto denominado digging in o enterramiento.

Otra faceta importante de los modelos basados en restricciones es que la ambigüedad sintáctica de forma parecida debido a la importancia que tienen las restricciones léxicas en el Análisis Sintáctico:

Las ambigüedades sintácticas surgen debido a las ambigüedades en el nivel léxico.

Aunque las restricciones contextuales rara vez son lo suficientemente fuertes como para limitar la activación de la alternativa adecuada, proporcionan información útil para distinguir entre las alternativas candidatas.

Se computa una representación sintáctica de una frase mediante vínculos entre elementos en un lexicón rico.

Parte de la dificultad de diferenciar entre teorías autónomas e interactivas basadas en restricciones proviene de la dificultad de obtener pruebas de lo que está ocurriendo en las primeras fases de la comprensión:

Estudio Tanenhaus et al: el análisis de los movimientos oculares sugería que la gente procesaba las instrucciones de forma incremental, moviendo los ojos hacia los objetos inmediatamente después de la instrucción relevante.

La mejor evidencia a favor de la independencia del Análisis Sintáctico proviene de la lectura de los estudios de frases con breves ambigüedades sintácticas en las que los oyentes tienen claras las preferencias por determinadas interpretaciones, incluso cuando el contexto lingüístico anterior respalda una interpretación alternativa:

Experimento Tanenhaus et al: analizaron la interpretación de frases temporalmente ambiguas en el contexto de una exposición visual de forma que la información esta disponible de inmediato. Es una potente demostración de que las personas utilizan la información contextual de inmediato para establecer una referencias y procesar las frases temporalmente ambiguas.

Sedivy et al: la gente tienen en cuenta muy rápidamente el contexto cuando interpreta los objetivos. A partir de aquí afirmaron:

El procesamiento sintáctico es incremental; se construye la representación semántica al muy poco tiempo de presentarse el estimulo de entrada.

La gente intenta integrar de inmediato los objetos. En un modelo semántico incluso cuando no tienen un significado Central estable.

Los estudios de imagen cerebral con fMRI demuestran que el cerebro procesa las frases ambiguas y no ambiguas de distinta manera:

Niveles superiores de activación cerebral con las frases ambiguas pero también durante la lectura de las estructuras más complejas y estructuras no preferidas.

Mayor activación al leer frases ambiguas cuando se resolvía la ambigüedad a favor de la construcción sintáctica preferida.

La mayor carga de trabajo se repartía por la circunvolución temporal superior y la circunvolución frontal inferior, sugiriendo que hay múltiples procesos implicados en la resolución de la ambigüedad:

  • El área de Broca podría estar implicada en la generación de marcos sintácticos abstractos

  • El área de Wernicke en la interpretación y elaboración de estos marcos con información semántica.

Estas conclusiones son más consistentes con los modelos en paralelo donde se mantienen abiertos múltiples análisis al mismo tiempo.

Diferencias multilingüísticas en la adjudicación

Los hispanohablantes no interpretan mediante el cierre tardío el mismo tipo de frases, sino que pueden aplicar una estrategia de cierre temprano. Otros idiomas también muestran una preferencia por adjudicar la cláusula relativa a la 1º locución nominal (francés, holandés, etc.)

El cierre tardío parece no ser una estrategia general común en todos los idiomas. Las preferencias del Análisis Sintáctico podrían reflejar la frecuencia de las distintas estructuras dentro de un idioma.

Se pueden explicar estos resultados de 3 formas:

  • Es posible que no se produzca el cierre tardío debido a las ventajas del procesamiento y que la elección de la estrategia sea fundamentalmente una elección arbitraria en los distintos idiomas.

  • El cierre tardío podría tener una ventaja de procesamiento, y podría ser la estrategia habitual pero, en algunos idiomas, en algunas circunstancias, es posible que dominen otras estrategias.

  • El Análisis Sintáctico no utiliza en absoluto los principios lingüísticos. Los resultados de la interpretación dependen de la interacción de muchas restricciones que son relevantes en el procesamiento de la frase.

Hipótesis de afinación: pone de relieve el papel de la exposición al idioma. Las decisiones del Análisis Sintáctico están influidas por la frecuencia con la que se utilizan los análisis alternativos. Dicho de otra manera, la gente resuelve las ambigüedades de una forma que ha tendido éxito anteriormente. Las preferencias de adjudicación pueden variar de un idioma a otro, y de un individuo a otro y, de hecho, pueden incluso variar para una misma persona en distintos momentos. Es decir, se encontraron diferencias individuales en las preferencias de la adjudicación.

Comparación de las teorías de vía muerta y las teorías basadas en restricciones

En los Modelos de dos fases en serie, como el modelo de vía muerta, el análisis inicial esta restringido utilizando sólo la información sintáctica y las preferencias, y una segunda fase utilizando la información semántica.

En los modelos basados en restricciones en paralelo, se activan múltiples análisis desde el principio, y se utiliza tanto la información sintáctica como la no sintáctica en combinación para activar la representación alternativa.

Lo defensores del modelo de la vía muerta afirman que los efectos que se supone que respaldan a los Modelos Basados en Restricciones surgen porque la segunda fase del Análisis Sintáctico empieza muy deprisa, y muchos experimentos que se supone que están analizando la primera fase, de hecho, están fijándose en realidad en la del análisis sintáctico; además estos experimentos tienen fallos metodológicos y no consiguen explicar todos los datos disponibles.

Los defensores de los Modelos basados en restricciones afirman que las técnicas que utilizan los defensores de las Teorías de la vía muerta no son los suficientemente sensibles como para detectar las interacciones implicadas, o que las restricciones no sintácticas utilizadas son demasiado débiles.

Otros modelos de análisis sintáctico

Teoría de la vía muerta se puede describir como un modelo de elección fija (no tiene un elemento probabilístico en su toma de decisiones) en 2 fases.

Modelos basados en restricciones son modelos de elección variable en una fase. Se resuelve la ambigüedad sintáctica mediante una competencia.

Sintagma preposicional: una locución que empieza con una preposición (p.ej., “con el telescopio”, “por la chimenea”)

Van Gompel et al: analizaron como resolvemos la ambigüedad, si con reanálisis o competencia; los resultados no respaldaron ninguna de las 2 opciones. Sólo un modelo de elección variable en 2 fases puede explicar este patrón de resultados: modelo de carrera sin restringir.

Modelo de carrera sin restringir:

  • Se utilizan todas las fuentes de información tanto sintácticas como semánticas, para elegir entre estructuras sintácticas alternativas.

  • Las alternativas se construye en paralelo y en una carrera en la que el ganador es el análisis que se construye más deprisa y se adapta como interpretación sintáctica del fragmento.

  • En contra de las Teorías basadas en restricciones sólo se adopta un análisis de cada vez

  • Si el análisis es inconsistente con la información posterior, el procesador tienen que volver a analizar, a un coste considerable.

  • También es un modelo de dos fases.

  • Es un modelo de elección variable, puesto que el análisis inicial se ve afectado por las características particulares del fragmento de la frase.

La conclusión crítica y sorprendente que este modelo explica es que, a veces, las frases ambiguas son menos difíciles que las frases desambiguadas.

Bever, Sanz y Townsed: Sugieren que la semántica viene primero. Afirman que se utilizan estrategias con base estadística para proponer una representación semántica inicial. Después esta representación restringe el cálculo detallado de la representación sintáctica.

La frecuencia con la que se producen las representaciones sintácticas restringe la fase inicial del procesamiento sintáctico.

En cualquier momento, el procesador asigna la interpretación más probable estadísticamente del material entrante.

Christianson, Hollingworth, Halliwell y Ferreira afirman que no siempre se construye una estructura sintáctica e idealizada: La gente no intenta hacer un análisis perfecto sino que, por el contrario, se contenta con interpretaciones que parecen suficientemente buenas

Algunos investigadores creen ahora que la gente utiliza heurísticas sencillas al procesar el lenguaje, además de un procesamiento sintáctico detallado y completo.

McKoon y Ratcliff: Las propias construcciones sintácticas acarrean significado, más allá del significado de las palabras que las componen:

Una sintaxis distinta transmite un significado distinto.

  • Las construcciones relativas reducidas transmiten un significado particular, sólo se pueden combinar con determinados tipos de sustantivos y verbos (no se pueden utilizar para hablar de determinadas cosas).

  • Las relativas reducidas con verbos denotan sucesos provocados internamente son realmente incorrectas gramaticalmente, que es la razón por la que la gente tiene tantos problemas con ellas.

  • La gente sólo produce relativas reducidas con verbos de causación externa (si el control es interno, se utilizan construcciones no reducidas).

  • Denominan a este enfoque: sintaxis por el significado, que estaría en conflicto con las Teorías basadas en restricciones:

    • Según la Teorías basadas en restricciones el procesador del lenguaje conoce las estadísticas sobre la utilización, no los significados y las reglas.

    • Según la sintaxis por significado, el procesador del lenguaje conoce los significados y las reglas, pero no las estadísticas.

  • La información estadística sobre los verbos derivada de un cuerpo de habla real no predice los tiempos de lectura de las frases que incluyen estos verbos.

McRae, Hare y Tanenhaus, criticaron la sintaxis por el significado:

  • La dificultad de las relativas reducidas se explica mejor, no mediante una distinción entre fuentes interna y externa, sino a partir de la dificultad el procesamiento temporal resultante de la ambigüedad.

  • Las construcciones sintácticas pueden, en ocasiones, forzar o cohesionar una interpretación particular independientemente del significado del verbo

  • Las construcciones de las frases sí acarrean un sig. independientemente de los verbos que las componen

Resulta difícil ver cómo podría el enfoque de la sintaxis por significado Sustituir a las teorías alternativas sobre la dificultad del Análisis Sintáctico

Procesamiento de la ambigüedad sintáctica por categorías

Una palabra puede estar en más de una categoría sintáctica. Proporciona una prueba útil de la idea de que la ambigüedad léxica y la sintáctica son facetas de una misma cosa y se procesan de manera análoga.

La ambigüedad léxica por categorías se resuelve mediante un mecanismo de retraso:

  • El procesador retrasa la selección hasta que se encuentra una información definitiva desambiguadola más adelante en la frase.

  • La ventaja de esta estrategia es que ahorra una gran cantidad de computación porque normalmente la palabra siguiente a la ambigüedad léxica por categorías proporciona suficiente información de desambiguación.

Frazier y Rayner proporcionan cierto respaldo experimental a esta estrategia:

  • Concluyeron que los tiempos de lectura de la región crítica ambigua eran más breves en la condición ambigua que en las condiciones no ambiguas; sin embargo, en la condición ambigua los tiempos de lectura eran más largos en el material de desambiguación que apareció posteriormente en la frase.

  • Cuando el procesador se encuentra con la ambigüedad inicial se produce muy poco análisis. Por el contrario, se retrasa el procesamiento hasta que se llega a la información posterior desambiguadola cuando se necesita un trabajo adicional.

Teorías basadas en restricciones: no hay disintinción real entre la ambigüedad léxico-semántica y la ambigüedad léxica por categorías. En cada caso se activa las alternativas en paralelo en función de la fortaleza del apoyo que reciben de múltiples fuentes de información.

¿Cómo explican las conclusiones de Frazier et al? Según McDonald, los tiempos de lectura relativamente rápidos en la región ambiguo de la condición experimental se debían a que los tiempos de lectura comparables en la condición de control eran bastantes lentos, puesto que los lectores tenían que tomar distancia ante la infrecuente aplicación de “this” y “these”

Efectos del sesgo semántico:

Según el modelo de retraso, incluso un fuerte sesgo semántico no debería afectar a la resolución inicial, porque se retrasan todas las decisiones hasta que se alcanza la región de desambiguación: los tiempos de lectura deberían ser los mismos independientemente de que el sesgo esté respaldado o no.

Modelo basado en restricciones: un fuerte sesgo semántico debería tener un efecto inmediato, si la interpretación resulta correcta, los tiempos de lectura de las frases ambiguas no deberían diferir de las de la condición de control sin ambigüedad. Los tiempos de lectura de la frase ambigua sólo deberían aumentar cuando la interpretación favorecida por el sesgo semántico es incorrecta. El sesgo semántico tiene un efecto inmediato:

Cuando identificamos una palabra, no nos limitamos a acceder a su categoría sintáctica, activamos otros conocimientos que desempeñan un papel inmediato en el AS, como el conocimiento sobre la F de las estructuras sintácticas alternativas

La conclusión de que el contexto tiene un efecto posterior requiere una modificación de las teorías estándar basadas en restricciones.

Brechas, huellas y dependencias sin restricciones

El Análisis Sintáctico de las frases sugiere que, en ocasiones, se ha movido o borrado un elemento constituyente. Brecha: parte vacía de la construcción sintáctica que está relacionada con un rellenador (lo que rellena la brecha)

Se pueden mover partes de la frase a otra parte de la misma. Cuando se mueven dejan un tipo de brecha especial conocido como rastro.

Dependencia sin límites: los elementos constituyentes asociados están separados el uno del otro (y pueden, en principio, estar separados por una distancia infinita).

Las brechas y rasgos:

  • Pueden ser importantes en el Análisis Sintáctico, pero si afectarán a este, habría que localizar la brecha y después rellenarla, existe evidencia a favor de ello:

  • Los rastros tensan la memoria

  • Se puede detectar el procesamiento del rastro midiendo la actividad eléctrica del cerebro.

  • Todos los idiomas parecen utilizar una estrategia de rellenador reciente por la que, en casos de ambigüedad, se rellana la brecha con el rellenador más reciente gramaticalmente plausible.

Estrategia del rellenador activo: cuando el procesador detecta una brecha la rellena con el elemento más activo y está preparado para volver a analizar si es necesario.

Estrategia del rellenador reciente: El procesador detecta una brecha, la rellena con un rellenador que es elemento constituyente desplazado potencial más reciente.

Puede resultar difícil distinguir ambas estrategias pero, en cada caso, la detección del rastro desempeña un papel importante en el Análisis Sintáctico.

Parece que los rasgos pueden primar el reconocimiento de constituyentes desplazados o de antecedentes con los que están asociados (el rellenador de la brecha se reactiva semánticamente en la brecha)

Cuando nos encontramos un rasgo, parece que recuperamos su antecedente asociado, un proceso conocido como vinculación del elemento desplazado al rastro, haciéndolo así más accesible.

Otras investigaciones sugiere que los rastros no son importantes en el procesamiento conectado.

Un planteamiento alternativo a la idea de que activamos los filtros cuando llegamos a una brecha es que la interpretación está impulsada por los verbos, más que por la detección de las brechas, de forma que postulamos argumentos esperados de un verbo en cuanto llegamos a él (hipótesis demostrada por Boland et al)

En resumen, la mayor parte de la evidencia sugiere que los rellenadores se postulan activando la estructura del argumento de los verbos.

La neurociencia del análisis sintáctico

Los déficits del Análisis sintáctico pueden no siempre resultar evidentes, porque la gente suele recurrir a las pistas semánticas para obtener el sig. El déficit se hace patente cuando se eliminan estas pistas y el paciente se ve obligado a recurrir al procesamiento sintáctico.

Hay evidencia de que las funciones sintácticas tienen lugar en determinadas partes del cerebro dedicadas en exclusiva a estas funciones

La capacidad de comprensión de los afásicos agramaticales

El agramatismo es un desorden del procesamiento sintáctico tras una lesión en el área de Broca. Su característica más evidente es un deterioro en la producción del habla, pero muchas personas también tienen problemas para comprender frases sintácticamente complejas.

La capacidad de encontrar la correspondencia de frases con imágenes cando se eliminan las pistas semánticas está deteriorada.

Tienen especialmente problemas para comprender construcciones pasivas reversibles y con objeto relativo cuando no hay pistas semánticas.

Posibles explicaciones de estos problemas:

La lesión cerebral ha deteriorado su capacidad de analizar sintácticamente.

Son incapaces de acceder correctamente a los elementos gramaticales.

No se procesan correctamente los rastros sintácticos y los nodos terminales de los árboles sintácticos que se corresponden con las palabras funcionales no están formados de forma adecuada.

Hipótesis de la supresión del rastro: afirma que la gente que tiene un déficit de comprensión agramatical tiene problemas para computar la relación entre los elementos de una frase que se han desplazado mediante una transformación gramatical y su origen, así como para construir las partes superiores del árbol sintáctico (problema: la evidencia de la existencia de rastros en el Análisis Sintáctico es cuestionable)

La evidencia contra la idea de que las personas con agramatismo tienen cierta discapacidad del Análisis Sintáctico: proviene de la tarea de valoración de la corrección gramatical.

Schwartz, Linebarger, Saffran y Pate: los pacientes con agramatismo podían aislar los argumentos del verbo principal de frases que contenían materiales extraños pero tenían problemas utilizando la sintaxis para asignar papeles temáticos. Los pacientes no han perdido necesariamente el conocimiento sintáctico, sino que son incapaces de utilizarlo correctamente.

Hipótesis de las correspondencias:

  • Es la idea de que la perturbación de la compresión se produce porque, a pesar de que los procesos de AS de bajo nivel están intactos, las personas agramaticales están limitadas en lo que pueden hacer con los resultados de estos procesos (en concreto, tienen problemas para asignar papeles temáticos):

  • Compensan, al menos en parte, utilizando restricciones semánticas, aunque Saffran et al, han demostrado que el recurso a estas restricciones puede, en ocasiones, despistarlos aún más

  • Aunque cabría esperarse su existencia, nadie a descrito el caso de una persona que conozca los significados de las palabras pero sea incapaz de asignarlos a papeles temáticos.

  • Un planteamiento opuesto postulaba que el déficit de la comprensión sintáctica se debe a un deterioro de la memoria general:

  • El deterioro depende del grado de reducción de la capacidad del lenguaje y de la complejidad estructural de la frase que se está procesando.

  • Los recursos computacionales limitados implican que las personas que tienen un déficit de comprensión sintáctica padecen una disponibilidad de materiales restringida.

  • Las personas que tienen un déficit de comprensión sintáctica se encuentran únicamente en un extremo de un continuo de una capacidad ejecutiva central comparadas con la población normal. El conocimiento sintáctico sigue intacto, pero no se puede utilizar adecuadamente debido a este deterioro de la memoria de trabajo.

  • La evidencia adicional a favor de esta idea proviene de los informes propios de los pacientes afásicos que sugieren que tienen otros recursos computacionales limitados y, análogamente, que un habla más lenta facilita la comprensión sintáctica en algunos pacientes afásicos.

  • El incremento del tiempo proporciona más oportunidades para utilizar los recursos limitados; la falta de tiempo o un rápido declive de los resultados del procesamiento sintáctico podrían jugar un papel causal en el déficit de comprensión sintáctica y en la producción agramatical.

  • Esta es una idea interesante que ha provocado una gran cantidad de debate

Una reducción general de la capacidad de memoria de trabajo no puede provocar el déficit sintáctico en el agramatismo.

¿Se procesan de distinta manera las palabras de contenido y las palabras funcionales?

Las palabras de contenido son sensibles a la frecuencia en una tarea de decisión léxica, pero no las palabras funcionales. El patrón anterior no se da en el agramatismo: son sensibles a la frecuencia de las palabras funcionales y a la frecuencia de las palabras contenido. ¿Por qué?

La lesión cerebral implica que las palabras funcionales ya no pueden ser accedidas por un conjunto especial de procesos y deben ser accedidas como otras palabras de contenido.

Quizá esta dificultad de activar las palabras funcionales explique la dificultad de comprensión de los pacientes con agramatismo.

No hay una clara evidencia neuropsicológica de que se trate de forma especial a las palabras funcionales en el Análisis sintáctico.

¿Está deteriorado el procesamiento automático o atencional en el agramatismo?

Tyler proporcionó cierta evidencia de que al menos algunos déficit en algunos pacientes surgen debido a un déficit del procesamiento atencional: Los resultados de sus estudios sugieren que los procesos del Análisis Sintáctico automáticos están intactos pero los procesos atencionales estaban deteriorados.

Evidentemente, algunos de los déficits que observamos se deben a factores atencionales: la pregunta es, ¿cuántos son?

Evaluación de los estudios sobre la neuropsicología del análisis sintáctico

Gran parte del trabajo tienen un carácter técnico y está relacionado con las teorías lingüísticas de la representación sintáctica. Es improbable que haya una única causa para la diversidad de los déficits observados.

Friederici describe un modelo de procesamiento de frases donde las regiones temporales izquierdas identifican los sonidos y las palabras; el córtex frontal izquierdo está involucrado en las secuencias y la formación de relaciones estructurales y semánticas:

El Hemisferio Derecho está implicado en la identificación de la prosodia.

La creación de imágenes y los datos sugieren que el procesamiento de las frases se produce en 3 fases:

  1. (100-300 ms) se forma la estructura sintáctica iniciada a partir de la información sobre la categoría de las palabras.

  2. (300-500 ms), los procesos léxico-sintácticos que tienen lugar generan una asignación de los papales temáticos.

  3. (500-1000 ms), se integran los distintos tipos de información.

Los procesos sintácticos y semánticos sólo actúan en la fase 3.

Anterior
Siguiente