Reconocimiento visual de las palabras
Introducción
El reconocimiento implica la identificación de un elemento como algo con lo que estamos familiarizados, no sólo estamos interesados en descubrir cómo decidimos que una serie de letras impresas nos resulta familiar o no, sino también cómo se accede a toda la información relacionada con una palabra. Por ejemplo, cuando ve la serie de letras “f a n t a s m a”, sabe algo más que el simple hecho de que forman una palabra, que es un sustantivo y que puede desempeñar otros papeles en las frases, pero no otros, y tambien sabe como se pronuncia. En el acceso léxico, accedemos a la representación de un elemento a partir de su representación perceptiva y, en ese momento, se encuentra disponible este tipo de información.
Balota denominó al momento en que una persona ha reconocido una palabra pero todavía no ha accedido a su significado “el momento mágico”. En los modelos con un momento mágico, sólo se puede acceder al significado de una palabra cuando ya se ha reconocido. Johnson-Laird propuso que la profundidad del acceso léxico puede variar. Observó que, en ocasiones, apenas recuperamos información sobre una palabra. Gerrig amplió esta idea, y afirmó que hay distintos “modos de acceso léxico” en distintos contextos.
Aunque la gran mayoría de los seres humanos ha utilizado el lenguaje hablado durante mucho tiempo, la alfabetización es un acontecimiento relativamente reciente. Ha habido una gran cantidad de investigación sobre el reconocimiento visual de las palabras, en parte debido a su comodidad.
El alfabetismo es una característica importante de la cibilización moderna.
Métodos básicos y conclusiones básicas
El estudio de los movimientos oculares en la lectura
El estudio de los movimientos oculares ha adquirido importancia al ayudarnos a comprender tanto la forma en que reconocemos las palabras como la forma en que procesamos unidades más largas de lenguaje impreso.
Hay una serie de técnicas disponibles para investigar los movimientos oculares:
Técnica seguimiento del limbo ocular: Se refleja un haz infrarrojo en el globo ocular haciendo un seguimiento del límite entre el iris y el blanco del ojo (el limbo ocular). Aunque es un buen sistema para hacer un seguimiento horizontal del movimiento del ojo, no es muy bueno para hacer un seguimiento de los movimientos verticales.
El sistema de Purkinje, hace un seguimiento preciso tanto de los movimientos horizontales como de los verticales. El sistema calcula los movimientos del centro exacto de la pupila.Cuando leemos, no movemos los ojos de manera homogénea, los ojos se desplazan en saltos denominados sacudidas.
Sacudidas: los ojos se desplazan en saltos de una duración de entre 20 y 60 ms.
Fijaciones: entre las sacudidas se dan intervalos de entre 200 y 250 ms en los que el ojo se para.
Cuando el ojo se está moviendo en una sacudida se asimila muy poca información. La información que se pueden asimilar durante una fijación es limitada: quince caracteres a la derecha y tan sólo entre tres y cuatro a la izquierda para los angloparlantes e hispano parlantes. Esta asimetría se revierte en el caso de las personas que leen en hebreo, que leen de derecha a izquierda. Las personas con una gran habilidad de lectura pueden asimilar más información en una fijación (tienen un mayor alcance) que los lectores menos adiestrados. La información percibidas en las regiones más alejadas del punto de fijación se utiliza para guiar los siguientes movimientos oculares.
La fóvea es la parte más sensible del campo visual y corresponde aproximadamente a los siete caracteres centrales de un texto de tamaño medio. La fóvea está rodeada de la parafóvea donde la agudeza visual es más reducida; más alta se encuentra la periferia, donde la agudeza visual es aún peor. Extraemos la mayor parte del significado de lo que leemos de la zona de la fóvea. Rayner y Bertera mostraron un texto a lectores con una máscara móvil que creaba un punto de cegera móvil si se tapaba la región de la fóvea, era posible leer con la región inmediatamente circundante a la fóvea (parafóvea), pero a un ritmo mucho más lento (sólo 12 palabras por minuto). Si se tapaban tanto la fóvea como la parafóvea, era imposible leer.
A veces cometemos errores, o tenemos que repasar el material anterior, y tenemos que mirar atrás. Estos movimientos oculares hacia atrás al material anterior, denominados regresiones, son a veces tan breves que no somos conscientes de ellos. El estudio de estos movimientos oculares regresivos proporciona importante información sobre cómo aclaramos el material ambiguo.
El modelo más influyente del control del movimiento ocular es el modelo E-Z Reader. En este modelo, la atención, el procesamiento visual y el control oculomotor determinan conjuntamente cuándo y a dónde se mueven los ojos cuando leemos. La idea central de este modelo es que, cuando leemos, nos fijamos en un punto, y después la atención visual progresa avanzando por la línea de texto hasta que se alcanza un punto donde las limitaciones de la precisión del sistema visual dificultan extraer más información y reconocer las palabras. A continuación se desplaza la atención y se programa un movimiento ocular en el sistema oculomotor para moverse al punto de dificultad. A continuación se produce una sacudida a la nueva localización, y se repite el proceso. Las sacudidas están programadas en dos etapas: Hay una primera fase lábil cuando se puede cancelar la sacudida prevista si resulta que ya no es necesaria; tras esta primera fase inicial lábil no se pueden cancelar las sacudidas. El supuesto central, y más controvertido, del modelo es que se presta atención de una palabra a otra de forma estrictamente serial, cambiando únicamente cuando se ha identificado cada palabra. Este supuesto asegura que las palabras se procesan en el orden correcto. La “identificación” de las palabras se produce en dos fases:
Comprobación de la familiaridad (¿conozco esta palabra? ¿Es probable que pueda utilizarla?). La culminación de la primera fase puede desencadenar la programación de una sacudida.
El acceso léxico pleno, en el que se recupera el significado y la representación de la palabra integrada con la estructura lingüística emergente. La culminación de la segunda fase desencadena un cambio de la atención que pasa a la siguiente palabra.
Por tanto, en este modelo las sacudidas y la atención están separadas, y tienen distintas fuentes de control (familiaridad e identificación). El procesamiento lingüístico puede afectar a los movimientos oculares; por ejemplo, si resulta que un análisis es incorrecto, podemos volver a una localización anterior. En el modelo, los procesos de nivel superior intervienen en el impulso general hacia adelante sólo cuando algo ha salido mal.
Tiempo de reacción y otras mediciones
En la tarea de denominación se presenta visualmente a los participantes una palabra que tienen que nombrar midiendose el tiempo que tarda el participante en empezar a nombrar la palabra en voz alta. La latencia de denominación suele ser de aproximadamente 500 ms desde el momento en que se presenta la palabra.
En la tarea de decisión léxica el participante tiene que decidir si una serie de letras es una palabra o una palabra inexistente. En el método de presentación visual más frecuente se muestra la serie de letras en la pantalla de una computadora (también existe una versión auditiva de esta tarea). Por ejemplo, el participante debe apretar una tecla en respuesta a la palabra “enfermera” y otra tecla en respuesta a la palabra inexistente “entermera”. El experimentador mide el tiempo de reacción y las tasas de error. Los experimentadores tienen que ser muy sensibles al problema del intercambiodel equilibrio entre velocidad y precisión (cuanto más rápido contesta el participante, más errores comete). Por tanto, los investigadores suelen que tener cuidado sobre cuales son las instrucciones exactas que dan a los participantes.
En los experimentos que miden el tiempo de reacción no resulta particularmente útil medir el tiempo absoluto necesario para responder. Lo que importan son las diferencias entre condiciones. Suponemos que nuestras manipulaciones experimentales sólo alteran determinados aspectos del procesamiento, y que todo lo demás permanece constante y, por lo tanto, queda cancelado.
En la identificación taquistoscópica se muestran palabras a los participantes durante un periodo de tiempo muy breve. Los investigadores utilizaron en el pasado un instrumento denominado taquistoscopio; ahora se utilizan computadoras, pero se sigue utilizando el nombre para hacer referencia a la metodología general. El experimentador registra los umbrales a los que los participantes ya no pueden identificar elementos con seguridad. Si la presentación es suficientemente breve, o si se interfiere con los procesos de percepción normales cuando se presenta un segundo estímulo muy deprisa después del primero, podemos encontrar, en ocasiones, lo que se conoce comúnmente como percepción subliminal. En este caso, la conducta de los participantes se ve afectada, aunque no son conscientes de que se haya presentado algo.
La tarea de clasificación semántica requiere que el participante tome una decisión que utiliza procesos semánticos. Por ejemplo, ¿la palabra “manzana” hace referencia a una “fruta” o a una “verdura”? ¿Es el objeto al que hace referencia determinada palabra mayor o menor que una silla?
Las distintas técnicas no siempre proporcionan los mismos resultados. Utilizan distintas facetas del procesamiento.
Una de las ideas más importantes en el reconocimiento de las palabras es la de priming o imprimación. Implica presentar material antes de presentar la palabra para la que se quiere una respuesta. Uno de los paradigmas más comunes consiste en presentar una palabra antes de presentar la palabra objetivo para la que se quiere que se dé una respuesta (como nombrarla o tomar una decisión lógica).
La primera es la palabra prima y la palabra para la que se quiere una respuesta es la palabra objetivo. El tiempo que transcurre entre que se presenta por primera vez la palabra prima (el comienzo) y el inicio de la palabra objetivo se denomina asincronía del comienzo del estímulo o ACE.
¿Qué facilita (o dificulta) el reconocimiento de las palabras?
Muchos de los fenómenos que vamos a ver a continuación también se aplican al reconocimiento de la palabra hablada. En concreto, los efectos de frecuencia y la imprimación semántica se encuentran en ambos tipos de reconocimiento.
Interferencia en la identificación
Podemos ralentizar la identificación de las palabras haciendo que sea más difícil reconocer el estímulo, se puede conseguir de distintas formas:
Degradación del estímulo: consiste en degradar su apariencia física. Se puede conseguir separando las letras que forman la palabra, reduciendo el contraste entre la palabra y el fondo sobre la que se presenta o rotando la palabra presentándola en un ángulo extraño.
Enmascaramiento hacia atrás: La presentación de otro estímulo inmediatamente después del objetivo interfiere con el proceso de reconocimiento. Hay dos formas distintas de hacerlo.
Enmascaramiento por energía (o iluminación, o ruido aleatorio): Cuando el enmascaramiento del estímulo no está estructurado (ej. si es solamente un montón de puntos negros situados de manera aleatoria, o sencillamente un resplandor de luz). Sus efectos actúan sobre el nivel de detección de la característica visual provocando escasez de las características visuales y dificultando su identificación.
Enmascaramiento con patrón (o enmascaramiento de las características): Cuando el enmascaramiento del estímulo está estructurado (ej. si incluye letras o partes aleatorias de letras). Estos dos tipos de enmascaramiento tienen efectos muy distintos. Sus efectos crean interferencias a nivel de las letras y limita el tiempo disponible para procesar.
El enmascaramiento se utiliza en los estudios de una de las mayores controversias de la psicolingüística, la de la percepción sin conciencia. La percepción sin conciencia es una forma de percepción subliminal. Investigadores como Allport y Marcel descubrieron que las palabras que se han enmascarado hasta el punto de que los participantes afirman que no son conscientes de su presencia pueden, no obstante, producir una activación del sistema de identificación de las palabras, incluso hasta el nivel del procesamiento semántico. Es decir, podemos acceder a información semántica sobre un elemento sin ser conscientes de su presencia. Han surgido críticas metodológicas. Hasta la fecha, no está claro si podemos identificar y acceder a información relacionada con el significado de las palabras sin una sensibilización consciente, aunque la balanza de la evidencia se decanta probablemente por la respuesta afirmativa.
Otra forma informativa con la que podemos interferir en el reconocimiento de las palabras consiste en presentar una palabra, pero en retrasar la presentación de una o dos letras al inicio de la palabra enmascarando esas letras hacia atrás. En inglés, tras 60 ms no hay gran diferencia pero, antes de eso, el retraso de las consonantes perturba el reconocimiento visual de las palabras mucho más que el retraso de una vocal. Por tanto, la identificación de las consonantes es particularmente importante al principio para reconocer una palabra. En inglés, las consonantes tienen una correspondencia más regular de la apariencia visual al sonido, mientras que las vocales no. En italiano, que tiene una correspondencia mucho más regular de las vocales, no hay una ventaja de las consonantes. Por tanto, los lectores que leen distintos idiomas hacen un uso diferencial temprano de la información que es probable que los ayude a identificar una palabra.
Frecuencia, familiaridad y edad de la adquisición
La frecuencia de una palabra es un factor muy importante en su reconocimiento. Las palabras que se utilizan comúnmente son más fáciles de reconocer y se responde más rápidamente ante ellas que ante palabras menos comunes.
El efecto de la frecuencia no es meramente el resultado de diferencias entre palabras frecuentes e infrecuentes (ej. “año” frente a “herejía”) donde cabría esperar una diferencia, sino también entre palabras comunes y palabras ligeramente menos comunes (ej. “rain”, lluvia, frente a “puddle”, charco). Por tanto, es esencial controlar la frecuencia en los experimentos psicolingüísticos, asegurando que se tienen en cuenta las distintas condiciones. Evidentemente, hay diferencias entre distintas versiones del inglés (ej. “pavement” y “sidewalk”, dos palabras para acera) y entre la frecuencia de la palabra escrita y hablada. Por ejemplo, el pronombre “yo” es diez veces más frecuente en el inglés hablado que en el escrito. La base de datos CELEX que está almacenada electrónicamente, se utiliza para comprobar dicha frecuencia.
Hay otras varias variables correlacionadas con la frecuencia. Por ejemplo, las palabras frecuentes tienden a ser más cortas. Si quiere demostrar un efecto sin ambigüedades de la frecuencia, debe tener cuidado para tener en cuenta estos otros factores.
La frecuencia está particularmente entremezclada con la edad de la adquisición. La edad de la adquisición de una palabra es la edad a la que aprendió una palabra por primera vez. En conjunto, los niños aprenden las palabras más comunes primero, pero hay excepciones: por ejemplo, “gigante” suele aprenderse a una edad temprana aunque es una palabra con una frecuencia relativamente baja. Las palabras que se aprenden a una edad temprana se nombran más deprisa y con más precisión que las que se aprenden posteriormente, en toda una serie de tareas, incluyendo el nombramiento de objetos, nombramiento de palabras y la decisión léxica. Cuanto más tardía es la edad de adquisición de un nombre, más difícil será que la produzca un individuo con una lesión cerebral.
Se ha sugerido que todos los efectos de la frecuencia son, realmente, efectos de la edad de la adquisición. Los efectos de la edad de la adquisición persisten incluso cuando se tiene en cuenta la frecuencia acumulada. Es probable que tanto la frecuencia como la edad de la adquisición tengan un efecto sobre el procesamiento de las palabras. Es posible que las distintas tareas difieran en su sensibilidad a la edad de la adquisición y a las distintas mediciones de la frecuencia; la edad de la adquisición afecta particularmente a la lectura de las palabras, mientras que la frecuencia acumulada (número de palabras adquirido) tiene un efecto en todas las tareas.
Por otra parte, Zevin y Seidenberg proporcionan simulaciones que demuestran que las tareas que implican redundancia y regularidad en la correspondencia entre los elementos de entrada y de producción (ej. la lectura, donde las letras se convierten en sonidos de forma muy predecible) son menos proclives a los efectos de la edad de la adquisición y sólo son sensibles a la frecuencia acumulada, pero las tareas con menos redundancia y regularidad (como aprender los nombres de objetos o caras) sí muestran efectos de la edad de la adquisición.
Los efectos de la edad de la adquisición podrían surgir a consecuencia de la pérdida de plasticidad de los sistemas en desarrollo. En vez de entrenar a una red conexionista para que aprenda simultáneamente todos los elementos, Ellis y Lambón Ralph introdujeron elementos en el régimen de entrenamiento en distintos momentos. Los elementos aprendidos al principio tenían una ventaja, independientemente de su frecuencia de aparición. A medida que una red aprende más elementos, se hace menos plástica y los últimos elementos no están representados tan eficientemente, o con tanta potencia, como los que se aprendieron al principio, porque es más difícil diferenciarlos de los elementos que ya se han aprendido. Los elementos que se han aprendido al principio tienen una ventaja que les permiten desarrollar representaciones más fuertes en la red. Los elementos que se han aprendido tarde sólo pueden desarrollar fuertes representaciones si se presentan con una frecuencia muy alta.
Longitud de la palabra
Gough (1972) afirmó que durante el reconocimiento de las palabras se sacan las letras de una pequeña memoria visual a corto plazo, una a una. La tasa de transferencia es más lenta en los lectores menos expertos. Por tanto, no sería nada sorprendente que fuera más difícil identificar las palabras largas que las cortas. Sin embargo, resulta muy difícil identificar un efecto de la longitud independiente de la frecuencia. Una complicación es que hay tres formas distintas de medir la longitud de las palabras: por el número de letras que hay en la palabra, por el número de sílabas y por el tiempo que se tarda en decir la palabra.
Chumbley y Balota (1984) encontraron efectos de la longitud en la decisión léxica cuando las palabras existentes e inexistentes tenían la misma longitud y regularidad en su pronunciación.
Weekes (1997) determinó que la longitud de la palabra (medida por el número de letras) tenía un escaso efecto en el nombramiento de las palabras cuando se tenían en cuenta otras propiedades de las mismas (como el número de palabras parecidas a la palabra objetivo), aunque la longitud tenía cierto efecto en la lectura de las palabras inexistentes. Parece que el número de letras de una palabra tiene poco efecto en el caso de las palabras cortas, pero cierto efecto para palabras con entre cinco y doce letras. Además, los efectos de la longitud de la palabra en el nombramiento reflejan probablemente el mayor número de palabras parecidas con una pronunciación similar en el caso de las palabras más cortas.
El tiempo de nombramiento aumenta en función del número de sílabas en una palabra. Existe al menos cierta contribución de la preparación para articular estas sílabas, además de cualquier efecto de la percepción. Encontramos un efecto similar en el nombramiento de imágenes. Tardamos más tiempo en nombrar imágenes de objetos descritos con palabras largas en comparación con las imágenes de objetos descritos con palabras cortas, y tardamos más en leer números que tienen más sílabas en su pronunciación.
Efectos de la vecindad
Algunas palabras tienen un gran número de palabras parecidas a ellas mientras que otras palabras de frecuencia similar tienen pocas palabras que se parezcan. Coltheart y cols. definieron el estadístico N como el número de palabras que se puede crear cambiando la letra de una palabra objetivo (vecinos ortográficos). N es un indicador del tamaño del vecindario (o densidad).
El tamaño del vecindario afecta al reconocimiento visual de las palabras, más fácil reconocer las palabras cuando con un elevado N se tienen en cuenta otros factores. El desempeño en tareas de nombramiento y decisión léxica es más rápido para las palabras de baja frecuencia que tienen muchos vecinos ortográficos. Las partes que riman de los vecinos parece particularmente importante para producir la facilitación.
Además del tamaño del vecindario, la frecuencia de los vecinos también podría ser importante aunque, en una revisión de la literatura, Andrews concluyó que el tamaño del vecindario tiene más efectos que la frecuencia de los vecinos. Por otra parte, es sorprendente que tener muchos vecinos provoque una facilitación, en vez de competencia.
Diferencias entre palabras existentes e inexistentes
Por lo general se responde más deprisa a las palabras que a las palabras inexistentes. Las palabras inexistentes más inverosímiles se rechazan más deprisa que las palabras inexistentes verosímiles. Por tanto, en una tarea de decisión léxica somos relativamente lentos cuando tenemos que rechazar una palabra inexistente como “sunto” (que podría haber sido una palabra y, de hecho, se parece mucho a una, “santo”), pero rechazamos rápidamente una palabra como “tnszv”. Las palabras inexistentes verosímiles (es decir, que comprendan reglas de formación de las palabras del idioma en tanto en cuanto no incluyen series de letras inaceptables) se denominan, en ocasiones, pseudopalabras.
Priming por repetición
La técnica de facilitar el reconocimiento repitiendo una palabra se conoce como imprimación (priming) por repetición. Cuando ha identificado una palabra, es más fácil identificarla en la siguiente ocasión. La repetición facilita tanto la precisión de la identificación perceptiva como los tiempos de respuesta a la decisión léxica. La repetición tiene un efecto sorprendentemente duradero (varias horas, o incluso más).
En una tarea de decisión léxica, los efectos de la imprimación por repetición son más potentes con las palabras de baja frecuencia que con las de alta frecuencia, un efecto conocido como el de la atenuación de la frecuencia. Forster y Davis también enmascararon con patrones la palabra prima en un intento de borrar cualquier posible memoria episódica de la misma. Concluyeron que los efectos de repetición tienen dos componentes: un efecto muy breve de acceso léxico y un efecto episódico a largo plazo, y sólo éste último es sensible a la frecuencia.
Ha habido un considerable debate sobre si la imprimación por repetición se produce debido a la activación de la representación almacenada de un elemento o si se debe a la creación de un registro de todo el procesamiento, incluyendo la memoria episódica. Una evidencia importante que respalda la visión episódica es el descubrimiento de que normalmente logramos la facilitación mediante imprimación por repetición únicamente dentro de un campo (como la modalidad visual o auditiva) pero la imprimación semántica (por significado o asociación) también funciona entre campos.
Priming basado en la forma
Al compartir letras, se dice que están ortográficamente relacionadas y este fenómeno se conoce como imprimación ortográfica o basada en la forma. Podríamos esperar que ver una palabra como contraste facilite el reconocimiento de contrate, porque hay un solapamiento entre sus formas físicas.
La imprimación basada en la forma sólo es eficaz con primas enmascaradas con ace cortas, de forma que no se percibe conscientemente la prima. Las palabras primas relacionadas con la forma pueden incluso tener un efecto inhibidor, ralentizando el reconocimiento de la palabra objetivo, debido a que las palabras semejantes visualmente están en competencia durante el proceso de reconocimiento, de forma que, en algunos casos, las palabras parecidas en apariencia se inhiben entre sí. La imprimación basada en la forma es mucho más fácil de obtener si se enmascara la prima, tal vez porque la imprimación cubierta es una forma más “pura” de imprimación que no tiene contribución del procesamiento consciente.
Priming semántico
La imprimación semántico implica que la identificación de una palabra puede quedar facilitada mediante una exposición anterior a una palabra con un significado relacionado. Por ejemplo, afirmamos más deprisa que “doctor” es una palabra si va precedida de la palabra “enfermera” que si va precedida de una palabra sin un significado relacionado, como “mantequilla” o que si se presenta de manera aislada.
La palabra imprimación (priming) se reserva mejor para la metodología de investigar lo que ocurre cuando una palabra precede a otra. La primera palabra (la prima) podría acelerar el reconocimiento de la segunda palabra (la objetivo), en cuyo caso hablamos de facilitación. A veces, la prima ralentiza la identificación de la palabra objetivo, en cuyo caso hablamos de inhibición.
Con intervalos de tiempo muy pequeños, se puede producir la imprimación si la palabra prima sigue a la objetivo. Esto sugiere que las palabras se procesan en cierta medida en paralelo si el tiempo entre las mismas es suficientemente breve.
La imprimación semántica es un tipo de efecto del contexto. Se puede ver que el efecto podría tener ciertas ventajas para el procesamiento. Rara vez se leen (u oyen) las palabras de manera aislada ni tampoco se yuxtaponen las palabras de manera aleatoria. Las palabras con un significado relacionado pueden aparecer juntas en las frases. Por tanto, es posible que se acelere el procesamiento si se logra facilitar el acceso a palabras relacionadas con la palabra que está leyendo actualmente, puesto que es más probable que sea la siguiente palabra que otra palabra aleatoria.
Otros factores que afectan al reconocimiento de palabras
Hay otros factores que hay que mencionar, incluyendo la categoría gramatical a la que pertenece la palabra. Es posible que la facilidad de crear una imagen, el significado y lo concreto de una palabra también tenga un efecto sobre su identificación.
Rubin concluyó que la frecuencia, implicación emocional y facilidad de pronunciación eran los mejores elementos de predicción del desempeño en las tareas experimentales utilizadas comúnmente. Whaley que la frecuencia, el significado y el número de sílabas tenían un mayor efecto sobre los tiempos de decisión léxica, aunque recientemente la edad de la adquisición ha pasado a estar al frente como variable importante. En un estudio de un gran número de palabras, Balota y cobls. concluyeron que la contribución de las variables dependía en gran medida de la tarea. Las variables semánticas son particularmente importantes, sobre todo en la decisión léxica. Finalmente, el contexto sintáctico afecta al reconocimiento de la palabra.
Procesos atencionales en el reconocimiento visual de las palabras
Leer es un proceso obligado. Cuando ve una palabra escrita, no puede dejar de leerla. La evidencia para respaldar esta introspección se obtiene de la tarea de Stroop.
Procesamiento automático frente a procesamiento atencional: el procesamiento automático es rápido, paralelo, no es proclive a interferencias de otras tareas, no requiere espacio en la memoria de trabajo, no se puede prevenir, y no es conscientemente accesible. El procesamiento atencional (o controlado) es lento, en serie, sensible a las interferencias de tareas antagonistas, rtiliza espacio en la memoria de trabajo, se puede prevenir o inhibir y sus resultados suelen ser accesibles, aunque no necesariamente, a la consciencia.
Neely utilizó la tarea de la decisión léxica para investigar los procesos atencionales en la imprimación semántica. Concluyó que el patrón de resultados dependía de las ACE. Con ACE pequeñas, una palabra inesperada pero con relación semántica, quedaba facilitaba respecto a la condición de base, mientras que los participantes tardaban aproximadamente el mismo tiempo en responder a la palabra esperada, pero sin relación semántica. Para ACE largas, al contrario.
Neely interpretó estos resultados como demostrativos de dos procesos distintos que actúan con ACE cortas y largas:
Con ACE cortas, se produce una rápida facilitación de corta duración de los elementos con relación semántica, que no se puede impedir, independientemente de cuáles sean las expectativas de los participantes. Esta facilitación se basa en las relaciones semánticas entre palabras. No hay ningún tipo de inhibición con ACE cortas. Esto es lo que se conoce como imprimación automática.
Para ACE largas, se produce una lenta acumulación de la facilitación que depende de las expectativas de los participantes. Esto provoca una inhibición de las respuestas para los elementos inesperados, con el coste de que, si tiene que responder ante estos elementos, su respuesta se verá retrasada. Esta es la imprimación atencional.
Normalmente estos dos tipos de imprimación se producen juntos. En una tarea de imprimación semántica con ACE intermedias (unos 400 ms) tanto la imprimación automática como la atencional pueden estar cooperando para acelerar la respuesta. También se puede concluir a partir de este experimento, en función de la condición de elemento inesperado con relación semántica, que se accede de manera automática a los significados de las palabras.
Más evidencia a favor de un modelo de priming de dos procesos
Antos utilizó asociaciones entre caso particular y categoría (ej. brazo-cuerpo), que son extremadamente predictivas. Encontró posteriormente evidencia de inhibición (respecto a la base) en la condición de elemento inesperado pero semánticamente relacionado con ACE más cortas (200 ms), lo que sugiere que es posible que la inhibición no surja únicamente de los procesos de atención, sino que puede que tenga un componente automático.
Una segunda fuente de evidencia sobre los efectos atencionales en la imprimación proviene de los estudios que manipulan la validez predictiva (validez de los indicios) de las palabras primas. La cantidad de imprimación observada aumenta a medida que aumenta la proporción de palabras relacionadas utilizadas en el experimento. Esto es lo que se conoce como el efecto de la proporción. Si la imprimación fuera totalmente automática, entonces la cantidad encontrada debería mantenerse constante para todas las proporciones de pares de palabras asociadas. El efecto de la proporción refleja el efecto de manipular las expectativas de los participantes variando la proporción de primas válidas. Si hay un montón de primas que no están realmente relacionadas con las palabras objetivo, los participantes aprenden rápidamente que las palabras primas no resultan muy beneficiosas. Esto atenuará a continuación la contribución de la imprimación atencional. No obstante, en aquellos casos en los que las palabras primas están relacionadas con las palabras objetivo, la imprimación automática sigue produciéndose. Cuantas más primas relacionadas haya en el experimento, más reconocen los participantes su utilidad, y más aumenta la contribución de la imprimación atencional.
Evaluación de los procesos atencionales en el reconocimiento de las palabras
Hay dos procesos atencionales que actúan en la imprimación semántica: un proceso facilitador automático de corta duración que no podemos evitar que ocurra, y un proceso atencional que depende de nuestras expectativas y que es mucho más lento en su inicio.
Sin embargo, los beneficios de la imprimación no carecen de costes: no hay duda de que la imprimación atencional implica una inhibición de las alternativas inesperadas y si una de éstas es, en efecto, la palabra objetivo, su reconocimiento quedará retrasado. Es probable que también haya un coste de inhibición relacionado con la imprimación automática. La imprimación automática actúa probablemente mediante una propagación de la activación.
Podemos ampliar nuestra distinción entre procesos automáticos y atencionales al propio reconocimiento de las palabras. Como hemos visto, debe haber un componente automático en el reconocimiento, porque este procesamiento es obligatorio. La intuición sugiere que también hay un componente atencional. Si leemos mal una frase, podemos decidir conscientemente volver hacia atrás y volver a leer determinada palabra. Llevando esto un paso más lejos, si identificamos provisionalmente que una palabra parece incompatible con el contexto, es posible que comprobemos que la hemos identificado correctamente. Estos procesos atencionales actúan después de que hayamos contactado primero con el lexicón y, por tanto, también hablamos de un acceso léxico automático y de efectos de acceso posterior no automático. Los procesos atencionales son importantes en el reconocimiento de las palabras y pueden desempeñar distintos papeles en las tareas utilizadas para estudiarlo.
¿Se obtienen distintos resultados con las distintas tareas?
En las tareas de nombramiento o de decisión léxica, no sólo estamos estudiando un reconocimiento puro de las palabras: estamos estudiando el reconocimiento de las palabras más los efectos de la tarea de medición. Aún peor, las tareas interactúan con lo que se está estudiando.
La decisión léxica es criticada por ser demasiado sensible a los efectos del acceso posterior, refleja demasiado las estrategias de los participantes, más que los procesos automáticos del acceso léxico.
¿Cuál es la evidencia de que el nombramiento de las palabras recurrirá probablemente menos a las estrategias de los participantes que la decisión léxica? En primer lugar, en las tareas de denominación los efectos de inhibición son pequeños o inexistentes en las tareas de nombramiento. Se cree que la inhibición surge de los procesos atencionales, por lo que su ausencia en las tareas de nombramiento sugiere que el nombramiento no implica procesamiento atencional. En segundo, el priming mediado se encuentra de forma mucho más fiable en la tarea de nombramiento que en la decisión léxica. La imprimación mediada es la facilitación entre pares de palabras que sólo están conectadas mediante un intermediario (ej. “perro” imprima a “gato” que imprima a “ratón” en el par prima-objetivo “perro-ratón”). Es mucho más probable que sea automática que impulsada por la expectativa, porque es improbable que los participantes sean capaces de generar un número suficientemente elevado de posibles palabras objetivo a partir de la palabra prima en el tiempo suficiente mediante cualquier otro medio. La imprimación mediada no se suele encontrar en la decisión léxica porque, normalmente, los participantes aceleran el procesamiento utilizando la comprobación de acceso posterior. Es posible demostrar la imprimación mediada en la decisión léxica manipulando los materiales experimentales y el diseño, de forma que se desalienta la comprobación posterior al acceso. Por ejemplo, observamos una imprimación mediada si sólo están mediados todos los elementos relacionados (“perro” y “ratón”), sin que haya entremezclados pares directamente relacionados semánticamente (ej. “perro” y “gato”). No obstante, la decisión léxica parece implicar rutinariamente una comprobación de acceso posterior. En tercer lugar, en la tarea de decisión léxica se identifica la imprimación semántica hacia atrás de palabras que sólo están relacionadas en una dirección pero no en la otra pero no se suele encontrar en la de nombramiento. De nuevo, es más posible que surja este tipo de imprimación mediante una comprobación posterior al acceso que mediante una propagación automática de la activación.
Estos resultados sugieren que la tarea de nombramiento es menos sensible a los procesos posléxicos. Sin embargo, la tarea de nombramiento tiene un componente de producción que no existe en la decisión léxica. En concreto, el nombramiento implica ensamblar una pronunciación para la palabra que podría evitar por completo el lexicón (utilizando lo que se conoce como una ruta subléxica). También hay algunos posibles efectos estratégicos en el nombramiento: la gente no está dispuesta a verbalizar palabras que podrían ser incorrectas de alguna manera.
Evidentemente, tanto la decisión léxica como el nombramiento tienen inconvenientes. Por ello, muchos investigadores prefieren ahora utilizar un análisis de los movimientos oculares. Afortunadamente, los resultados de los distintos métodos suelen converger. Schilling, Rayner y Chumbley concluyeron que, aunque la tarea de decisión léxica es más sensible a la frecuencia de las palabras que el nombramiento y la duración de la mirada, existe no obstante una significativa correlación entre el efecto de frecuencia y el tiempo de respuesta en las tres tareas.
El centro del efecto de frecuencia
El efecto de la frecuencia podría surgir de dos maneras. Es posible que una palabra sea más accesible porque vemos (u oímos) las palabras frecuentes más de lo que vemos (u oímos) las palabras menos frecuentes, o porque decimos (o escribimos) palabras frecuentes más a menudo. Por supuesto, la mayor parte del tiempo estas dos posibilidades están entremezcladas; al hablar utilizamos fundamentalmente las mismas palabras a las que estamos expuestos al escuchar. Otra forma de decirlo consiste en preguntarse si los efectos de la frecuencia se producen en la producción o en el reconocimiento. Morton desenredó estos dos factores. Concluyó que se pueden explicar mejor los datos con modelos en los que la ventaja de las palabras de alta frecuencia es que necesitan menos evidencia para alcanzar determinado umbral para su identificación. El efecto de la exposición repetida a una palabra es, por tanto, que se reduce este umbral. El reconocimiento posterior de la palabra queda facilitado cada vez que estamos expuestos a la misma, ya sea al hablar, escribir, leer o escuchar. Por tanto, la frecuencia de la experiencia y la frecuencia de la producción son, ambas, importantes.
La mayoría de las explicaciones del efecto de la frecuencia suponen que surge como una especie de práctica: cuanto más frecuentemente hacemos algo, mejor se nos da. Esta idea ha sido puesta en duda recientemente por Murray y Forster, que demuestran que el tiempo que hace falta para identificar las palabras está linealmente relacionado con la frecuencia, en vez de variar como una función logarítmica, como cabría esperar si la frecuencia se basara en el aprendizaje que, a su vez, se basa en repeticiones multitudinarias. (Al final, se terminan obteniendo rendimientos decrecientes al repetir las cosas más veces.)
Balota y Chumbley afirmaron que la frecuencia de las palabras no tienen ningún efecto en la clasificación semántica. Se trata de una tarea que debe implicar el acceso al significado de la palabra objetivo. Concluyeron que cuando la frecuencia tenía un efecto sobre el reconocimiento de las palabras, lo tenía debido a los mecanismos de acceso posterior, como la comprobación en la decisión léxica y la preparación para la articulación en el nombramiento.
Evaluación de las diferencias entre tareas
La decisión léxica y el nombramiento de las palabras no siempre ofrecen los mismos resultados. Las diferencias se deben a que hay otras tareas que incluyen facetas del procesamiento no automático. Los tiempos de nombramiento incluyen el ensamblaje de un código fonológico y la articulación, y los tiempos de la decisión léxica incluyen la preparación de la respuesta y la comprobación posterior al acceso. Por tanto, las diferencias de los tiempos de reacción entre las tareas pueden reflejar distintas explicaciones del acceso posterior, más que de los procesos de acceso. Puesto que el objetivo de la lectura es el de extraer un significado, es cuestionable el grado en que la decisión léxica o el nombramiento lo consiguen.
¿Hay un sistema dedicado exclusivamente al reconocimiento visual de las palabras?
Es improbable que haya habido tiempo para que evolucione un sistema específico para el procesamiento visual de las palabras. Parece más probable que el sistema de reconocimiento de las palabras haya aprovechado otros procesos cognitivos y perceptivos. Sin embargo, las palabras son muy particulares: estamos muy expuestos a ellas, tienen una relación muy arbitraria con su significado y, lo más importante, al menos en los sistemas de escritura alfabética, están compuestas por unidades que corresponden a sonidos.
¿Es el sistema de procesamiento de las palabras diferente de otros sistemas de reconocimiento? Se puede analizar esto más sencillamente en el contexto de nombrar imágenes de objetos, la tarea de nombramiento de imágenes. Una forma importante de fijarse en esto consiste en analizar el grado en el que la presentación de las palabras impresas afecta al procesamiento de otro tipo de materiales, como las imágenes. Las imágenes facilitan las palabras con una relación semántica en una tarea de decisión léxica. Sin embargo, la magnitud del efecto de imprimación es sustancialmente inferior que el tamaño del efecto de imprimación dentro de la modalidad (imágenes que impriman a imágenes, o palabras que impriman a palabras). Estas conclusiones sugieren que los sistemas de nombramiento de imágenes y reconocimiento de palabras son independientes, aunque es una afirmación controvertida. Los resultados son sensibles a las peculiaridades de las tareas utilizadas.
Parte del córtex visual ventral izquierdo en torno a la circunvolución fusiforme responde más a las palabras y pseudopalabras que a series de consonantes. Los estudios de imágenes fMRI demuestran que este área es sensible a las propiedades ortográficas, más que perceptivas, de las palabras; las series de palabras en las que se alterna la mayúscula con la minúscula (mAyUsCuLa) resultan poco familiares desde el punto de vista perceptivo, pero siguen activando esta zona del cerebro. Estos datos de las imágenes sugieren que existe una región exclusiva del cerebro, a menudo denominada área de formación visual de las palabras, que procesa las palabras a un nivel de representación abstracta. Puesto que esta región también responde a las pseudopalabras, debe estar recogiendo algo implicado con la regularidad ortográfica de una secuencia de letras abstractas. La idea de un área dedicada en exclusiva a la formación visual de las palabras está, sin embargo, siendo objeto de controversias porque el área no responde a palabras inexistentes parecidas a palabras existentes y otros objetos con los que estamos familiarizados.
Farah (1991) afirmó que hay dos procesos de reconocimiento visual fundamentales que subyacen a todo tipo de procesamiento visual. Se trata del procesamiento holístico de representaciones perceptuales no descompuestas y el procesamiento paralelo de múltiples partes complejas. El reconocimiento de otros tipos de objetos implica ambos tipos de procesamiento en distintos grados, dependiendo del objeto específico en cuestión.
Puesto que el reconocimiento de los objetos depende tanto del procesamiento holístico como del procesamiento de las partes, nunca se debería poder encontrar un déficit de reconocimiento de objetos (llamado agnosia) sin encontrar también, o bien un déficit de reconocimiento de las caras (llamado prosopagnosia) o de reconocimiento de las palabras (dislexia). Si una persona tiene prosopagnosia y dislexia, entonces también debería tener agnosia.
Aunque se trata de una propuesta interesante, no está claro que la percepción de las caras sea holística, que el reconocimiento de los objetos sea dependiente tanto del estado como de las partes, y que el reconocimiento de las palabras dependa únicamente de las partes. Además, Humphreys y Rumiati describieron el caso de MH, una mujer con indicios de una atrofia cortical general. A MH se le daba muy mal el reconocimiento de los objetos, aunque era relativamente buena en el procesamiento de palabras y caras. Éste es el patrón que Farah predijo que no debería producirse jamás. Lambón y cobls., describen un caso de estudio de un paciente que puede reconocer palabras y objetos (como familiares o no familiares, en una tarea de decisión léxica o de objetos) pero padece un trastorno selectivo a la hora de recuperar los significados de las palabras. Esta conducta se puede explicar si existe un área concreta de formación visual de las palabras pero se ha desconectado del sistema semántico.
En resumen, existe una considerable evidencia de que hay una región del cerebro dedicada en exclusiva a procesar la información sobre las palabras escritas.
Facilitación basada en el significado y reconocimiento visual de las palabras
Tipos de priming “semántico”
Cuanto más se aproxime el significado de dos palabras, mayor es la magnitud del efecto de imprimación observado. Podemos diferenciar entre imprimación asociativa e imprimación semántica no asociativa:
Imprimación asociativa, tarea de asociación de palabras: Se dice que dos palabras están asociadas, si en una tarea de asociación de palabras, los participantes producen una en respuesta a la otra.Es importante destacar que no todas las asociaciones son iguales en las dos direcciones. Algunas palabras se producen como asociadas de otras que no tienen ningún significado relacionado: un ejemplo podría ser “espera” generada en respuesta a “hospital”. La imprimación mediante asociados se conoce como imprimación asociativa; las dos palabras asociadas pueden, o no, tener también una relación semántica.
Imprimación semántica no asociativa: Se trata de la imprimación mediante palabras que tienen una relación semántica pero no asociativa.Las palabras no asociativas relacionadas semánticamente son aquellas que siguen teniendo una relación en cuanto a su significado con la palabra objetivo, pero que no se producen como palabras asociadas. Analicemos el caso de “baile” y “patinaje”. Tienen una clara relación en cuanto a significado, pero “patinaje” surge en muy pocas ocasiones como palabra asociada a “baile”. “Pan” y “tarta” son un ejemplo de otro par de palabras con relación semántica pero no asociadas. Los nombres de categorías superiores (ej. “animal”) y los casos particulares (ej. “zorro”) tienen una clara relación semántica, pero no siempre están fuertemente asociadas. Las palabras pertenecientes a la misma categoría (ej. “zorro” y “camello” son ambos animales) están claramente relacionadas, pero no siempre están asociadas.
La evidencia de la imprimación asociativa automática es bastante clara, y la mayor parte del esfuerzo de investigación se ha centrado en la cuestión de si podemos encontrar, o no, una imprimación semántica no asociativa automática.
Muchos de los primeros estudios no encontraron ninguna evidencia de una facilitación semántica automática pura. En ellos se sugiere que la imprimación automática parece producirse únicamente dentro del lexicón debido a las conexiones asociativas entre las palabras que se producen juntas con frecuencia. Moss y Marslen-Wilson concluyeron que las asociaciones semánticas (ej. pollo-gallina) y las propiedades semánticas (ej. pollo-pico) tienen distintos efectos de imprimación en una tarea de imprimación multimodal. Las palabras objetivo asociadas se imprimían independientemente del contexto, mientras que las palabras objetivo con propiedades semánticas estaban afectadas por el contexto de toda la frase que las rodeaba. Moss y Marslen-Wilson concluyeron que la imprimación asociativa no refleja la actuación de las representaciones semánticas, sino que es un proceso automático intraléxico de bajo nivel.
Por otra parte, Hodgson no encontró una imprimación para los pares con relación semántica en una tarea de nombramiento, pero una imprimación significativa para los mismos pares en la tarea de decisión léxica. Tanto Fischler como Lupker encontraron cierto efecto de imprimación de relación semántica sin asociación, también en una tarea de decisión léxica. La tarea de decisión léxica parece ser una medición menos pura del procesamiento automático que la tarea de nombramiento y, por ello, esta imprimación podría haber surgido a través de medios no automáticos.
Los resultados sugieren que la imprimación automática en tareas de reconocimiento visual de bajo nivel de las palabras que utilizan los procesos del acceso léxico puede explicarse por las asociaciones entre las palabras más que por la mediación basada en el significado de las palabras. “Doctor” imprima a “enfermera” porque estas palabras se producen juntas con frecuencia, lo que lleva a un fortalecimiento de sus conexiones en el lexicón, más que porque haya un solapamiento en su significado, o por la activación de un elemento en un nivel de representación superior. En efecto, la concurrencia puede no ser ni siquiera necesaria para que las palabras terminen asociadas: puede que baste con que dos palabras tiendan a ser utilizadas en el mismo tipo de contexto. Por ejemplo, tanto “doctor” como “enfermera” tienden a ser utilizadas en el contexto de “hospital” por lo que podrían terminar asociadas incluso si no se producen juntas directamente.
McRae y Boisvert pusieron en duda esta conclusión. Utilizaron pares de palabras que tenían una relación más estrecha pero que aún así no estaban asociadas (ej. “esterilla” y “alfombra”, “yate” y “barco”) y encontraron una clara facilitación. Ahora parece probable que al menos algunas facetas de la relación semántica puedan producir una facilitación automática.
El patrón de resultados observado también depende de la naturaleza exacta de las relaciones semánticas implicadas. Moss y cols. concluyeron que tanto los elementos relacionados semánticamente como los relacionados asociativamente producían imprimación de las palabras objetivo en una tarea de decisión léxica auditiva. Además, los elementos relacionados semánticamente producían un “impulso” de la magnitud de la imprimación si también tenían una relación asociativa. Sin embargo, se observó un patrón de resultados distinto en una versión visual de la tarea de decisión léxica. Aquí, el que se observara una imprimación semántica pura (no asociativa) o no dependía del tipo de relación semántica. Las palabras coordinadas de una categoría (ej. “cerdo-caballo”) no producían una imprimación automática sin asociación, mientras que las relaciones instrumentales (ej. “escoba-suelo”) sí. Esto sugiere que la información sobre el uso y propósito de un objeto se activa de forma inmediata y automática.
Finalmente, es necesario señalar que la imprimación semántica puede tener distintos resultados en el reconocimiento y la producción de las palabras. Por ejemplo, Bowles y Poon demostraron que la imprimación semántica tiene un efecto inhibidor en la recuperación de una palabra dada su definición (una tarea de producción), mientras que, como acabamos de ver, en una decisión léxica (una tarea de reconocimiento) la imprimación semántica tiene un efecto facilitador.
¿Afecta el contexto de las frases al reconocimiento visual de las palabras?
La imprimación a partir del contexto de la frase es la cantidad de imprimación aportada además de los efectos asociativos de las palabras individuales de la frase. El principio de la frase: “Debes lavarte los dientes todos los " facilita el reconocimiento de una palabra como “día”, que es un final predecible de la frase, en comparación con otra palabra como “años”, que no lo es. El contexto de la frase facilita el reconocimiento a pesar de que no existe una relación semántica entre “días” y otras palabras de la frase.
Fischler y Bloom (1979) demostraron que la facilitación sólo se produce si la palabra objetivo es una continuación extremadamente probable de la frase. Un contexto adecuado tiene un efecto facilitador en palabras congruentes altamente predecibles respecto a otra palabra congruente pero improbable, y un efecto inhibidor de las palabras anómalas o incongruentes.
Stanovich y West (1981) concluyeron que los efectos contextuales son mayores para aquellas palabras que son más difíciles de reconocer cuando están aisladas. La facilitación contextual era mucho mayor cuando se degradaban las palabras objetivo al presentar un menor contraste. En condiciones claras, encontramos fundamentalmente una facilitación contextual de las palabras probables; en condiciones de degradación de la palabra objetivo, encontramos una inhibición contextual de las palabras anómalas. Los niños que, por supuesto, son menos expertos a la hora de leer palabras aisladas que los adultos, también muestran una mayor inhibición contextual. Las distintas tareas arrojan resultados distintos. Las tareas de nombramiento tienden a suscitar una mayor facilitación de las palabras congruentes, mientras que las tareas de decisión léxica tienden a suscitar más inhibición de las palabras incongruentes. Es más probable que se produzca la inhibición porque la decisión léxica está, de nuevo, aprovechando procesos atencionales de acceso posterior. Es probable que estos procesos impliquen una integración de los significados de las palabras alcanzadas con un nivel de representación de la frase más elevado.
West y Stanovich (1982) afirmaron que los efectos de facilitación identificados en la tarea de nombramiento se deben a una simple imprimación asociativa de las palabras anteriores de la frase. Si esta explicación es correcta, cualquier facilitación identificada es, sencillamente, resultado de una imprimación asociativa de las demás palabras de la frase. El contexto de la frase actúa por inhibición del acceso posterior de las palabras incongruentes con el contexto anterior, y esto es más probable que se pueda detectar con tareas del tipo de la decisión léxica que son más sensibles a los mecanismos de acceso posterior.
Un problema de esta conclusión es que la relación léxica no siempre basta por sí sola para producir facilitación en función del contexto de la frase. Esto sugiere que la facilitación observada proviene de la integración del material en una representación de texto de nivel superior. Forster observó que la utilización del contexto puede exigir una gran cantidad de recursos cognitivos. Esto sugiere que los efectos conceptuales deberían, al menos en algunas ocasiones, no ser automáticos. Tal vez el beneficio potencial es demasiado pequeño para que merezca la pena que el procesador del lenguaje utilice el contexto de manera rutinaria. El contexto de las frases podría ser de ayuda práctica únicamente en circunstancias difíciles, como cuando se ha degradado el estímulo.
El análisis de los movimientos oculares sugirió que el acceso léxico y el procesamiento conceptual dependiente del contexto no podrían separarse en las primeras etapas del procesamiento de las palabras. La máscara afectaba a la frecuencia y a la previsibilidad de manera distinta, sugiriendo que existe un componente automático temprano del acceso léxico, y un procesamiento posterior no automático, que requiere esfuerzos y necesita el contexto. Por tanto, es posible que el contexto tenga algunos efectos tempranos, pero el acceso léxico y el procesamiento conceptual surgen posteriormente como dos procesos independientes. Este experimento también es un respaldo adicional a la idea de que el temprano procesamiento léxico es automático, mientras que los efectos posteriores del contexto implican un componente atencional.
Van Petten (1993) analizó los potenciales relacionados con los acontecimientos (ERP) de frases semánticamente anómalas. Una ventaja de la técnica de ERP es que permite examinar el curso temporal del reconocimiento de las palabras antes de que se dé una respuesta explícita (como decir la palabra o apretar un botón). Los efectos del contexto léxico y de la frase eran diferenciables en los datos de ERP, y los efectos del contexto de la frase eran más prolongados. Van Petten concluyó que había, en efecto, un efecto del contexto de la frase que no se podía atribuir a la imprimación léxica. Además, parece que los efectos de imprimación empiezan al mismo tiempo, lo que va en contra de un modelo de serie estricto donde la imprimación léxica precede a la imprimación del contexto de la frase. Finalmente, Altarriba, Kroll, Sholl y Rayner (1996) analizaron los tiempos de nombramiento y movimientos oculares en el experimento en el que pidieron a personas perfectamente bilingües en inglés y español que leyeran frases en las que se mezclaban los dos idiomas. Encontraron que el contexto de la frase actuaba tanto mediante la imprimación intraléxica como mediante la imprimación de alto nivel. Las restricciones contextúales siguen actuando entre idiomas, aunque los resultados estaban moderados por una variable léxica, la frecuencia de la palabra.
Está claro que los resultados son variables, y parecen depender de la tarea. En el discurso real, es posible que los efectos del contexto global sean más importantes.
En resumen, el contexto de la frase puede tener, o bien un efecto perceptivo temprano, o bien un efecto de percepción posterior tardío. Podemos observar efectos tempranos, pero sólo en determinadas tareas, particularmente en aquellas que se asemejan a la lectura de frases completas y un discurso más que dé respuesta a palabras aisladas.
Resumen de los estudios de priming basados en el significado
Podemos distinguir entre una imprimación semántica asociativa, una imprimación no semántica asociativa y una imprimación semántica no asociativa. Todos los tipos de imprimación tienen tanto componentes automáticos como atencionales, aunque ha habido un considerable debate sobre cuál es el estatus de la imprimación semántica no asociativa automática.
Los procesos atencionales incluyen la comprobación de que el elemento accedido es el correcto, la utilización de expectativas conscientes y la integración de la palabra con representaciones semánticas y sintácticas de nivel superior de la frase que se está analizando. La pregunta que queda por contestar es el grado en que el contexto de la frase tiene un componente automático. Los investigadores se muestran divididos al respecto, pero hay una cantidad de evidencia razonable de que lo tiene. La modelización conexionista sugiere un mecanismo por el que el contexto de las frases podría tener un efecto. En un sistema interactivo, el contexto de la frase proporciona otra restricción más que actúa sobre el reconocimiento de la palabra de la misma manera que las variables léxicas, facilitando el reconocimiento de las palabras más predecibles.
¿Cómo se produce la imprimación? La teoría dominante afirma que la imprimación semántica se produce mediante la propagación de la activación. La activación es una propiedad continua, como el calor, que se propaga por una red. Los elementos que están estrechamente relacionados estarán muy juntos en la red. La recuperación de algo de la memoria corresponde a activar los elementos adecuados. Los elementos que están cerca de un elemento en las redes recibirán activación por su propagación desde una única fuente. Cuanto más alejados estén otros elementos de la fuente, menor activación recibirán. La idea central de la activación que se propaga es que la activación puede penetrar cierta distancia en la red y que esta penetración requiere tiempo. Cuanto más lejos se propaga la activación, más tiempo tiene que pasar, y puede resultar muy difícil detectar algunos de estos efectos muy pequeños.
Unos pocos investigadores afirman que la activación no se propaga y, por el contrario, proponen una teoría de indicios complejos (Ratcliff y McKoon), la imprimación implica la búsqueda en la memoria con un indicio complejo que contiene tanto a la palabra prima como a la palabra objetivo. Esta teoría predice que la imprimación sólo se puede producir si los dos elementos están directamente vinculados en la memoria. Por tanto, no puede explicar una imprimación mediada en la que dos elementos que no están vinculados directamente pueden imprimarse mediante un intermediario. Además, ahora hay evidencia de que pasa el tiempo mientras se propaga la activación y que, cuanto más distantes son dos cosas relacionadas, más tiempo pasa.
Morfología: procesamiento de palabras complejas
¿Cómo se almacenan en el lexicón las palabras morfológicamente complejas? ¿Hay una lista exhaustiva de todas las derivaciones de una palabra, de forma que existen entradas para “beso”, “besaba”, “besa” y “besando”? Esto se conoce como la hipótesis de la lista exhaustiva. ¿O almacenamos únicamente la raíz (“bes-”), y producimos o descodificamos los elementos derivados aplicando una regla? Puesto que el inglés contiene un gran número de derivaciones irregulares, necesitaríamos entonces una lista independiente de las excepciones, de forma que almacenaríamos una regla general y una lista de excepciones. Esto se conoce como la hipótesis de la descomposición obligatoria. Existe una posición intermedia, denominada la hipótesis de la vía doble. Aunque no resulta económico hacer una lista de todas las palabras derivadas, algunas palabras derivadas frecuentes y comunes tienen sus propias listas.
Según la hipótesis de la descomposición obligatoria, para reconocer una palabra morfológicamente compleja primero tenemos que deshacernos de sus sufijos, un proceso conocido como eliminación de sufijos. En una tarea de decisión léxica, se tarda más en reconocer las palabras que parecen tener un prefijo pero que, de hecho, no lo tienen (ej. “interés”, “resultado”) que las palabras de control. Es como si los participantes estuvieran intentando eliminar los sufijos de estas palabras pero después son incapaces de encontrar una palabra que se ajuste en su lexicón y tienen que volver a analizarla. En una tarea en la que se pide a los participantes que valoren si una palabra escrita se pronuncia igual que otra (es decir, si la palabra es homófona), Taft observó que la gente tenía dificultades con palabras como “fined” (multado) que tienen una estructura morfológica distinta de su pareja homófona (aquí “find”, encontrar). Taft afirmó que la dificultad de estas palabras surge del hecho de que las palabras derivadas están representadas en el lexicón como una raíz más su sufijo. Finalmente, analicemos el caso de palabras como “seeming” (pareciendo) y “mending” (arreglando); tienen frecuencias superficiales muy similares; es decir, esas formas concretas aparecen con aproximadamente la misma frecuencia en inglés. Sin embargo, las raíces tienen frecuencias de base muy distintas: “seem” y todas sus variantes (seems, seemed) es más frecuente que “mend” y sus variantes (mends, mended). ¿Cuál determina la facilidad del reconocimiento: la frecuencia superficial o la frecuencia de base? Resulta que, en conjunto, la decisión léxica es mucho más rápida, y hay un menor número de errores, en el caso de las palabras con elevadas frecuencias de base, lo que de nuevo sugiere que las palabras complejas se descomponen y se reconocen en función de su raíz. Sin embargo, el efecto de la frecuencia de la base no se encuentra para todas las palabras. Esta conclusión sirve de prueba a favor de la hipótesis de la vía dual, aunque el debate sigue abierto, con Taft que afirma que los efectos de la frecuencia de base y de superficie se producen en distintas fases del procesamiento, de forma que la ausencia de un efecto de la frecuencia de base no constituye una prueba en contra de la descomposición obligatoria.
Las palabras compuestas cuyo significado no trasluce de sus componentes (ej. “buttercup”, ranúnculo, formado por butter, mantequilla, y cup, taza) también se almacenarán por separado. Así pues, ni “leche” ni “cucharilla” en inglés facilitarán el reconocimiento de “buttercup” entre los angloparlantes.
Marslen-Wilson, Tyler, Waksler y Older (1994) analizaron la forma en que procesamos complejas palabras derivativas en inglés. El patrón de los resultados era complicado y demostraba que el grado de imprimación identificado depende de las ideas sobre transparencia fonológica y transparencia semántica. La relación entre dos palabras morfológicamente relacionadas es fonológicamente transparente si la parte compartida suena igual. Por tanto, la relación entre “friendly” (amigable) y “friendship” (amistad) es fonológicamente transparente (“friend” suena igual en ambas palabras), pero no en “sign” (señal) y “signal” (señalizar) (el componente “sign” tiene distintas pronunciaciones). Una palabra morfológicamente compleja es semánticamente transparente si su significado resulta evidente a partir de sus partes: por tanto, “unhappiness” (infelicidad) es semánticamente transparente al estar compuesta de la manera previsible por “un-”, “happy” y “-ness”. Una palabra como “department”, a pesar de estar compuesta por morfemas reconocibles, no es semánticamente transparente. El significado de “depart” (partir) en “department” no está relacionado de forma evidente con el significado de “depart” en “departure” (partida). Es semánticamente opaca.
La transparencia semántica y fonológica afecta a la forma en que se identifican las palabras. Las formas semánticamente transparentes se descomponen morfológicamente, independientemente de si son fonológicamente transparentes o no. Sin embargo, las palabras semánticamente opacas no se descomponen. Además, las palabras con sufijos y prefijos se comportan de forma distintas. Las palabras derivadas con sufijos y prefijos se impriman entre sí, pero los pares de palabras con sufijo producen interferencias. Esto se debe a que, cuando oímos una palabra con un sufijo, primero oímos la raíz. Se activan todas las formas con sufijos, pero en cuanto se tiene evidencia de sólo una de ellas, se suprimen las demás. Por tanto, si posteriormente se presenta una de esas, observamos inhibición.
Los estudios más recientes han concluido que los efectos de la imprimación morfológica son independientes de la similitud del significado; es decir, no hay diferencia en los efectos de imprimación de las derivaciones semánticamente transparentes y opacas. Estos resultados sugieren que la imprimación morfológica se obtiene, por lo general, debido a la estructura morfológica, y no a un solapamiento semántico entre elementos similares.
Modelos de reconocimiento visual de las palabras
Todos los modelos del reconocimiento de las palabras tienen que abordar cuatro preguntas fundamentales:
¿es el procesamiento autónomo o interactivo; en concreto, existen efectos de arriba a abajo en el reconocimiento de las palabras?
¿el acceso léxico es un proceso en serie o paralelo?
¿puede caer en cascada la activación de un nivel de procesamiento a otro posterior, o desde el procesamiento en la fase posterior sin esperar a que se haya culminado el procesamiento en la fase anterior?
¿cómo encontramos los elementos? ¿Los encontramos buscando en el lexicón, o podemos localizarlos porque su localización en la memoria está definida por su contenido, una faceta conocida como el direccionamiento por contenidos?
Carr y Pollatsek (1985) utilizan el término modelos de casos léxicos para los modelos que tienen en común que hay un sencillo acceso perceptivo a un sistema de la memoria, el lexicón, donde se almacenan las representaciones de los atributos de las palabras individuales y no tienen ningún otro componente adicional basado en reglas que convierten cada letra en sonidos. Podemos distinguir dos grandes tipos de modelo de casos léxicos. Estos difieren en cuanto a si utilizan una búsqueda en serie a través de una lista o una activación directa múltiple de las unidades. El mejor ejemplo de un modelo de búsqueda es el modelo de búsqueda en serie. Los modelos de acceso directo basados en la activación incluyen el modelo de logogenes, los modelos conexionistas localistas, así como una serie de modelos del reconocimiento de la palabra hablada. Resulta más difícil incorporar a este sencillo esquema los modelos híbridos o de verificación (que combinan el acceso directo y la búsqueda en serie) y los modelos conexionistas distribuidos (que, aunque son muy parecidos al modelo de logogenes, carecen por completo de unidades léxicas simples).
El modelo de búsqueda autónoma en serie de Forster
El modelo es un modelo en dos etapas; Forster propuso que identificamos las palabras mediante una búsqueda en serie en el lexicón. En este modelo, el sistema de catálogo se corresponde con lo que se denominan archivos de acceso y la estantería llena de libros con el archivo maestro.
En el modelo de búsqueda en serie, el procesamiento perceptivo viene seguido de una búsqueda secuencial de los archivos de acceso que apuntan a una entrada en el lexicón. Los archivos de acceso son específicos a cada modalidad: hay archivos distintos para las fuentes ortográficas, fonológicas y sintacticosemánticas (utilizadas en la producción de un discurso). Estos archivos de acceso ofrecen indicadores a un archivo maestro en el lexicón que almacena toda la información relacionada con una palabra, incluyendo su significado. Para acelerar el procesamiento, estos archivos de acceso están subdivididos en cubos separados en función de la primera sílaba o de las primeras letras de una palabra. Los elementos que hay en estos cubos están ordenados en función de su frecuencia, de forma que primero se examinan los elementos más frecuentes. Por tanto, se accederá antes a los elementos más frecuentes que a los más infrecuentes. Esta búsqueda en función de la frecuencia es una característica importante del modelo. La imprimación semántica se produce debido a las referencias cruzadas entre entradas en el archivo maestro.
La búsqueda no se ve afectada por la información sintáctica o semántica, que es por lo que se dice que la búsqueda es autónoma. El único tipo de contexto que puede actuar en el acceso léxico es la imprimación asociativa dentro del archivo maestro. No hay un papel temprano para el efecto del contexto de la frase; el contexto de la frase sólo puede tener un efecto mediante los mecanismos de acceso posterior, como la comprobación.
La repetición puede cambiar temporalmente el orden de los elementos en los cubos, (imprimación por repetición). Se pueden rechazar las palabras inexistentes ilegales al principio del proceso de selección de los cubos, pero las palabras inexistentes legales sólo se rechazan tras una búsqueda exhaustiva en el cubo pertinente.
Evaluación del modelo de búsqueda en serie
La crítica más significativa al modelo de búsqueda en serie hace referencia a la posibilidad de que haya un mecanismo de búsqueda en serie. Aunque la introspección sugiere que el reconocimiento de las palabras es directo, más que a través de una búsqueda en serie, no podemos fiarnos de este tipo de datos. El hacer un gran número de comparaciones en serie requeriría mucho tiempo, pero el reconocimiento de las palabras es notablemente rápido. El modelo explica los datos fundamentales sobre el reconocimiento de las palabras, y hace una potente predicción de que los efectos de la imprimación deberían estar limitados a la imprimación asociativa dentro del lexicón. No debería haber una implicación de arriba a abajo de conocimientos extra-léxicos en el reconocimiento de las palabras. Por último, el modelo no explica de manera convincente cómo pronunciamos las palabras inexistentes.
Forster introdujo un elemento de paralelismo al sugerir que se busca simultáneamente en todos los cubos. La subdivisión del sistema en cubos acelera en gran medida la búsqueda, y hace que sea posible concluir que una serie de letras es una palabra inexistente mucho más deprisa de lo que se podría si hubiera que buscar en todo el lexicón.
El modelo de búsqueda en serie también proporciona una explicación de los efectos de la frecuencia de las palabras en el acceso léxico. Inicialmente se pensó que el efecto de la frecuencia era aproximadamente logarítmico, de forma que la diferencia de los tiempos de acceso entre una palabra frecuente y una palabra ligeramente menos frecuente es mucho menor que entre una palabra infrecuente y una palabra ligeramente más infrecuente. En el modelo de búsqueda en serie sólo la frecuencia relativa de las palabras dentro de un cubo tiene efectos sobre el tiempo de acceso, y no la frecuencia absoluta. Esta idea se conoce como la hipótesis del rango. La mayor parte de la evidencia sugiere que la frecuencia relativa es más importante para determinar el tiempo de acceso que la frecuencia absoluta. El detallado análisis experimental de los tiempos de decisión léxica y de las tasas de error para las palabras con un gran intervalo de frecuencias muestra que los tiempos de reacción se ajustan mejor a una función lineal (tal y como predice la hipótesis del rango donde todo lo que importa es la frecuencia relativa) que a una función logarítmica (donde lo importante es la frecuencia absoluta). En concreto, los extremos de la distribución no se comportan como cabría esperar: tanto las palabras de frecuencia muy alta como las de frecuencia muy baja reciben una respuesta más lenta e imprecisa de lo que predeciría la función logarítmica.
El modelo de búsqueda en serie ha resultado ser muy influyente y constituye una norma con la que comparar otros modelos. ¿Podemos justificar la utilización de mecanismos de acceso léxico más complejos que la búsqueda en serie?
El modelo de logogén
En este modelo cada palabra que conocemos tiene su propia característica sencilla de recuento, llamada logogén. Un logogén acumula evidencia hasta que se alcanza su nivel umbral individual. Cuando se alcanza, se reconoce la palabra. Por tanto, el acceso léxico es directo, y se produce de manera simultánea y en paralelo para todas las palabras. Propuesto por Morton, el modelo de logogenes se relacionó con la idea del procesamiento de información de las características y los demonios, donde los “demonios” hacen el seguimiento de una entrada perceptiva buscando “características” específicas; cuanta más evidencia existe de que hay determinada característica en el elemento de entrada percibido, más alto gritan los demonios correspondientes. El modelo fue formulado originalmente para explicar cómo afecta el contexto al reconocimiento de las palabras con una exposición muy breve a la palabra, pero se ha ampliado para explicar muchos de los fenómenos del reconocimiento de las palabras.
Cada unidad logogénica tiene un nivel de activación en reposo. A medida que va recibiendo evidencia que corrobora que corresponde al estímulo presentado, aumenta su nivel de activación. Por tanto, si se identifica en la entrada la letra “t”, aumentan los niveles de activación de todos los logogenes correspondientes a palabras que contienen la letra “t”. Si el nivel de activación consigue superar determinado umbral, se dispara el logogén y se “reconoce” la palabra. Tanto la evidencia perceptiva como la contextual aumentan el nivel de activación. Es decir, no hay diferenciación entre la evidencia de una palabra de fuentes externas e internas. El contexto aumenta el nivel de activación de un logogén de la misma manera que lo incrementan los datos sensoriales relevantes. Cualquier utilización del logogén dará lugar a una facilitación posterior al rebajar el umbral de ese logogén. Los elementos más frecuentes tienen umbrales inferiores. Las palabras inexistentes serán rechazadas si no se ha disparado ningún logogén transcurrido cierto tiempo límite. Los logogenes calculan códigos fonológicos a partir de un análisis auditivo y visual de las palabras, y también pasan la entrada, tras la detección, al sistema cognitivo. El sistema cognitivo hace todo el trabajo restante, como utilizar la información semántica. Las conexiones son bidireccionales, puesto que la información semántica y contextual de sistema cognitivo puede afectar a los logogenes.
Problemas del modelo de logogén original
En el modelo de logogenes original, un único logogén realizaba todas las tareas del lenguaje de determinada palabra, independientemente de la modalidad. Es decir, se utilizaba el mismo logogén para reconocer las palabras presentadas visualmente y habladas y, para hablar y para escribir. El modelo predice que la modalidad de la fuente de activación de un logogén no debería importar. Por ejemplo, el reconocimiento visual de una palabra debería estar igual de facilitado por una palabra prima hablada que por una palabra prima visual. Los experimentos posteriores contradijeron esta predicción.
Winnick y Daniel demostraron que la lectura previa en voz alta de una palabra impresa facilitaba el reconocimiento taquistoscópico de esa palabra. Sin embargo, el nombramiento de una imagen, o la producción de una palabra en respuesta a una definición, no producía una facilitación posterior del reconocimiento taquistoscópico de esas palabras. Entonces, Morton dividió el sistema de reconocimiento de las palabras en distintos conjuntos de logogenes para distintas modalidades (ej. input, entrada, y output, salida o producción). Morton (1979b) también demostró que, aunque la modalidad de la respuesta parecía inmaterial (leer o decir una palabra en la fase de entrenamiento), la modalidad de entradas sí importaba. El modelo fue revisado de forma que, en vez de tener un logogén para cada palabra, hubiera dos, específicos a cada modalidad. La consecuencia de este cambio garantizaba que sólo las entradas visuales pudieran facilitar la posterior identificación visual de las palabras, y que las palabras primas presentadas auditivamente no facilitarían las palabras objetivo presentadas visualmente en el reconocimiento taquistoscópico. La evidencia posterior sugiere que son necesarios cuatro sistemas de logogenes: uno para la lectura, otro para la escritura, otro para la escucha y otro más para hablar.
La evidencia neuropsicológica respalda la división del sistema de logogenes, y éste es el planteamiento dominante en la actualidad.
Interacción de las variables en el modelo de logogén
Los efectos del contexto y de la calidad del estímulo (que se degrade el estímulo o no) deberían interactuar si el modelo de logogenes fuera correcto. Además, la frecuencia y el contexto actúan de la misma manera en el modelo de logogenes y, por tanto, debería mostrar patrones parecidos de interacción con cualquier otra variable. Por ejemplo, la calidad del estímulo debería tener los mismos efectos cuando se combina con las manipulaciones del contexto y de la frecuencia. Se requiere menos información perceptiva para reconocer una palabra de alta frecuencia que una de baja frecuencia, y se necesita menos información para reconocer una palabra en un contexto que fuera de contexto. Las conclusiones son complejas y contradictorias. Algunos investigadores han identificado una interacción; Meyer, Schvaneveldt y Ruddy concluyeron que, cuanto menos legible es el estímulo, más beneficiosos son los efectos del contexto. Otros han concluido que son aditivos. Experimentos posteriores realizados por Norris clarificaron estos resultados. Concluyó que la frecuencia y la calidad del estímulo podían interactuar entre sí, pero que la interacción entre la calidad del estímulo y el contexto es mayor y más robusta.
En definitiva, resulta muy difícil extraer conclusiones a partir de esta investigación. Las cuestiones implicadas son complejas y los resultados de los experimentos suelen ser contradictorios.
El modelo de logogenes ha sido superado por los modelos conexionistas del reconocimiento de las palabras y, en muchos sentidos, se puede considerar como el precursor de los mismos.
Modelos de reconocimiento de palabras de activación interactiva
McClelly y Rumelhart (1981) desarrollaron un modelo denominado activación interactiva y competencia (interactive activation y competition, IAC). Es uno de los primeros modelos conexionistas. El propósito original de este modelo era explicar los efectos del contexto de la palabra en la identificación de las letras. Reicher y Wheeler demostraron que en el reconocimiento taquistoscópico era más fácil reconocer las letras en las palabras que cuando se veían de forma aislada. Esto se conoce como el efecto de la superioridad de las palabras. Sin embargo, se puede considerar que el modelo es un componente de un modelo general del reconocimiento de las palabras.
El modelo de activación interactiva y competencia está compuesto de muchas unidades de procesamiento sencillas ordenadas en tres niveles. Existe un nivel de entrada de las unidades de características visuales, un nivel donde se corresponden estas unidades con letras individuales y un nivel de salida en el que cada unidad corresponde a una palabra. Cada unidad está conectada a cada unidad del nivel inmediatamente anterior y posterior a la misma. Cada una de estas conexiones es, o bien excitadora (es decir, positiva o facilitadora) si es la adecuada, o inhibidora (negativa) si es inadecuada. Por ejemplo, la letra “T” excitaría unidades de palabras como “TAKE” y “TASK” en el nivel superior, pero inhibiría “CAKE” y “CASK”. Las conexiones excitadoras hacen que las unidades de destino estén más activas, mientras que las conexiones inhibidoras las hace menos activas. Cada unidad está conectada a cada una de las otras unidades dentro del mismo nivel mediante una conexión inhibidora. Esto introduce el elemento de competencia.
Cuando se activa una unidad, envía una activación en paralelo a lo largo de las conexiones a todas las demás unidades con las que se conecta. Si está conectada por una conexión facilitadora, tendrá como efecto el incremento de la activación en la unidad al otro lado de la conexión, mientras que si está conectada por una conexión inhibidora, tendrá como efecto la reducción de la activación en el otro extremo. Por tanto, si se activa la unidad correspondiente a la letra “T” en la posición de letra inicial, aumentará el nivel de activación de las unidades de palabras correspondientes a “TAKE” y “TASK”, pero reducirá el nivel de activación de “CAKE”. Pero, puesto que las unidades están conectadas a todas las demás unidades en el mismo nivel de conexiones inhibidoras, en cuanto se activa una unidad (ej. una palabra), empieza a inhibir todas las demás unidades a ese nivel. Por tanto, si el sistema “ve” una “T”, se activarán “TAKE”, “TASK”, y “TIME” y se empezará inmediatamente a inhibir palabras sin la “T” en ellas, como “CAKE”, “COKE”, y “CASK”. Puesto que la activación también se envía a los niveles inferiores, todas las letras en las palabras que empiecen con “T” están un poco activadas y, por tanto, será “más fácil” “verlas”. Además, puesto que las letras en el contexto de una palabra reciben activación de las unidades de palabras por encima de ellas, son más fáciles de ver en el contexto de una palabra que cuando se presentan de manera aislada, donde no reciben ningún apoyo de la activación de arriba a abajo: de aquí el efecto de la superioridad de las palabras.
Supongamos que la siguiente letra que se presenta es una “A”. Esto activará “TAKE” y “TASK” pero inhibirá “TIME”, que entonces también quedará inhibida a su vez por la inhibición dentro del mismo nivel de “TASK” y “TAKE”. La “A” también activará, por supuesto, “CASK” y “CAKE”, pero estas dos palabras ya estarán detrás de las palabras que empiecen con una “T”. Si la siguiente letra es una “K”, entonces “TAKE” será claramente la líder. El tiempo se divide en una serie de fragmentos denominados ciclos de procesamiento. A lo largo del tiempo, el patrón de activación se estabiliza o relaja en una configuración estable de forma que sólo permanece activa “TAKE”, y por tanto es la palabra que se “ve” o conoce.
El alcance del modelo es ilimitado y no ofrece ninguna explicación de los papeles del significado y del sonido en el procesamiento visual de las palabras. La potencia de la conexión tiene que codificarse a mano. Los modelos en los se aprende la potencia de la conexión se han hecho más populares.
Modelos híbridos
Los modelos híbridos combinan el paralelismo (como en los modelos de logogenes y conexionistas) con la búsqueda en serie (como en el modelo de Forster). En el modelo de verificación de Becker, los procesos perceptivos, impulsados por el estímulo, de abajo a arriba, no pueden reconocer una palabra por sí solos. El proceso de comprobación o verificación de arriba a abajo tiene la última palabra. El procesamiento perceptivo burdo genera un candidato o conjunto sensorial de posibles elementos léxicos. Este conjunto sensorial está ordenado en función de la frecuencia. El contexto genera un conjunto semántico o contextual de posibles candidatos. Tanto el conjunto sensorial como el semántico se comparan y comprueban mediante un análisis detallado de las características visuales de la palabra. El conjunto semántico se comprueba primero; la verificación se hace en serie. Si no se encuentra una correspondencia, el proceso de equiparación pasa al conjunto sensorial. Este proceso generará una clara ventaja para las palabras presentadas en el contexto adecuado. Cuanto menos concreto sea el contexto, mayor será el conjunto semántico y más lento será el proceso de verificación. Puesto que el contexto precede a la palabra objetivo, el conjunto semántico está preparado antes de que lo esté el conjunto sensorial. Se pueden ampliar los modelos de verificación para incluir cualquier modelo en el que haya una verificación o comprobación de que el producto de los procesos de acceso léxico de abajo a arriba es correcto. Norris afirmó que los mecanismos de comprobación de acceso posterior comprueban el resultado del acceso léxico en función del contexto y resuelven cualquier ambigüedad existente.
Comparación de los modelos
Hay dos dicotomías que se pueden utilizar para clasificar estos modelos: La primera es entre modelos interactivos y modelos autónomos. La segunda dicotomía es entre si se accede directamente a las palabras o si se accede a las mismas mediante un proceso de búsqueda. Los modelos de logogenes y de activación interactiva son ambos modelos interactivos de acceso directo; el modelo de búsqueda en serie es autónomo y, evidentemente, basado en una búsqueda. La mayoría de los investigadores se muestra de acuerdo en que las fases iniciales del acceso léxico implican un acceso directo en paralelo, aunque es posible que los procesos en serie actúen posteriormente para comprobar las respuestas preparadas. Hay menos acuerdo en cuanto al grado en que el contexto afecta al procesamiento. Todos estos modelos pueden explicar la imprimación semántica, pero el modelo de búsqueda en serie no tiene ningún papel para el contexto de la frase.
Resolución de la ambigüedad léxica
La ambigüedad del lenguaje surge de diversas maneras. Hay ambigüedades relacionadas con la segmentación del habla. Analice las frases habladas “grey tape” (cinta gris) y “great ape” (gran simio), y “ice cream” (helado) y “I scream” (yo grito) o, por poner un ejemplo totalmente en español, “ser afín” y “Serafín”: si uno habla a una velocidad normal suenan igual. Algunas frases tienen más de una interpretación sintáctica aceptable.
Hay una serie de tipos de ambigüedades léxicas. Las palabras homónimas son palabras con distintos significados que suenan igual. Algunos ejemplos de homónimas puras son “banco” (una entidad bancaria o un lugar en el que sentarse) y “don” (de señor o de cualidad). Las palabras homónimas homófonas no homógrafas suenan igual, pero se escriben de distinta manera (ej. “vaya” del verbo ir y “valla”, y “baca” y “vaca”). Las homófonas homógrafas son ambiguas cuando están escritas, y algunas sólo se pueden discernir en función del contexto (como delfín de animal, o de heredero o sucesor). Las más interesantes son las palabras polisémicas, que tienen múltiples significados Ej.: banco. Algunas palabras también son sintácticamente ambiguas, por ejemplo “como” puede actuar como verbo o como conjunción.
Frazier y Rayner (1990) diferenciaron entre palabras con múltiples significados (ej. los significados en inglés de “bank” o “ball”), y palabras con múltiples sentidos, donde sólo los sentidos tienen relación (ej. “film” puede ser el rollo físico o toda la película que se proyecta en la pantalla o se ve en televisión, “giro” puede ser la acción de girar, la dirección que se da a una conversación, el estilo de una frase, o la traslación de caudales por medio de letras, libranzas, etcétera, donde todos los significados están relacionados entre sí). No siempre resulta fácil decidir si una palabra tiene múltiples significados o sentidos.
Somos más rápidos tomando decisiones léxicas sobre palabras ambiguas comparadas con palabras equivalentes no ambiguas; esta ventaja se denomina la ventaja de la ambigüedad. Sin embargo, sólo se encuentra esta ventaja para las decisiones léxicas. Para las demás tareas, no hay una ventaja, o incluso una desventaja (ej. en mediciones del movimiento ocular). Tal vez las palabras ambiguas se beneficien de tener múltiples entradas en el léxico. Es necesario matizar esta observación: mientras que los múltiples sentidos de una palabra confieren una ventaja, los distintos significados múltiples no. La mayor parte del tiempo, es probable que ni siquiera seamos conscientes de la ambigüedad de las palabras ambiguas; de alguna manera utilizamos el contexto de la frase para desambiguarla.
Primeros trabajos sobre la ambigüedad léxica
Primeros modelos de ambigüedad léxica
Los primeros investigadores trabajaron en el marco conceptual de tres tipos de modelo de resolución de la ambigüedad léxica:
Modelo de acceso léxico de lectura única guiado por el contexto. Según este modelo, el contexto limita de alguna manera el proceso de acceso, de forma que sólo se accede al significado relevante. Un problema de este modelo es que no está claro cómo puede el contexto proporcionar una restricción tan inmediata.
Modelo de acceso ordenado: Se accede a todos los sentidos de una palabra en orden, a partir de las frecuencias de cada significado individual. Por ejemplo, en inglés, el sentido de “instrumento de escritura” de la voz “pen” es más frecuente que el sentido de “lugar donde encerrar a animales”. A continuación se comprueba cada sentido en serie respecto al contexto para ver si es adecuado. Primero comprobamos el sentido más común respecto al contexto para ver si es coherente. Sólo si no lo es probamos con el significado menos común.
Modelo de acceso múltiple. Según este modelo, cuando nos encontramos con una palabra ambigua se activan todos sus sentidos, y a continuación se elige el adecuado en función del contexto.
Primeros experimentos sobre el procesamiento de la ambigüedad léxica
Los primeros experimentos parecían demostrar que accedemos de forma rutinaria a todos los significados de las palabras ambiguas. Esta interpretación parte de la premisa de que, si es más difícil procesar una palabra ambigua según determinada medida que el procesamiento de una palabra ambigua de control, incluso en un contexto con un gran sesgo, esto sugiere que se ha detectado la ambigüedad en algún nivel del sistema de procesamiento del lenguaje. Por ejemplo, MacKay utilizó una tarea de terminar una frase en la que los participantes tienen que terminar el principio de la frase con un final adecuado:
(9) After taking the right turn at the intersection, I…///Tras girar a la derecha en el cruce/en el cruce correcto (yo). . .
(10) After taking the left turn at the intersection, I…///Tras girar a la izquierda en el cruce (yo). . .
Los participantes tardaron más en completar (9) que (10) debido a la ambigüedad de la palabra “derecha” en inglés (right), que puede significar “lo contrario que la izquierda” o “lo correcto”. Esta conclusión sugiere que se están teniendo en cuenta ambos sentidos, y el retraso se produce porque el participante tiene que elegir entre ambos.
En estas frases la ambigüedad no se resuelve con el contexto: en este caso los dos sentidos de “derecha/cruce pertinente” eran correctos. ¿Nos resultan más difíciles las palabras ambiguas incluso cuando el sesgo del contexto nos lleva a determinada interpretación? Analicemos el caso de las frases (11) y (12). Aquí, el contexto de “agricultor” crea un fuerte sesgo hacia el sentido agrícola de “paja” más que al de artilugio con el que beber. Foss utilizó una técnica conocida como monitorización de fonemas para demostrar que se tarda más en procesar las palabras ambiguas incluso cuando el contexto genera un gran sesgo. En esta tarea, los participantes tienen que hacer un seguimiento de un discurso hablado buscando determinado sonido o fonema, y apretar un botón cuando lo detectan. En estas frases el objetivo es /b/. Los participantes tardaron más en detectar /b/ supuestamente porque se ven ralentizados al tener que desambiguar la palabra anterior.
(11) The farmer put his straw beside the machine {el granjero puso la paja al lado de la máquina).
(12) The farmer put his hay beside the machine (el granjero puso la alfalfa al lado de la máquina).
La tarea de monitorización del fonema es sensible a otras variables lingüísticas, como la longitud de la palabra anterior. Las palabras cortas nos dan poco tiempo para procesarlas, mientras que se suele identificar y procesar las palabras largas antes de que terminen; es como si el procesamiento de las palabras cortas siguiera durante la siguiente palabra. Esta continuación del procesamiento retrasa la identificación del fonema que están monitorizando los participantes. Mehler, Segui y Carey demostraron que este efecto desaparece si se controla adecuadamente la longitud de las palabras ambiguas. Resulta que, en inglés, las palabras ambiguas tienden a ser más cortas que las palabras sin ambigüedad.
En la tarea de escucha dicotómica se presentan distintos mensajes al oído izquierdo y derecho. Se dice a los participantes que presten atención a uno e ignoren el otro. En los experimentos realizados por Lackner y Garrett (1972) y MacKay (1973) el mensaje al que se tenía que prestar atención era (13), y los mensajes a los que no había que prestar atención eran, o bien (14) o (15):
(13) The spy put out the torch as a signal to attack (El espía apagó/sacó la antorcha como señal de ataque).
(14) The spy extinguished the torch in the window (El espía apagó la antorcha en la ventana).
(15) The spy displayed the torch in the window (El espía mostró la antorcha en la ventana).
Después se pidió a los participantes que repitieran el mensaje al que habían prestado atención. Su interpretación estaba afectada por el mensaje al que no debían haber prestado atención que permitía desambiguar la locución ambigua “put out” (sacar/apagar).
Los experimentos analizados hasta ahora sugieren que se accede en paralelo a todos los significados de una palabra ambigua. Hogaboam y Perfetti demostraron que el tiempo que se necesita para acceder al significado depende de la frecuencia de uso. Utilizaron una tarea de detección de la ambigüedad que medía sencillamente el tiempo que tardaban los participantes en detectarla. La gente tarda en detectar la ambigüedad cuando las palabras aparecen en su sentido más frecuente. Esto se debe a que en los participantes acceden automáticamente a la interpretación frecuente de “pen”, integrándolo en el contexto y después tienen que volver a analizar para detectar la ambigüedad. En los participantes prueban el sentido más frecuente de la palabra, no consiguen integrarlo en el contexto y acceden a continuación al segundo sentido. Por tanto, en este caso, la ambigüedad se detecta mediante un procesamiento rutinario.
The accountant filled his pen with ink (el contable llenó de tinta la estilográfica).
The farmer put the sheep in the pen (el granjero puso a las ovejas en el corral).
Schvaneveldt et al. utilizaron una tarea de decisión léxica sucesiva, en la que los participantes ven palabras individuales que se presentan en un flujo continuo, y tienen que tomar decisiones léxicas sobre cada palabra. En este caso, los participantes son mucho menos conscientes de las relaciones entre las sucesivas palabras. El principal punto de atención del experimento eran los tiempos de decisión léxica de triadas de palabras como las de: save bank money (ahorrar/ingresos/dinero); river bank money (río/orilla/dinero); day bank money (día/banco/dinero).
El tiempo de reacción más rápido a la palabra “money” (dinero) era en donde se había imprimado el significado adecuado de “bank” (ingresar, pero también banco y orilla) con la primera palabra “save” (ahorrar). El tiempo de reacción fue intermedio en la condición de control, pero más lento en donde se había imprimado el sentido incorrecto. Si todos los sentidos de la voz inglesa “bank” fueran accedidos automáticamente cuando se mencionaba por primera vez, “money” tendría que haber sido imprimada por “bank” independientemente de cual fuera la primera palabra. Por tanto, este resultado respalda el acceso selectivo.
El experimento de Swinney (1979)
Parte de la primera evidencia respaldaba al acceso múltiple, y parte al acceso selectivo. Los resultados que encontramos dependen en gran medida de la tarea. Además, las tareas son, o bien tareas desconectadas, en el sentido de que reflejan tiempos de procesamiento muy posteriores al momento en que se haya procesado la ambigüedad (como en la detección de la ambigüedad, la escucha dicotómica y la terminación de las frases), o bien tareas conectadas, como la monitorización de los fonemas, que son muy sensibles a otras variables. Necesitamos una tarea que nos diga lo que está ocurriendo inmediatamente cuando nos encontramos con una palabra ambigua. Swinney realizó este experimento. Utilizó una técnica de imprimación multimodal en la que los participantes tienen que responder a una tarea de decisión léxica visual mientras escuchan un material auditivo correlacionado.
Rumour had it that, for years, the government building had been plagued with problems. The man was not surprised when he found several (spiders, roaches, y other) bugs] in the corner of his room. (Dicen las malas lenguas que, durante años, el edificio público ha estado lleno de problemas. Al hombre no le sorprendió encontrar varios bichos (arañas, cucarachas y otros) en la esquina de su habitación).
En la palabra ambigua es “bugs” (bichos/micrófonos ocultos). La frase “arañas, cucarachas y otros” es un contexto desambiguador que crea un fuerte sesgo en los participantes a favor del sentido de “insecto” de “bug” en vez de “micrófono o dispositivo electrónico”. Sólo la mitad de los participantes vio esta potente frase de desambiguación. Había una tarea de decisión léxica visual que se presentaba inmediatamente después (en el punto 1) o ligeramente después (tres sílabas después de la palabra crítica, en el punto 2). La palabra objetivo de decisión léxica era, o bien “hormiga” (relacionada con el sentido del sesgo), “espía” (relacionada con el sentido irrelevante) o “cosía” (una palabra de control neutra). Swinney encontró una facilitación en el punto 1 para los dos significados de “bugs”, incluyendo el significado irrelevante, pero sólo encontró facilitación para el significado relevante en el punto 2. Esto sugiere que, cuando nos encontramos por primera vez con una palabra ambigua, accedemos automáticamente a todos sus significados. Sólo utilizamos el contexto a posteriori para tomar una decisión muy rápida entre las alternativas, dejando activo únicamente el sentido coherente.
El experimento de Swinney demostró que el contexto semántico no puede limitar el acceso inicial. Tanenhaus et al. realizaron un experimento análogo basado en una tarea de nombramiento en vez de una decisión léxica. Utilizaron palabras sintácticamente ambiguas (ej. “watch” en inglés, que puede ser un verbo (mirar) o un sustantivo (reloj). Concluyeron que inicialmente se activaban los dos sentidos de la palabra en frases como “Boris began to watch” (Boris empezó a mirar) y “Boris looked at his watch” (Boris miró su reloj). De nuevo, el significado dependiente del contexto se desvanecía transcurridos 200 ms. Por tanto, el contexto sintáctico no puede limitar tampoco el acceso inicial. Tanenhaus y Lucas afirmaron que hay buenas razones para esperar que el acceso léxico inicial no esté restringido por el contexto sintáctico. La retroalimentación de pertenencia a un conjunto tiene poca utilidad a la hora de decidir si una palabra pertenece o no a determinada categoría sintáctica: dicho de otra manera, la probabilidad de adivinar correctamente cuál es la palabra que se presenta dada únicamente su categoría sintáctica es muy baja.
En definitiva, los datos disponibles hasta la fecha sugieren que, cuando oímos o vemos una palabra ambigua, accedemos de forma inconsciente e inmediata a todos sus significados, pero utilizamos el contexto para rechazar muy rápidamente todos los sentidos inadecuados. Este proceso puede empezar aproximadamente tras 200 ms. Los significados menos frecuentes necesitan más tiempo de acceso porque se necesita más evidencia para traspasar su umbral y ser considerados como adecuados al contexto. Esto sugiere que los procesos de acceso léxico son autónomos, o encapsulados informativamente, y que todos los sentidos de la palabra ambigua aparecen en el resultado, pero se utiliza muy rápidamente la información semántica para elegir cuál es el sentido adecuado. Esto, a su vez, sugiere que la construcción de la representación semántica de las frases se está produciendo más o menos siguiendo cada palabra.
McClelly afirmó que estas conclusiones son coherentes con las teorías interactivas. Afirmó que el contexto podría tener un efecto desde un primer momento, pero que la ventaja que confiere es tan pequeña que no se hace patente en estos experimentos. Es difícil falsear este enfoque por lo que, por ahora, la mejor interpretación de estos experimentos es que accederemos a todos los significados.
Investigación más reciente sobre la ambigüedad léxica
En la actualidad existe un acuerdo en que, cuando nos encontramos con una palabra ambigua, se activan todos los significados y se utiliza el contexto a continuación para seleccionar rápidamente cuál es el correcto. La investigación reciente ha utilizado técnicas conectadas, fundamentalmente de la imprimación multimodal y las mediciones del movimiento ocular, para refinar estas ideas.
La investigación se ha centrado en tres temas fundamentales:
¿qué efectos tiene la frecuencia relativa de los distintos significados de la palabra ambigua en el procesamiento?
¿qué efecto tiene presentar un contexto de desambiguación potente antes de presentar la palabra ambigua?
¿cómo afecta el contexto al acceso a las propiedades semánticas de las palabras?
Los efectos de la frecuencia del significado y del contexto anterior
Existe una controversia sobre si las frecuencias relativas de los significados afectan al acceso inicial. Recientemente se ha recurrido mucho al estudio de los movimientos oculares, que se cree que reflejan el procesamiento conectado. Los estudios que utilizan esta técnica demuestran que el tiempo que pasan los participantes mirando a las palabras ambiguas depende de si los significados alternativos de la palabra ambigua son relativamente iguales o muy discrepantes en cuanto a su frecuencia. Simpson denominó a los dos tipos de palabras ambiguas palabras equilibradas y desequilibradas respectivamente.
En la mayoría de los estudios que hemos analizado hasta ahora el contexto desambiguador se presenta después de la palabra ambigua. La evidencia converge hacia la idea de que se accede inmediatamente a todos los significados, pero se utiliza rápidamente el contexto para elegir uno de ellos. ¿Qué ocurre cuando el contexto desambiguador viene antes de las palabras ambiguas? Se han propuesto tres modelos para explicar lo que ocurre.
Según el modelo de acceso selectivo, el material desambiguador anterior limita el acceso de forma que sólo se accede al significado adecuado.
Según el modelo de acceso reordenado, el material desambiguador anterior afecta a la fase de acceso en tanto en cuanto aumenta la disponibilidad del significado adecuado de la palabra. Se trata de un modelo híbrido entre los modelos autónomos e interactivos, donde la influencia que puede tener el contexto es limitada. Duffy y cols. (1988) analizaron el efecto del contexto anterior sobre las palabras ambiguas equilibradas y desequilibradas, sesgando con el contexto siempre hacia el significado menos común en el caso de las palabras desequilibradas. El tiempo de procesamiento de las palabras equilibradas y de sus palabras de control era el mismo, pero los participantes pasaban más tiempo mirando las palabras desequilibradas que las palabras de control. Duffy et al. afirmaron que el contexto desambiguador aumentaba la disponibilidad de los significados adecuados, tanto de las palabras equilibradas como de las desequilibradas. En el caso de las palabras equilibradas, el significado indicado por el contexto era accedido antes de los demás significados. En el caso de las palabras desequilibradas con un contexto sesgado, se accedía al mismo tiempo a los dos significados, necesitándose a continuación un tiempo de procesamiento adicional para elegir el significado subordinado adecuado. Este tiempo adicional se conoce como efecto del sesgo subordinado. Un contexto sesgado puede reordenar la disponibilidad de los significados, de forma que el significado subordinado está disponible al mismo tiempo que el significado dominante.
Según el modelo de acceso autónomo, el contexto anterior no tiene ningún efecto sobre el acceso; se accede de manera exhaustiva a todos los significados. En una versión de este modelo, conocido como al modelo de integración, la integración con éxito de un significado con el contexto anterior da por finalizada la búsqueda de significados alternativos de esa palabra. Por tanto, se produce un acceso selectivo (a un único significado) cuando la integración del significado dominante es rápida (debido al contexto) pero la identificación del significado subordinado es lenta.
Dopkins, Morris y Rayner (1992) realizaron un experimento para diferenciar entre el modelo de acceso reordenado y el de integración. En su experimento, una palabra ambigua era tanto precedida como seguida por un contexto relevante al significado de la palabra. El contexto que seguía a la palabra ambigua casi siempre la desambiguaba de manera concluyente. La principal manipulación en este experimento era el grado en que el contexto anterior era consistente con los significados de la palabra ambigua. En la condición positiva, la palabra ambigua estaba precedida por material que ponía de relieve un aspecto de su significado subordinado, aunque el contexto también era coherente con el significado dominante. En la condición negativa, la palabra estaba precedida por material que era inconsistente con el significado dominante, pero no contenía ningún sesgo fuerte hacia el significado subordinado. En la condición neutra, la palabra ambigua estaba precedida por un contexto que no respaldaba ninguno de sus significados.
\[condición positiva\]\[condición negativa\]\[condición neutra\]¿Qué predicen los dos modelos? La condición crítica es la condición positiva. El modelo de integración predice que el contexto no tiene ningún efecto sobre la fase de acceso inicial. Los significados de las palabras ambiguas serán accedidos en una estricta secuencia temporal independiente del contexto, accediendo siempre primero al significado dominante. Si se puede integrar este significado con el contexto, se seleccionará; en caso contrario, el procesador intentará integrar el siguiente significado por el contexto, y así sucesivamente. En las condiciones positiva y neutra, el contexto puede no tener ninguna prueba de que el significado dominante es inadecuado, por lo que el procesador logrará integrar este significado, se detendrá antes de acceder al significado subordinado y seguirá adelante. Cuando se encuentra con el material posterior, el procesador se da cuenta de su error y tiene que volver hacia atrás. En la condición negativa, el contexto anterior indica que el significado dominante es inadecuado, por lo que el procesador tendrá que pasar tiempo accediendo al significado subordinado. El contexto posterior no generará conflicto alguno. El modelo de integración predice que los tiempos de procesamiento de la palabra ambigua serán más largos en la condición negativa que en las condiciones positiva y neutra, pero el tiempo de procesamiento del contexto desambiguador posterior será más largo en las condiciones positiva y neutra que en la negativa.
El modelo de acceso reordenado predice que el contexto anterior tendrá un efecto sobre el acceso inicial de la palabra ambigua en la condición positiva, pero no en la condición negativa o en la neutra. En la condición positiva, el contexto hace que se acceda antes al significado subordinado. Esto significa que cuando se ve el contexto después de la palabra, el procesador no tiene que volver a evaluar nada, por lo que el procesamiento en la región de desambiguación será más rápido. En las condiciones negativa y neutra el contexto anterior no incluye ninguna evidencia a favor del significado subordinado, y las predicciones son parecidas a las del modelo de integración.
Por tanto, la condición clave es la positiva, que favorece el significado subordinado pero también es consistente con el significado dominante. El modelo de acceso reordenado predice que los tiempos de procesamiento de la región de desambiguación posterior serán relativamente rápidos, mientras que el modelo de integración predice que serán relativamente lentos. Los resultados respaldan al modelo de acceso reordenado. Dopkins et al. concluyeron que los tiempos de lectura del material desambiguador eran, en efecto, relativamente rápidos en la condición positiva.
El modelo de acceso reordenado encuentra un mayor respaldo en un experimento realizado por Folk y Morris (1995). Examinaron los tiempos de fijación de la lectura y los tiempos de nombramiento cuando se leían palabras semánticamente ambiguas (ej. “calf” que puede ser ternera o pantorrilla), con la misma pronunciación pero significados distintos y distinta ortografía (ej. “break” y “brake”), o con múltiples códigos semánticos y fonológicos (ej. “tear” que se pronuncia de distinta manera según quiera decir rasgar o lágrima). Concluyeron que las restricciones semánticas, fonológicas y ortográficas tenían, todas, un efecto temprano, influyendo sobre el orden de la disponibilidad de los significados.
Hasta ahora, pues, los datos respaldan al modelo de acceso reordenado respecto a uno estrictamente autónomo, como el modelo de integración. Se puede utilizar la información contextual para restringir el acceso a los significados. Sin embargo, en el modelo de acceso reordenado el papel del contexto está limitado por la frecuencia de los significados. En concreto, el contexto sesgado a los subordinados no puede inhibir que esté disponible el significado dominante. La investigación reciente ha analizado el grado en que es así. Un modelo alternativo es el modelo sensible al contexto, donde la frecuencia de significado y el contexto sesgado actúan juntos, dependiendo de la fortaleza del contexto. Este es el grado de restricción que impone el contexto en una palabra ambigua. Según este modelo, el efecto de sesgo del subordinado que motiva al modelo de acceso reordenado sólo surge en contextos débilmente sesgados. Si el contexto es suficientemente potente, sólo está disponible el significado subordinado.
Si el modelo sensible al contexto es correcto, entonces un contexto suficientemente fuerte debería abolir el efecto del sesgo del subordinado por el que pasamos más tiempo mirando a una palabra ambigua cuando el contexto apunta hacia su significado menos frecuente. Esta idea fue puesta a prueba en un experimento por Martin et al. Variaron la potencia del contexto: (25) es un contexto débilmente sesgado hacia el significado subordinado, pero (26) es un contexto muy sesgado hacia el mismo; (27) y (28) muestran los contextos de control de los significados dominantes.
\[Contexto débil a favor del significado subordinado\]\[Contexto fuerte a favor del significado subordinado\]\[Contexto débil a favor del significado dominante\]\[Contexto fuerte a favor del significado dominante\]Según el modelo del acceso reordenado, siempre se generará el significado dominante independientemente del contexto, por lo que hará falta tiempo para resolver el conflicto. Por tanto, habrá un efecto de sesgo del subordinado y los tiempos de lectura de la palabra ambigua deberían ser los mismos, y mayores que el tiempo de lectura de los significados dominantes, independientemente de la potencia del contexto. Según el modelo sensible al contexto, sólo debería haber conflicto y, por tanto, un efecto del sesgo de subordinado en la condición del contexto débil; por ello, los tiempos de lectura de la palabra ambigua deberían ser más rápidos con el contexto muy sesgado en comparación con el contexto débil. Los datos de una tarea de lectura a ritmo libre respaldaban el modelo sensible al contexto. Un contexto suficientemente potente puede eliminar el efecto del sesgo del subordinado de forma que los tiempos de lectura de una palabra con, o bien el significado subordinado, o bien un significado dominante indicado enérgicamente, son iguales.
Rayner, Binder y Duffy (1999) criticaron los materiales de este experimento. También afirmaron que el modelo de acceso reordenado predice que, con contextos muy potentes, es posible que se acceda antes al significado subordinado que al dominante. No obstante, el acceso es exhaustivo: siempre se sigue accediendo al significado dominante, salvo que el contexto contenga una fuerte relación con el significado pretendido. Por tanto, Rayner et al. afirman que los datos de Martin et al. no son contrarios al modelo de acceso reordenado. Como réplica, Vu y Vellas, aun admitiendo que había problemas con algunos de sus estímulos, afirmaron que estos problemas no podían haber provocado resultados erróneos.
Acceso a las propiedades selectivas de las palabras
Tabossi utilizó una tarea de imprimación multimodal para demostrar que el contexto de la frase que limita específicamente una propiedad de la palabra prima provoca una facilitación selectiva. Defendió una versión modificada de la dependencia del contexto: no todas las facetas del contexto semántico-pragmático pueden limitar la búsqueda de los posibles significados, pero las características semánticas que restringen propiedades semánticas específicas pueden proporcionar esas restricciones. Por ejemplo, el contexto en (29) sugiere claramente la propiedad “amarga” de “limón”. Tabossi observó una facilitación cuando se presentaba visualmente la palabra objetivo “amargo” en una tarea de decisión léxica inmediatamente después de la palabra prima (“limón”), respecto tanto al mismo contexto pero con un sustantivo distinto (30) como respecto a un contexto distinto con el mismo sustantivo (31).
(29) The little boy shuddered eating the lemon (el niño se estremeció al comerse el limón).
(30) The little boy shuddered eating the popsicle (el niño se estremeció al comerse el polo).
(31) The little boy rolled on the floor a lemon (el niño dejó rodar el limón por el suelo).
En efecto, Tabossi afirmó que hay importantes diferencias en la eficacia de los distintos tipos de indicios contextúales. Si el contexto limita débilmente, observamos un acceso exhaustivo, pero si limita enérgicamente, observamos un acceso selectivo. Sin embargo, Moss y Marslen-Wilson señalaron que la compensación acústica de la palabra prima podría producirse demasiado tarde como para medir un efecto, dado que el acceso léxico inicial se produce muy pronto, antes de que se terminen las palabras. Tabossi utilizó palabras de dos sílabas, y es posible que estas palabras fueran suficientemente largas como para permitir un acceso exhaustivo inicial produciéndose la selección antes de la presentación de la palabra objetivo. Tabossi y Zardon analizaron esta posibilidad es una tarea de decisión léxica multimodal presentando la palabra objetivo 100 ms antes del final de la palabra prima ambigua. Siguieron encontrando que sólo se activaba el significado dominante relevante cuando el contexto estaba muy sesgado hacia ese significado. Tabossi y Zardon también concluyeron que si el contexto sesgaba enérgicamente la interpretación hacia el significado menos frecuente, tanto el significado dominante (debido a su dominio) como el significado menos dominante (debido al efecto del contexto) estaban activos al cabo de 100 ms.
Moss y Marslen-Wilson analizaron también la forma en que se puede acceder selectivamente a facetas del significado. Midieron el acceso léxico muy al principio, antes de terminar la presentación de la palabra prima. Las palabras objetivo con una relación semántica estaban imprimadas independientemente del contexto, mientras que el acceso a las palabras objetivo con propiedades semánticas estaba afectado por el contexto semántico. No se accedía de forma automática a las propiedades semánticas cuando se escuchaban, pero se podían modular en función del contexto anterior, incluso en la posición más temprana. Por tanto, esta conclusión indica de nuevo que ni el acceso exhaustivo ni el selectivo pueden ser totalmente correctos en tanto en cuanto lo que encontramos depende de la detallada relación entre el contexto y los significados de la palabra.
Evaluación del trabajo sobre la ambigüedad léxica
Al principio hubo dos enfoques básicos sobre cómo terminamos eligiendo el sentido adecuado de las palabras ambiguas. Según la perspectiva autónoma, accedemos automáticamente a todos los sentidos de una palabra, y utilizamos el contexto para elegir la interpretación adecuada. A continuación se utiliza la información semántica para acceder al sentido correspondiente de la palabra. Según la perspectiva interactiva, el contexto permite un acceso selectivo de los sentidos adecuados de la palabra ambigua. Los experimentos utilizados en este campo son muy sensibles a las propiedades de la palabra objetivo y a la longitud del contexto. Cuando encontramos una imprimación sensible al contexto en estos experimentos multimodales, depende de los detalles de la relación semántica entre la palabra prima y la objetivo. Los primeros experimentos utilizando tareas con desconexión encontraron resultados contradictorios tanto para el acceso múltiple como para el acceso específico al contexto. Los experimentos posteriores, utilizando una imprimación multimodal más sofisticada, indicaban un acceso múltiple con rápida resolución.
Los experimentos más recientes sugieren que el patrón de acceso depende de las frecuencias relativas de los sentidos alternativos de la palabra ambigua y del grado en que el contexto de desambiguación limita el número de alternativas. Todos los modelos recientes de desambiguación incorporan un elemento de interactividad: la pregunta ahora es hasta qué punto es limitada. ¿Puede un contexto semántico suficientemente limitado impedir la activación del significado menos dominante de una palabra? Así pues, la forma en que abordamos la ambigüedad léxica depende tanto de las características de la palabra ambigua como del tipo de contexto de desambiguación.
Todavía quedan varias preguntas por responder. En concreto, ¿cómo ejerce el contexto su influencia en la elección del significado correcto? ¿Cómo se produce la integración semántica? MacDonald y cols., abordan esta cuestión, y también la relación entre la ambigüedad léxica y la sintáctica. Proponen que ambas se resuelven utilizando mecanismos análogos basados en un lexicón enriquecido. Kawamoto construyó un modelo conexionista de resolución de la ambigüedad léxica. El modelo demostraba que, incluso en un sistema interactivo, se activan múltiples candidatos, incluso cuando el contexto favorece claramente a un significado. (Esto se produce debido a que la relación entre la forma perceptiva de una palabra y sus significados es mucho más fuerte que la relación entre el significado y el contexto.) Esto sugiere que el acceso múltiple no diagnostica necesariamente la modularidad.
Aunque parece que las palabras ambiguas provocan dificultades para el sistema del lenguaje, hay algunos casos en los que las palabras ambiguas presentan una ventaja. Es posible que nombremos más rápidamente palabras ambiguas en comparación con las no ambiguas, y tienen una ventaja en la decisión léxica. Hay una serie de explicaciones de esta posible ventaja, pero todas giran en torno a la idea de que la disposición de múltiples significados objetivo acelera el procesamiento de la palabra. Por ejemplo, si el significado de cada palabra se corresponde con un detector como un logogén, entonces una palabra con dos significados tendrá dos detectores. La probabilidad de que una palabra ambigua active alguno de estos múltiples detectores será mayor que la probabilidad de que una palabra no ambigua active su único detector.