Reconocimiento visual de las palabras

Introducción

El reconocimiento implica la identificación de un elemento como algo con lo que estamos familia­rizados, no sólo estamos interesados en descubrir cómo decidimos que una serie de letras impresas nos resulta familiar o no, sino también cómo se accede a toda la información relacionada con una palabra. Por ejemplo, cuando ve la serie de letras “f a n t a s m a”, sabe algo más que el simple hecho de que forman una palabra, que es un sustantivo y que puede desempeñar otros papeles en las frases, pero no otros, y tambien sabe como se pronuncia. En el acceso léxico, accedemos a la representación de un elemento a partir de su representación perceptiva y, en ese momento, se encuentra disponible este tipo de información.

Balota de­nominó al momento en que una persona ha reconocido una palabra pero todavía no ha accedido a su significado “el momento mágico”. En los modelos con un momento mágico, sólo se puede acceder al significado de una pa­labra cuando ya se ha reconocido. Johnson-Laird propuso que la profundidad del acceso léxico puede va­riar. Observó que, en ocasiones, apenas recuperamos in­formación sobre una palabra. Gerrig amplió esta idea, y afirmó que hay distintos “modos de acceso léxi­co” en distintos contextos.

Aunque la gran mayoría de los seres humanos ha utilizado el lenguaje hablado durante mucho tiempo, la alfabetización es un acontecimiento relativamente re­ciente. Ha habido una gran cantidad de investigación sobre el reconocimiento visual de las palabras, en parte debido a su comodidad.

El alfabetismo es una característica importante de la cibilización moderna.

Métodos básicos y conclusiones básicas

El estudio de los movimientos oculares en la lectura

El estudio de los movimientos oculares ha adquirido importancia al ayudarnos a comprender tanto la for­ma en que reconocemos las palabras como la forma en que procesamos unidades más largas de lenguaje im­preso.

Hay una serie de técnicas disponibles para inves­tigar los movimientos oculares:

  • Técnica seguimiento del limbo ocular: Se refleja un haz infrarrojo en el globo ocular hacien­do un seguimiento del límite entre el iris y el blanco del ojo (el limbo ocular). Aunque es un buen sistema para hacer un seguimiento horizontal del movimiento del ojo, no es muy bueno para hacer un seguimiento de los movimientos verticales.

  • El sistema de Purkinje, hace un seguimiento preciso tanto de los movimientos hori­zontales como de los verticales. El sistema calcula los movimientos del centro exacto de la pupila.Cuando leemos, no movemos los ojos de manera homogénea, los ojos se desplazan en saltos denominados sacudidas.

  • Sacudidas: los ojos se desplazan en saltos de una duración de entre 20 y 60 ms.

  • Fijaciones: entre las sacudidas se dan intervalos de entre 200 y 250 ms en los que el ojo se para.

Cuando el ojo se está moviendo en una sacudida se asimila muy poca información. La información que se pueden asimilar durante una fijación es limitada: quince caracteres a la derecha y tan sólo entre tres y cuatro a la izquierda para los angloparlantes e hispano parlantes. Esta asimetría se revierte en el caso de las personas que leen en hebreo, que leen de derecha a izquierda. Las personas con una gran habilidad de lectura pueden asimilar más informa­ción en una fijación (tienen un mayor alcance) que los lectores menos adiestrados. La informa­ción percibidas en las regiones más alejadas del punto de fijación se utiliza para guiar los siguientes movimientos oculares.

La fóvea es la parte más sensible del campo visual y corresponde aproximadamente a los siete caracteres centrales de un texto de tamaño medio. La fóvea está rodeada de la parafóvea donde la agudeza visual es más reducida; más alta se encuentra la periferia, donde la agudeza visual es aún peor. Extraemos la mayor parte del significado de lo que leemos de la zona de la fóvea. Rayner y Bertera mostraron un texto a lectores con una máscara móvil que creaba un punto de cegera móvil si se tapaba la región de la fóvea, era posible leer con la región inmediatamente circundante a la fó­vea (parafóvea), pero a un ritmo mucho más lento (sólo 12 palabras por minuto). Si se tapaban tanto la fóvea como la parafóvea, era imposible leer.

A veces cometemos errores, o tenemos que repasar el material anterior, y tenemos que mirar atrás. Estos movimientos oculares hacia atrás al material anterior, denominados regresiones, son a veces tan breves que no somos conscientes de ellos. El estudio de estos movimientos oculares regre­sivos proporciona importante información sobre cómo aclaramos el material ambiguo.

El modelo más influyente del control del mo­vimiento ocular es el modelo E-Z Reader. En este modelo, la aten­ción, el procesamiento visual y el control oculomotor determinan conjuntamente cuándo y a dónde se mueven los ojos cuando leemos. La idea central de este mode­lo es que, cuando leemos, nos fijamos en un punto, y después la atención visual progresa avanzando por la línea de texto hasta que se alcanza un punto donde las limitaciones de la precisión del sistema visual dificul­tan extraer más información y reconocer las palabras. A continuación se desplaza la atención y se programa un movimiento ocular en el sistema oculomotor para mo­verse al punto de dificultad. A continuación se produce una sacudida a la nueva localización, y se repite el pro­ceso. Las sacudidas están programadas en dos etapas: Hay una primera fase lábil cuando se puede cancelar la sacudida prevista si resulta que ya no es necesaria; tras esta primera fase inicial lábil no se pueden cancelar las sacudidas. El supuesto central, y más controvertido, del modelo es que se presta atención de una palabra a otra de forma estrictamente serial, cambiando únicamente cuando se ha identificado cada palabra. Este supuesto asegura que las palabras se procesan en el orden correcto. La “identificación” de las palabras se produce en dos fases:

Comprobación de la familiaridad (¿conozco esta palabra? ¿Es probable que pueda utili­zarla?). La culminación de la primera fase puede desen­cadenar la programación de una sacudida.

El acceso léxico pleno, en el que se recupera el significado y la representación de la palabra integrada con la estructura lingüística emergente. La culminación de la segunda fase desencadena un cambio de la aten­ción que pasa a la siguiente palabra.

Por tanto, en este modelo las sacudidas y la atención están separadas, y tienen distintas fuentes de control (familiaridad e iden­tificación). El procesamiento lingüístico puede afectar a los movimientos oculares; por ejemplo, si resulta que un análisis es incorrecto, podemos volver a una locali­zación anterior. En el modelo, los procesos de nivel su­perior intervienen en el impulso general hacia adelante sólo cuando algo ha salido mal.

Tiempo de reacción y otras mediciones

En la tarea de denominación se presenta visualmente a los participantes una palabra que tienen que nombrar midiendose el tiempo que tarda el participante en empezar a nombrar la palabra en voz alta. La latencia de denominación suele ser de aproximadamente 500 ms desde el momento en que se presenta la palabra.

En la tarea de decisión léxica el participante tiene que decidir si una serie de letras es una palabra o una palabra inexistente. En el método de presentación visual más frecuente se muestra la serie de letras en la pantalla de una computadora (también existe una versión auditiva de esta tarea). Por ejemplo, el participante debe apretar una tecla en respuesta a la palabra “enfermera” y otra tecla en respuesta a la palabra inexistente “entermera”. El experimentador mide el tiempo de reacción y las ta­sas de error. Los expe­rimentadores tienen que ser muy sensibles al problema del intercambiodel equilibrio entre velocidad y precisión (cuanto más rápido contesta el participante, más errores comete). Por tanto, los investigadores suelen que tener cuidado sobre cuales son las instrucciones exactas que dan a los participantes.

En los experimentos que miden el tiempo de reac­ción no resulta particularmente útil medir el tiempo ab­soluto necesario para responder. Lo que importan son las diferencias entre condiciones. Suponemos que nuestras manipulaciones experimentales sólo alteran determinados aspectos del procesamiento, y que todo lo demás permanece constante y, por lo tanto, queda cancelado.

En la identificación taquistoscópica se muestran pa­labras a los participantes durante un periodo de tiempo muy breve. Los investigadores utilizaron en el pasado un instrumento denominado taquistoscopio; ahora se utilizan computadoras, pero se sigue utilizando el nom­bre para hacer referencia a la metodología general. El experimentador registra los umbrales a los que los par­ticipantes ya no pueden identificar elementos con segu­ridad. Si la presentación es suficientemente breve, o si se interfiere con los procesos de percepción normales cuando se presenta un segundo estímulo muy deprisa después del primero, podemos encontrar, en ocasiones, lo que se conoce comúnmente como percepción subli­minal. En este caso, la conducta de los participantes se ve afectada, aunque no son conscientes de que se haya presentado algo.

La tarea de clasificación semántica requiere que el participante tome una decisión que utiliza procesos semánticos. Por ejemplo, ¿la palabra “manzana” hace referencia a una “fruta” o a una “verdura”? ¿Es el obje­to al que hace referencia determinada palabra mayor o menor que una silla?

Las distintas técnicas no siempre proporcionan los mismos resultados. Utilizan distintas facetas del proce­samiento.

Una de las ideas más importantes en el reconocimien­to de las palabras es la de priming o imprimación. Impli­ca presentar material antes de presentar la palabra para la que se quiere una respuesta. Uno de los paradigmas más comunes consiste en presentar una palabra antes de presentar la palabra objetivo para la que se quiere que se dé una respuesta (como nombrarla o tomar una decisión lógica).

La primera es la palabra prima y la palabra para la que se quiere una respuesta es la palabra objetivo. El tiempo que transcurre entre que se presenta por primera vez la palabra prima (el comienzo) y el inicio de la pa­labra objetivo se denomina asincronía del comienzo del estímulo o ACE.

¿Qué facilita (o dificulta) el reconocimiento de las palabras?

Muchos de los fenómenos que vamos a ver a continuación también se aplican al reconocimiento de la palabra hablada. En concreto, los efectos de fre­cuencia y la imprimación semántica se encuentran en ambos tipos de reconocimiento.

Interferencia en la identificación

Podemos ralentizar la identificación de las palabras ha­ciendo que sea más difícil reconocer el estímulo, se puede conseguir de distintas formas:

  • Degradación del estímulo: consiste en degradar su apariencia fí­sica. Se puede conseguir separando las letras que forman la palabra, reduciendo el contraste entre la palabra y el fondo sobre la que se presenta o rotando la palabra pre­sentándola en un ángulo extraño.

  • Enmascaramiento hacia atrás: La presentación de otro estímulo inmediatamente después del objetivo interfiere con el proceso de recono­cimiento. Hay dos formas distintas de hacerlo.

  • Enmascaramiento por energía (o iluminación, o ruido aleatorio): Cuando el enmascaramiento del estímulo no está es­tructurado (ej. si es solamente un montón de puntos negros situados de manera aleatoria, o sencillamente un resplandor de luz). Sus efectos actúan sobre el nivel de detección de la característica visual provocando escasez de las ca­racterísticas visuales y dificultando su identificación.

  • Enmascaramiento con patrón (o enmascaramiento de las características): Cuando el enmascaramiento del estímulo está estructurado (ej. si incluye letras o partes aleatorias de letras). Estos dos tipos de enmascara­miento tienen efectos muy distintos. Sus efectos crean interferen­cias a nivel de las letras y limita el tiempo disponible para procesar.

El enmascaramiento se utiliza en los estudios de una de las mayores controversias de la psicolingüística, la de la percepción sin conciencia. La percepción sin con­ciencia es una forma de percepción subliminal. Investi­gadores como Allport y Marcel descubrieron que las palabras que se han enmascarado hasta el punto de que los participantes afirman que no son conscientes de su presencia pueden, no obstante, producir una activación del sistema de identificación de las palabras, incluso hasta el nivel del procesamiento semántico. Es decir, podemos acceder a información semántica sobre un elemento sin ser conscientes de su presencia. Han surgido críticas metodológicas. Hasta la fecha, no está claro si podemos identificar y acceder a información relaciona­da con el significado de las palabras sin una sensibili­zación consciente, aunque la balanza de la evidencia se decanta probablemente por la respuesta afirmativa.

Otra forma informativa con la que podemos inter­ferir en el reconocimiento de las palabras consiste en presentar una palabra, pero en retrasar la presentación de una o dos letras al inicio de la palabra enmascaran­do esas letras hacia atrás. En inglés, tras 60 ms no hay gran diferencia pero, antes de eso, el retraso de las consonantes perturba el reconocimiento visual de las palabras mucho más que el retraso de una vocal. Por tanto, la identifica­ción de las consonantes es particularmente importante al principio para reconocer una palabra. En inglés, las consonantes tienen una correspondencia más regular de la apariencia visual al sonido, mientras que las vocales no. En italiano, que tiene una correspondencia mucho más regular de las vocales, no hay una ventaja de las consonantes. Por tanto, los lectores que leen distintos idiomas hacen un uso diferencial temprano de la infor­mación que es probable que los ayude a identificar una palabra.

Frecuencia, familiaridad y edad de la adquisición

La frecuencia de una palabra es un factor muy impor­tante en su reconocimiento. Las palabras que se utilizan comúnmente son más fáciles de reconocer y se respon­de más rápidamente ante ellas que ante palabras me­nos comunes.

El efecto de la frecuencia no es meramente el re­sultado de diferencias entre palabras frecuentes e infre­cuentes (ej. “año” frente a “herejía”) donde cabría esperar una diferencia, sino también entre palabras co­munes y palabras ligeramente menos comunes (ej. “rain”, lluvia, frente a “puddle”, charco). Por tanto, es esencial controlar la frecuencia en los experimentos psicolingüísticos, asegurando que se tienen en cuenta las distintas condiciones. Evidentemente, hay diferencias entre distintas versiones del inglés (ej. “pavement” y “sidewalk”, dos palabras para acera) y entre la frecuencia de la pa­labra escrita y hablada. Por ejemplo, el pronombre “yo” es diez veces más frecuente en el inglés hablado que en el escrito. La base de datos CELEX que está almacenada electrónicamente, se utiliza para comprobar dicha frecuencia.

Hay otras varias variables correlacionadas con la frecuencia. Por ejemplo, las palabras frecuentes tienden a ser más cortas. Si quiere demostrar un efecto sin ambigüedades de la frecuencia, debe tener cuidado para tener en cuenta estos otros factores.

La frecuencia está particularmente entremezclada con la edad de la adquisición. La edad de la adquisi­ción de una palabra es la edad a la que aprendió una palabra por primera vez. En conjunto, los niños aprenden las pala­bras más comunes primero, pero hay excepciones: por ejemplo, “gigante” suele aprenderse a una edad tem­prana aunque es una palabra con una frecuencia relati­vamente baja. Las palabras que se aprenden a una edad temprana se nombran más deprisa y con más precisión que las que se aprenden posteriormente, en toda una se­rie de tareas, incluyendo el nombramiento de objetos, nombramiento de palabras y la decisión léxica. Cuanto más tardía es la edad de adquisición de un nom­bre, más difícil será que la produzca un individuo con una lesión cerebral.

Se ha sugerido que todos los efec­tos de la frecuencia son, realmente, efectos de la edad de la adquisición. Los efectos de la edad de la adquisición persisten incluso cuando se tiene en cuenta la frecuencia acumu­lada. Es probable que tanto la frecuencia como la edad de la adquisición tengan un efecto sobre el procesamiento de las palabras. Es posible que las distintas tareas difieran en su sensibilidad a la edad de la ad­quisición y a las distintas mediciones de la frecuencia; la edad de la adquisición afecta particularmente a la lectura de las palabras, mientras que la frecuencia acu­mulada (número de palabras adquirido) tiene un efecto en todas las tareas.

Por otra parte, Zevin y Seidenberg pro­porcionan simulaciones que demuestran que las tareas que implican redundancia y regularidad en la corres­pondencia entre los elementos de entrada y de produc­ción (ej. la lectura, donde las letras se convierten en sonidos de forma muy predecible) son menos proclives a los efectos de la edad de la adquisición y sólo son sensibles a la frecuencia acumulada, pero las tareas con menos redundancia y regularidad (como aprender los nombres de objetos o caras) sí muestran efectos de la edad de la adquisición.

Los efectos de la edad de la adquisición podrían sur­gir a consecuencia de la pérdida de plasticidad de los sistemas en desarrollo. En vez de entrenar a una red conexionista para que aprenda simultáneamente todos los elementos, Ellis y Lambón Ralph introdujeron elementos en el régimen de entrena­miento en distintos momentos. Los elementos aprendi­dos al principio tenían una ventaja, independientemente de su frecuencia de aparición. A medida que una red aprende más elementos, se hace menos plástica y los últimos elementos no están representados tan eficiente­mente, o con tanta potencia, como los que se aprendie­ron al principio, porque es más difícil diferenciarlos de los elementos que ya se han aprendido. Los elementos que se han aprendido al principio tienen una ventaja que les permiten desarrollar representaciones más fuertes en la red. Los elementos que se han aprendido tarde sólo pueden desarrollar fuertes representaciones si se pre­sentan con una frecuencia muy alta.

Longitud de la palabra

Gough (1972) afirmó que durante el reconocimiento de las palabras se sacan las letras de una pequeña memoria visual a corto plazo, una a una. La tasa de transferencia es más lenta en los lecto­res menos expertos. Por tanto, no sería nada sorpren­dente que fuera más difícil identificar las palabras largas que las cortas. Sin embargo, resulta muy difícil identificar un efecto de la longitud independiente de la frecuencia. Una complicación es que hay tres formas distintas de medir la longitud de las palabras: por el número de letras que hay en la palabra, por el número de sílabas y por el tiempo que se tarda en decir la pala­bra.

Chumbley y Balota (1984) encontraron efectos de la longitud en la decisión léxica cuando las palabras existentes e inexistentes tenían la misma longitud y regularidad en su pronunciación.

Weekes (1997) determinó que la longitud de la palabra (medida por el número de letras) tenía un escaso efecto en el nombramiento de las palabras cuando se tenían en cuenta otras propiedades de las mismas (como el número de palabras parecidas a la palabra objetivo), aunque la longitud tenía cierto efecto en la lectura de las palabras inexistentes. Parece que el número de le­tras de una palabra tiene poco efecto en el caso de las palabras cortas, pero cierto efecto para palabras con entre cinco y doce letras. Además, los efectos de la lon­gitud de la palabra en el nombramiento reflejan proba­blemente el mayor número de palabras parecidas con una pronunciación similar en el caso de las palabras más cortas.

El tiempo de nombramiento aumenta en función del número de sílabas en una palabra. Existe al menos cierta contribución de la preparación para articular estas sílabas, además de cualquier efecto de la percepción. Encontramos un efec­to similar en el nombramiento de imágenes. Tardamos más tiempo en nombrar imágenes de objetos descritos con palabras largas en comparación con las imágenes de objetos descritos con palabras cortas, y tardamos más en leer números que tienen más sílabas en su pronun­ciación.

Efectos de la vecindad

Algunas palabras tienen un gran número de palabras parecidas a ellas mientras que otras palabras de frecuencia similar tienen pocas palabras que se pa­rezcan. Coltheart y cols. definieron el estadístico N como el nú­mero de palabras que se puede crear cambiando la letra de una palabra objetivo (vecinos ortográficos). N es un indicador del tamaño del vecindario (o densidad).

El tamaño del vecindario afecta al reconocimiento visual de las palabras, más fácil reconocer las palabras cuando con un elevado N se tienen en cuenta otros factores. El desem­peño en tareas de nombramiento y decisión léxica es más rápido para las palabras de baja frecuencia que tienen muchos vecinos ortográficos. Las partes que riman de los vecinos parece particularmente importante para producir la facilitación.

Además del tamaño del vecindario, la frecuencia de los vecinos también podría ser importante aunque, en una revisión de la literatura, Andrews concluyó que el tamaño del vecindario tiene más efectos que la frecuencia de los vecinos. Por otra parte, es sorprendente que tener muchos vecinos provoque una facilitación, en vez de competencia.

Diferencias entre palabras existentes e inexistentes

Por lo general se responde más deprisa a las palabras que a las palabras inexistentes. Las palabras inexisten­tes más inverosímiles se rechazan más deprisa que las palabras inexistentes verosímiles. Por tanto, en una tarea de decisión léxica somos relativa­mente lentos cuando tenemos que rechazar una palabra inexistente como “sunto” (que podría haber sido una palabra y, de hecho, se parece mucho a una, “santo”), pero rechazamos rápidamente una palabra como “tnszv”. Las palabras inexistentes verosímiles (es decir, que compren­dan reglas de formación de las palabras del idioma en tanto en cuanto no incluyen series de letras inaceptables) se denominan, en ocasiones, pseudopalabras.

Priming por repetición

La técnica de facilitar el reconocimiento repitiendo una palabra se conoce como imprimación (priming) por repetición. Cuando ha identificado una palabra, es más fácil identificarla en la siguiente ocasión. La repetición facilita tanto la precisión de la identificación perceptiva como los tiempos de respuesta a la decisión léxica. La repetición tiene un efecto sorprenden­temente duradero (varias horas, o incluso más).

En una tarea de decisión léxica, los efectos de la imprimación por repetición son más potentes con las palabras de baja frecuencia que con las de alta frecuencia, un efecto conocido como el de la atenuación de la frecuencia. Forster y Davis también enmasca­raron con patrones la palabra prima en un intento de borrar cualquier posible memoria episódica de la mis­ma. Concluyeron que los efectos de repetición tienen dos componentes: un efecto muy breve de acceso léxico y un efecto episódico a largo plazo, y sólo éste último es sensible a la frecuencia.

Ha habido un considerable debate sobre si la impri­mación por repetición se produce debido a la activación de la representación almacenada de un elemento o si se debe a la creación de un registro de todo el procesamiento, incluyendo la memoria episódica. Una evidencia importante que respalda la visión episó­dica es el descubrimiento de que normalmente logramos la facilitación mediante imprimación por repetición úni­camente dentro de un campo (como la modalidad visual o auditiva) pero la imprimación semántica (por significado o asociación) también funciona entre campos.

Priming basado en la forma

Al compartir letras, se dice que están ortográficamente relacionadas y este fenómeno se conoce como impri­mación ortográfica o basada en la forma. Podríamos esperar que ver una palabra como contraste facilite el reconocimiento de contrate, porque hay un solapamiento entre sus formas físicas.

La imprimación basada en la forma sólo es eficaz con primas enmascaradas con ace cortas, de forma que no se percibe conscientemente la prima. Las palabras primas relacionadas con la forma pueden incluso tener un efecto inhibidor, ralentizando el reconocimiento de la palabra objetivo, debido a que las palabras semejantes visualmente están en competencia durante el proceso de reconocimiento, de forma que, en algunos casos, las palabras parecidas en apariencia se inhiben entre sí. La imprimación basada en la forma es mucho más fácil de obtener si se enmascara la prima, tal vez porque la imprimación cubierta es una forma más “pura” de im­primación que no tiene contribución del procesamiento consciente.

Priming semántico

La imprimación semántico implica que la identifica­ción de una palabra puede quedar facilitada mediante una exposición anterior a una palabra con un significado relacionado. Por ejemplo, afirmamos más deprisa que “doctor” es una palabra si va precedida de la palabra “enfermera” que si va pre­cedida de una palabra sin un significado relacionado, como “mantequilla” o que si se presenta de manera ais­lada.

La palabra imprimación (priming) se reserva mejor para la metodología de investigar lo que ocurre cuan­do una palabra precede a otra. La primera palabra (la prima) podría acelerar el reconocimiento de la segunda palabra (la objetivo), en cuyo caso hablamos de facilita­ción. A veces, la prima ralentiza la identificación de la palabra objetivo, en cuyo caso hablamos de inhibición.

Con intervalos de tiempo muy pequeños, se puede producir la imprimación si la palabra prima sigue a la objetivo. Esto sugiere que las palabras se procesan en cierta medida en paralelo si el tiempo entre las mismas es suficientemente breve.

La imprimación semántica es un tipo de efecto del contexto. Se puede ver que el efecto podría tener cier­tas ventajas para el procesamiento. Rara vez se leen (u oyen) las palabras de manera aislada ni tampoco se yux­taponen las palabras de manera aleatoria. Las palabras con un significado relacionado pueden aparecer juntas en las frases. Por tanto, es posible que se acelere el pro­cesamiento si se logra facilitar el acceso a palabras re­lacionadas con la palabra que está leyendo actualmente, puesto que es más probable que sea la siguiente palabra que otra palabra aleatoria.

Otros factores que afectan al reconocimiento de palabras

Hay otros factores que hay que mencionar, incluyendo la categoría gramatical a la que pertenece la palabra. Es posible que la facilidad de crear una imagen, el significado y lo concreto de una palabra también tenga un efecto sobre su identificación.

Rubin concluyó que la frecuencia, implicación emocional y facilidad de pronunciación eran los mejo­res elementos de predicción del desempeño en las tareas experimentales utilizadas comúnmente. Whaley que la frecuencia, el significado y el número de sílabas tenían un mayor efecto sobre los tiempos de decisión léxica, aunque recientemente la edad de la ad­quisición ha pasado a estar al frente como variable im­portante. En un estudio de un gran número de palabras, Balota y cobls. concluyeron que la contribución de las va­riables dependía en gran medida de la tarea. Las varia­bles semánticas son particularmente importantes, sobre todo en la decisión léxica. Finalmente, el contexto sin­táctico afecta al reconocimiento de la palabra.

Procesos atencionales en el reconocimiento visual de las palabras

Leer es un proceso obligado. Cuando ve una palabra es­crita, no puede dejar de leerla. La evidencia para respal­dar esta introspección se obtiene de la tarea de Stroop.

Procesamiento automático frente a procesamiento atencional: el procesamiento automático es rápido, paralelo, no es proclive a interferencias de otras tareas, no requiere espacio en la memoria de trabajo, no se puede prevenir, y no es conscientemente accesible. El procesamiento atencional (o controlado) es lento, en serie, sensible a las interferencias de tareas antagonistas, rtiliza espacio en la memoria de trabajo, se puede prevenir o inhibir y sus resultados suelen ser accesibles, aunque no nece­sariamente, a la consciencia.

Neely utilizó la tarea de la decisión léxica para in­vestigar los procesos atencionales en la imprimación semántica. Concluyó que el patrón de resultados dependía de las ACE. Con ACE pequeñas, una pala­bra inesperada pero con relación semántica, quedaba facilitaba respecto a la condición de base, mientras que los participantes tardaban aproxima­damente el mismo tiempo en responder a la palabra es­perada, pero sin relación semántica. Para ACE largas, al contrario.

Neely interpretó estos resultados como demostrati­vos de dos procesos distintos que actúan con ACE cortas y largas:

  • Con ACE cortas, se produce una rápida facili­tación de corta duración de los elementos con relación semántica, que no se puede impedir, independientemen­te de cuáles sean las expectativas de los participantes. Esta facilitación se basa en las relaciones semánticas entre palabras. No hay ningún tipo de inhibición con ACE cortas. Esto es lo que se conoce como imprimación automática.

  • Para ACE largas, se produce una lenta acumulación de la facilitación que depende de las expectativas de los participantes. Esto provoca una inhibición de las respuestas para los elementos inespe­rados, con el coste de que, si tiene que responder ante estos elementos, su respuesta se verá retrasada. Esta es la imprimación atencional.

Normalmente estos dos ti­pos de imprimación se producen juntos. En una tarea de imprimación semántica con ACE intermedias (unos 400 ms) tanto la imprimación automática como la atencio­nal pueden estar cooperando para acelerar la respuesta. También se puede concluir a partir de este experimento, en función de la condición de elemento inesperado con relación semántica, que se accede de manera automáti­ca a los significados de las palabras.

Más evidencia a favor de un modelo de priming de dos procesos

Antos utilizó asociaciones entre caso particular y categoría (ej. brazo-cuerpo), que son extremadamente predictivas. Encontró posterior­mente evidencia de inhibición (respecto a la base) en la condición de elemento inesperado pero semánticamente relacionado con ACE más cortas (200 ms), lo que sugie­re que es posible que la inhibición no surja únicamente de los procesos de atención, sino que puede que ten­ga un componente automático.

Una segunda fuente de evidencia sobre los efectos atencionales en la imprimación proviene de los estudios que manipulan la validez predictiva (validez de los indicios) de las palabras primas. La cantidad de imprimación observada aumenta a medida que aumenta la proporción de palabras relacionadas utilizadas en el experimento. Esto es lo que se conoce como el efecto de la proporción. Si la imprimación fuera totalmente auto­mática, entonces la cantidad encontrada debería mante­nerse constante para todas las proporciones de pares de palabras asociadas. El efecto de la proporción refleja el efecto de manipular las expectativas de los participan­tes variando la proporción de primas válidas. Si hay un montón de primas que no están realmente relacionadas con las palabras objetivo, los participantes aprenden rá­pidamente que las palabras primas no resultan muy be­neficiosas. Esto atenuará a continuación la contribución de la imprimación atencional. No obstante, en aquellos casos en los que las palabras primas están relacionadas con las palabras objetivo, la imprimación automática sigue produciéndose. Cuantas más primas relacionadas haya en el experimento, más reconocen los participan­tes su utilidad, y más aumenta la contribución de la im­primación atencional.

Evaluación de los procesos atencionales en el reconocimiento de las palabras

Hay dos procesos atencionales que actúan en la impri­mación semántica: un proceso facilitador automático de corta duración que no podemos evitar que ocurra, y un proceso atencional que depende de nuestras expectati­vas y que es mucho más lento en su inicio.

Sin embargo, los beneficios de la imprimación no carecen de costes: no hay duda de que la imprimación atencional implica una inhibición de las alternativas inesperadas y si una de éstas es, en efecto, la palabra objetivo, su reconocimien­to quedará retrasado. Es probable que también haya un coste de inhibición relacionado con la imprimación automática. La imprimación automática actúa probable­mente mediante una propagación de la activación.

Podemos ampliar nuestra distinción entre procesos automáticos y atencionales al propio reconocimien­to de las palabras. Como hemos visto, debe haber un componente automático en el reconocimiento, porque este procesamiento es obligatorio. La intuición sugie­re que también hay un componente atencional. Si lee­mos mal una frase, podemos decidir conscientemente volver hacia atrás y volver a leer determinada palabra. Llevando esto un paso más lejos, si identificamos pro­visionalmente que una palabra parece incompatible con el contexto, es posible que comprobemos que la hemos identificado correctamente. Estos procesos atencionales actúan después de que hayamos contactado primero con el lexicón y, por tanto, también hablamos de un acceso léxico automático y de efectos de acceso posterior no automático. Los procesos atencionales son importantes en el reconocimiento de las palabras y pueden desempeñar distintos papeles en las tareas utilizadas para es­tudiarlo.

¿Se obtienen distintos resultados con las distintas tareas?

En las tareas de nombramiento o de de­cisión léxica, no sólo estamos estudiando un reconoci­miento puro de las palabras: estamos estudiando el re­conocimiento de las palabras más los efectos de la tarea de medición. Aún peor, las tareas interactúan con lo que se está estudiando.

La decisión léxica es criticada por ser demasiado sensible a los efectos del acceso posterior, refleja demasiado las estrategias de los participantes, más que los procesos automáticos del acceso léxico.

¿Cuál es la evidencia de que el nombramiento de las palabras recurrirá probablemente menos a las estrategias de los participantes que la decisión léxica? En primer lugar, en las tareas de denominación los efectos de inhibición son pequeños o inexistentes en las tareas de nombramiento. Se cree que la inhibición surge de los procesos atencionales, por lo que su ausencia en las tareas de nombramiento sugiere que el nombramiento no implica procesamiento atencional. En segundo, el priming mediado se encuentra de forma mucho más fiable en la tarea de nombramiento que en la decisión léxica. La imprimación mediada es la facilitación entre pares de palabras que sólo están conectadas mediante un intermediario (ej. “perro” imprima a “gato” que imprima a “ratón” en el par prima-objetivo “perro-ratón”). Es mucho más probable que sea automática que impulsada por la expectativa, porque es improbable que los participantes sean capaces de generar un número suficientemente elevado de posibles palabras objetivo a partir de la palabra prima en el tiempo suficiente mediante cualquier otro medio. La imprimación mediada no se suele encontrar en la decisión léxica porque, normal­mente, los participantes aceleran el procesamiento utilizando la comprobación de acceso posterior. Es posible demostrar la imprimación mediada en la decisión léxica manipulando los materiales experimentales y el diseño, de forma que se desalienta la comprobación posterior al acceso. Por ejemplo, observamos una imprimación mediada si sólo están mediados todos los elementos relacionados (“perro” y “ratón”), sin que haya entremezclados pares directa­mente relacionados semánticamente (ej. “perro” y “gato”). No obstante, la decisión léxica parece implicar rutinariamente una comprobación de acceso posterior. En tercer lugar, en la tarea de decisión léxica se identifica la imprimación semántica hacia atrás de palabras que sólo están relacionadas en una dirección pero no en la otra pero no se suele encontrar en la de nombramiento. De nuevo, es más posible que surja este tipo de imprimación median­te una comprobación posterior al acceso que mediante una propagación automática de la activación.

Estos resultados sugieren que la tarea de nombra­miento es menos sensible a los procesos posléxicos. Sin embargo, la tarea de nombramiento tiene un componen­te de producción que no existe en la decisión léxica. En concreto, el nombramiento implica ensamblar una pronunciación para la palabra que podría evitar por completo el lexicón (utilizando lo que se conoce como una ruta subléxica). También hay algunos po­sibles efectos estratégicos en el nombramiento: la gente no está dispuesta a verbalizar palabras que podrían ser incorrectas de alguna manera.

Evidentemente, tanto la decisión léxica como el nombramiento tienen inconvenientes. Por ello, muchos investigadores prefieren ahora utilizar un análisis de los movimientos oculares. Afortunadamente, los resultados de los distintos métodos suelen converger. Schilling, Rayner y Chumbley concluyeron que, aunque la tarea de decisión léxica es más sensible a la frecuencia de las palabras que el nombramiento y la duración de la mirada, existe no obstante una significativa correlación entre el efecto de frecuencia y el tiempo de respuesta en las tres tareas.

El centro del efecto de frecuencia

El efecto de la frecuencia podría surgir de dos ma­neras. Es posible que una palabra sea más accesible porque vemos (u oímos) las palabras frecuentes más de lo que vemos (u oímos) las palabras menos frecuentes, o porque decimos (o escribimos) palabras frecuentes más a menudo. Por supuesto, la mayor parte del tiempo es­tas dos posibilidades están entremezcladas; al hablar utilizamos fundamentalmente las mismas palabras a las que estamos expuestos al escuchar. Otra forma de decirlo consiste en preguntarse si los efectos de la fre­cuencia se producen en la producción o en el reconoci­miento. Morton desenredó estos dos factores. Concluyó que se pueden explicar mejor los datos con modelos en los que la ventaja de las palabras de alta frecuencia es que necesitan menos evidencia para al­canzar determinado umbral para su identificación. El efecto de la exposición repetida a una palabra es, por tanto, que se reduce este umbral. El reconocimiento posterior de la palabra queda facilitado cada vez que estamos expuestos a la misma, ya sea al hablar, escribir, leer o escuchar. Por tanto, la frecuencia de la ex­periencia y la frecuencia de la producción son, ambas, importantes.

La mayoría de las explicaciones del efecto de la frecuencia suponen que surge como una especie de práctica: cuanto más frecuentemente hacemos algo, mejor se nos da. Esta idea ha sido puesta en duda re­cientemente por Murray y Forster, que demues­tran que el tiempo que hace falta para identificar las palabras está linealmente relacionado con la frecuen­cia, en vez de variar como una función logarítmica, como cabría esperar si la frecuencia se basara en el aprendizaje que, a su vez, se basa en repeticiones multitudinarias. (Al final, se terminan obteniendo rendi­mientos decrecientes al repetir las cosas más veces.)

Balota y Chumbley afirmaron que la frecuencia de las palabras no tienen ningún efecto en la clasificación semántica. Se trata de una tarea que debe implicar el acceso al significado de la palabra objetivo. Concluyeron que cuando la frecuencia tenía un efecto sobre el reconocimiento de las palabras, lo tenía debido a los mecanismos de acceso posterior, como la comprobación en la decisión léxica y la preparación para la articulación en el nombramiento.

Evaluación de las diferencias entre tareas

La decisión léxica y el nombramiento de las pa­labras no siempre ofrecen los mismos resultados. Las diferencias se deben a que hay otras tareas que incluyen facetas del procesamiento no automático. Los tiempos de nombramiento incluyen el ensamblaje de un código fonológico y la articulación, y los tiempos de la decisión léxica incluyen la preparación de la respuesta y la comprobación posterior al acceso. Por tanto, las diferencias de los tiempos de reacción entre las tareas pueden refle­jar distintas explicaciones del acceso posterior, más que de los procesos de acceso. Puesto que el objetivo de la lectura es el de extraer un significado, es cuestionable el grado en que la decisión léxica o el nombramiento lo consiguen.

¿Hay un sistema dedicado exclusivamente al reconocimiento visual de las palabras?

Es im­probable que haya habido tiempo para que evolucione un sistema específico para el procesamiento visual de las palabras. Parece más probable que el sistema de reconocimiento de las palabras haya aprovechado otros procesos cognitivos y perceptivos. Sin embargo, las pa­labras son muy particulares: estamos muy expuestos a ellas, tienen una relación muy arbitraria con su signifi­cado y, lo más importante, al menos en los sistemas de escritura alfabética, están compuestas por unidades que corresponden a sonidos.

¿Es el sistema de procesamiento de las palabras di­ferente de otros sistemas de reconocimiento? Se puede analizar esto más sencillamente en el contexto de nom­brar imágenes de objetos, la tarea de nombramiento de imágenes. Una forma importante de fijarse en esto con­siste en analizar el grado en el que la presentación de las palabras impresas afecta al procesamiento de otro tipo de materiales, como las imágenes. Las imágenes facili­tan las palabras con una relación semántica en una tarea de decisión léxica. Sin embargo, la magnitud del efecto de impri­mación es sustancialmente inferior que el tamaño del efecto de imprimación dentro de la modalidad (imáge­nes que impriman a imágenes, o palabras que impriman a palabras). Estas conclusiones sugieren que los siste­mas de nombramiento de imágenes y reconocimiento de palabras son independientes, aunque es una afirma­ción controvertida. Los resultados son sensibles a las peculiaridades de las tareas utilizadas.

Parte del córtex visual ventral izquierdo en torno a la circunvolución fusiforme responde más a las palabras y pseudopalabras que a series de consonantes. Los es­tudios de imágenes fMRI demuestran que este área es sensible a las propiedades ortográficas, más que perceptivas, de las palabras; las series de palabras en las que se alterna la mayúscula con la minúscula (mAyUsCuLa) resultan poco familiares desde el punto de vista percep­tivo, pero siguen activando esta zona del cerebro. Estos datos de las imágenes sugieren que existe una región exclusiva del cerebro, a menudo denominada área de forma­ción visual de las palabras, que procesa las palabras a un nivel de representación abstracta. Puesto que esta re­gión también responde a las pseudopalabras, debe estar recogiendo algo implicado con la regularidad ortográfi­ca de una secuencia de letras abstractas. La idea de un área dedicada en exclusiva a la formación visual de las palabras está, sin embargo, siendo objeto de controver­sias porque el área no responde a palabras inexistentes parecidas a palabras existentes y otros objetos con los que estamos familiarizados.

Farah (1991) afirmó que hay dos procesos de reco­nocimiento visual fundamentales que subyacen a todo tipo de procesamiento visual. Se trata del procesamien­to holístico de representaciones perceptuales no descom­puestas y el procesamiento paralelo de múltiples partes complejas. El reconocimiento de otros tipos de objetos implica ambos tipos de procesamiento en distintos grados, dependiendo del objeto específico en cuestión.

Puesto que el reconocimiento de los objetos depende tanto del procesamiento holístico como del procesa­miento de las partes, nunca se debería poder encontrar un déficit de reconocimiento de objetos (llamado ag­nosia) sin encontrar también, o bien un déficit de reco­nocimiento de las caras (llamado prosopagnosia) o de reconocimiento de las palabras (dislexia). Si una per­sona tiene prosopagnosia y dislexia, entonces también debería tener agnosia.

Aunque se trata de una propuesta interesante, no está claro que la percepción de las caras sea holística, que el reconocimiento de los objetos sea dependiente tanto del estado como de las partes, y que el reconoci­miento de las palabras dependa únicamente de las partes. Además, Humphreys y Rumiati describieron el caso de MH, una mujer con indicios de una atrofia cortical general. A MH se le daba muy mal el reconoci­miento de los objetos, aunque era relativamente buena en el procesamiento de palabras y caras. Éste es el pa­trón que Farah predijo que no debería producirse jamás. Lam­bón y cobls., describen un caso de estudio de un paciente que puede reconocer palabras y objetos (como familiares o no familiares, en una tarea de decisión léxica o de objetos) pero padece un trastor­no selectivo a la hora de recuperar los significados de las palabras. Esta conducta se puede explicar si existe un área concreta de formación visual de las palabras pero se ha desconectado del sistema semántico.

En resumen, existe una considerable evidencia de que hay una región del cerebro dedicada en exclusiva a procesar la información sobre las palabras escritas.

Facilitación basada en el significado y reconocimiento visual de las palabras

Tipos de priming “semántico”

Cuanto más se aproxime el significado de dos palabras, mayor es la magnitud del efecto de imprimación obser­vado. Podemos diferenciar entre imprimación asociativa e imprimación semántica no asociativa:

  • Imprimación asociativa, tarea de asociación de palabras: Se dice que dos palabras están asociadas, si en una tarea de asociación de palabras, los participantes producen una en respuesta a la otra.Es importante destacar que no todas las asociaciones son iguales en las dos direcciones. Al­gunas palabras se producen como asociadas de otras que no tienen ningún significado relacionado: un ejemplo podría ser “espera” generada en respuesta a “hospital”. La imprimación mediante asociados se conoce como imprimación asociativa; las dos palabras asociadas pue­den, o no, tener también una relación semántica.

  • Imprimación semántica no asociativa: Se trata de la imprimación mediante palabras que tienen una relación semántica pero no asociativa.Las palabras no asociativas relacionadas semántica­mente son aquellas que siguen teniendo una relación en cuanto a su significado con la palabra objetivo, pero que no se producen como palabras asociadas. Analicemos el caso de “baile” y “patinaje”. Tienen una clara rela­ción en cuanto a significado, pero “patinaje” surge en muy pocas ocasiones como palabra asociada a “baile”. “Pan” y “tarta” son un ejemplo de otro par de palabras con relación semántica pero no asociadas. Los nombres de categorías superiores (ej. “animal”) y los casos particulares (ej. “zorro”) tienen una clara relación semántica, pero no siempre están fuertemente asocia­das. Las palabras pertenecientes a la misma categoría (ej. “zorro” y “camello” son ambos animales) están claramente relacionadas, pero no siempre están asocia­das.

La evidencia de la imprimación asociativa au­tomática es bastante clara, y la mayor parte del esfuerzo de investigación se ha centrado en la cuestión de si po­demos encontrar, o no, una imprimación semántica no asociativa automática.

Muchos de los primeros estudios no encontraron ninguna evidencia de una facilitación semántica auto­mática pura. En ellos se sugiere que la imprimación automática parece producirse únicamente dentro del lexicón debido a las conexiones asociativas entre las palabras que se producen juntas con frecuen­cia. Moss y Marslen-Wilson concluyeron que las asociaciones semánticas (ej. pollo-gallina) y las propiedades semánticas (ej. pollo-pico) tienen distintos efectos de imprimación en una tarea de imprimación multimodal. Las palabras objetivo asociadas se imprimían independien­temente del contexto, mientras que las palabras objetivo con propiedades semánticas estaban afectadas por el contexto de toda la frase que las rodeaba. Moss y Mars­len-Wilson concluyeron que la imprimación asociativa no refleja la actuación de las representaciones semán­ticas, sino que es un proceso automático intraléxico de bajo nivel.

Por otra parte, Hodgson no encontró una im­primación para los pares con relación semántica en una tarea de nombramiento, pero una imprimación significa­tiva para los mismos pares en la tarea de decisión léxica. Tanto Fischler como Lupker encontraron cierto efecto de imprimación de relación semántica sin asociación, también en una tarea de decisión léxica. La tarea de decisión léxica pa­rece ser una medición menos pura del procesamiento automático que la tarea de nombramiento y, por ello, esta imprimación podría haber surgido a través de me­dios no automáticos.

Los resultados sugieren que la imprimación auto­mática en tareas de reconocimiento visual de bajo ni­vel de las palabras que utilizan los procesos del acceso léxico puede explicarse por las asociaciones entre las palabras más que por la mediación basada en el signifi­cado de las palabras. “Doctor” imprima a “enfermera” porque estas palabras se producen juntas con frecuen­cia, lo que lleva a un fortalecimiento de sus conexiones en el lexicón, más que porque haya un solapamiento en su significado, o por la activación de un elemento en un nivel de representación superior. En efecto, la concu­rrencia puede no ser ni siquiera necesaria para que las palabras terminen asociadas: puede que baste con que dos palabras tiendan a ser utilizadas en el mismo tipo de contexto. Por ejemplo, tanto “doctor” como “enferme­ra” tienden a ser utilizadas en el contexto de “hospital” por lo que podrían terminar asociadas incluso si no se producen juntas directamente.

McRae y Boisvert pusieron en duda esta con­clusión. Utilizaron pares de pala­bras que tenían una relación más estrecha pero que aún así no estaban asociadas (ej. “esterilla” y “alfom­bra”, “yate” y “barco”) y encontraron una clara facilitación. Ahora parece probable que al menos algunas facetas de la relación semántica pue­dan producir una facilitación automática.

El patrón de resultados observado también depende de la naturaleza exacta de las relaciones semánticas im­plicadas. Moss y cols. concluyeron que tanto los elementos relacionados se­mánticamente como los relacionados asociativamente producían imprimación de las palabras objetivo en una tarea de decisión léxica auditiva. Además, los elementos relacionados semánticamente producían un “impulso” de la magnitud de la imprimación si también tenían una relación asociativa. Sin embargo, se observó un patrón de resultados distinto en una versión visual de la tarea de decisión léxica. Aquí, el que se observara una imprimación semántica pura (no asociativa) o no dependía del tipo de relación semántica. Las palabras coordinadas de una categoría (ej. “cerdo-caballo”) no producían una imprimación automática sin asocia­ción, mientras que las relaciones instrumentales (ej. “escoba-suelo”) sí. Esto sugiere que la información so­bre el uso y propósito de un objeto se activa de forma inmediata y automática.

Finalmente, es necesario señalar que la imprimación semántica puede tener distintos resultados en el recono­cimiento y la producción de las palabras. Por ejemplo, Bowles y Poon demostraron que la imprimación semántica tiene un efecto inhibidor en la recuperación de una palabra dada su definición (una tarea de produc­ción), mientras que, como acabamos de ver, en una de­cisión léxica (una tarea de reconocimiento) la imprimación semántica tiene un efecto facilitador.

¿Afecta el contexto de las frases al reconocimiento visual de las palabras?

La imprimación a partir del contexto de la frase es la cantidad de imprimación aportada además de los efec­tos asociativos de las palabras individuales de la frase. El principio de la frase: “Debes lavarte los dientes todos los " facilita el reconocimiento de una palabra como “día”, que es un final predecible de la frase, en compa­ración con otra palabra como “años”, que no lo es. El contexto de la frase facilita el reconocimiento a pesar de que no existe una relación semántica entre “días” y otras palabras de la frase.

Fischler y Bloom (1979) demostraron que la facilitación sólo se produce si la palabra objetivo es una continuación extremadamente probable de la frase. Un contexto adecuado tiene un efecto facilitador en palabras congruentes altamente predecibles respecto a otra palabra congruente pero improbable, y un efecto inhibidor de las palabras anómalas o incongruentes.

Stanovich y West (1981) concluyeron que los efectos contex­tuales son mayores para aquellas palabras que son más difíciles de reconocer cuando están aisladas. La facilitación contextual era mucho mayor cuando se degradaban las palabras objetivo al presentar un menor contraste. En condiciones claras, encontramos fundamentalmente una facilitación contextual de las palabras probables; en condiciones de degradación de la palabra objetivo, encontramos una inhibición contextual de las palabras anómalas. Los niños que, por supuesto, son menos ex­pertos a la hora de leer palabras aisladas que los adultos, también muestran una mayor inhibición contextual. Las distintas tareas arrojan resultados distintos. Las tareas de nombramiento tienden a suscitar una mayor faci­litación de las palabras congruentes, mientras que las tareas de decisión léxica tienden a suscitar más inhi­bición de las palabras incongruentes. Es más probable que se produzca la inhibición porque la decisión léxica está, de nuevo, aprovechando procesos atencionales de acceso posterior. Es probable que estos procesos impli­quen una integración de los significados de las palabras alcanzadas con un nivel de representación de la frase más elevado.

West y Stanovich (1982) afirmaron que los efectos de facilitación identificados en la tarea de nombramien­to se deben a una simple imprimación asociativa de las palabras anteriores de la frase. Si esta explicación es correcta, cualquier facilitación identificada es, sencillamente, resultado de una imprimación asociativa de las demás palabras de la frase. El contexto de la frase actúa por inhibición del acceso posterior de las palabras incongruentes con el contexto anterior, y esto es más probable que se pueda detectar con tareas del tipo de la decisión léxica que son más sensibles a los mecanismos de acceso posterior.

Un problema de esta conclusión es que la relación léxica no siempre basta por sí sola para producir facilitación en función del contexto de la frase. Esto sugiere que la facilitación observada proviene de la integración del material en una representación de texto de nivel su­perior. Forster observó que la utilización del contexto puede exigir una gran cantidad de recursos cognitivos. Esto sugiere que los efectos conceptuales deberían, al menos en algunas ocasiones, no ser auto­máticos. Tal vez el beneficio potencial es demasiado pequeño para que merezca la pena que el procesador del lenguaje utilice el contexto de manera rutinaria. El contexto de las frases podría ser de ayuda práctica úni­camente en circunstancias difíciles, como cuando se ha degradado el estímulo.

El análisis de los movimientos oculares sugirió que el acceso léxico y el procesamiento concep­tual dependiente del contexto no podrían separarse en las primeras etapas del procesamiento de las palabras. La máscara afectaba a la frecuencia y a la previsibili­dad de manera distinta, sugiriendo que existe un componente automático temprano del acceso léxico, y un procesamiento posterior no automático, que requiere esfuerzos y necesita el contexto. Por tanto, es posible que el contexto tenga algunos efectos tempranos, pero el acceso léxico y el procesamiento conceptual surgen posteriormente como dos procesos independientes. Este experimento también es un respaldo adicional a la idea de que el temprano procesamiento léxico es automático, mientras que los efectos posteriores del contexto impli­can un componente atencional.

Van Petten (1993) analizó los potenciales relaciona­dos con los acontecimientos (ERP) de frases semánti­camente anómalas. Una ventaja de la técnica de ERP es que permite examinar el curso temporal del reconoci­miento de las palabras antes de que se dé una respuesta explícita (como decir la palabra o apretar un botón). Los efectos del contexto léxico y de la frase eran diferenciables en los datos de ERP, y los efectos del contexto de la frase eran más prolongados. Van Petten concluyó que había, en efecto, un efecto del contexto de la frase que no se podía atribuir a la imprimación léxica. Además, parece que los efectos de imprimación empiezan al mis­mo tiempo, lo que va en contra de un modelo de serie estricto donde la imprimación léxica precede a la impri­mación del contexto de la frase. Finalmente, Altarriba, Kroll, Sholl y Rayner (1996) analizaron los tiempos de nombramiento y movimientos oculares en el experimento en el que pi­dieron a personas perfectamente bilingües en inglés y español que leyeran frases en las que se mezclaban los dos idiomas. Encontraron que el contexto de la frase actuaba tanto mediante la imprimación intraléxica como mediante la imprimación de alto nivel. Las restricciones contextúales siguen actuando entre idiomas, aunque los resultados estaban moderados por una variable léxica, la frecuencia de la palabra.

Está claro que los resultados son variables, y pa­recen depender de la tarea. En el discurso real, es posible que los efectos del contexto global sean más importantes.

En resumen, el contexto de la frase puede tener, o bien un efecto perceptivo temprano, o bien un efecto de percepción posterior tardío. Podemos observar efectos tempranos, pero sólo en determinadas tareas, particu­larmente en aquellas que se asemejan a la lectura de frases completas y un discurso más que dé respuesta a palabras aisladas.

Resumen de los estudios de priming basados en el significado

Podemos distinguir entre una imprimación semántica asociativa, una imprimación no semántica asociativa y una imprimación semántica no asociativa. Todos los ti­pos de imprimación tienen tanto componentes automá­ticos como atencionales, aunque ha habido un conside­rable debate sobre cuál es el estatus de la imprimación semántica no asociativa automática.

Los procesos aten­cionales incluyen la comprobación de que el elemento accedido es el correcto, la utilización de expectativas conscientes y la integración de la palabra con represen­taciones semánticas y sintácticas de nivel superior de la frase que se está analizando. La pregunta que queda por contestar es el grado en que el contexto de la frase tiene un componente automático. Los investigadores se muestran divididos al respecto, pero hay una cantidad de evidencia razonable de que lo tiene. La modelización conexionista sugiere un mecanismo por el que el contexto de las frases podría tener un efecto. En un sistema interactivo, el contexto de la frase proporciona otra restricción más que actúa sobre el reconocimiento de la palabra de la misma ma­nera que las variables léxicas, facilitando el reconoci­miento de las palabras más predecibles.

¿Cómo se produce la imprimación? La teoría domi­nante afirma que la imprimación semántica se produce mediante la propagación de la activación. La activación es una propiedad continua, como el calor, que se propa­ga por una red. Los elementos que están estrechamente relacionados estarán muy juntos en la red. La recupe­ración de algo de la memoria corresponde a activar los elementos adecuados. Los elementos que están cerca de un elemento en las redes recibirán activación por su propagación desde una única fuente. Cuanto más aleja­dos estén otros elementos de la fuente, menor activación recibirán. La idea central de la activación que se propaga es que la activación puede penetrar cierta dis­tancia en la red y que esta penetración requiere tiempo. Cuanto más lejos se propaga la activación, más tiempo tiene que pasar, y puede resultar muy difícil detectar al­gunos de estos efectos muy pequeños.

Unos pocos investigadores afirman que la activación no se propaga y, por el contrario, proponen una teoría de indicios complejos (Ratcliff y McKoon), la imprima­ción implica la búsqueda en la memoria con un indicio complejo que contiene tanto a la palabra prima como a la palabra objetivo. Esta teoría predice que la imprima­ción sólo se puede producir si los dos elementos están directamente vinculados en la memoria. Por tanto, no puede explicar una imprimación mediada en la que dos elementos que no están vinculados directamente pueden imprimarse mediante un intermediario. Además, ahora hay evidencia de que pa­sa el tiempo mientras se propaga la activación y que, cuanto más distantes son dos cosas relacionadas, más tiempo pasa.

Morfología: procesamiento de palabras complejas

¿Cómo se almacenan en el lexicón las palabras mor­fológicamente complejas? ¿Hay una lista exhaustiva de todas las derivaciones de una palabra, de forma que existen entradas para “beso”, “besaba”, “besa” y “be­sando”? Esto se conoce como la hipótesis de la lista ex­haustiva. ¿O almacenamos únicamente la raíz (“bes-"), y producimos o descodificamos los elementos deriva­dos aplicando una regla? Puesto que el inglés contiene un gran número de derivacio­nes irregulares, necesitaríamos entonces una lista independiente de las excepciones, de forma que almacenaríamos una regla general y una lista de excepciones. Esto se conoce como la hipótesis de la descomposición obligatoria. Existe una posición intermedia, denominada la hipótesis de la vía doble. Aunque no resulta económico hacer una lista de todas las palabras derivadas, algunas palabras derivadas fre­cuentes y comunes tienen sus propias listas.

Según la hipótesis de la descomposición obligatoria, para reconocer una palabra morfológicamente comple­ja primero tenemos que deshacernos de sus sufijos, un proceso conocido como eliminación de sufijos. En una tarea de decisión léxica, se tarda más en reconocer las palabras que parecen tener un prefijo pero que, de hecho, no lo tienen (ej. “interés”, “resultado”) que las palabras de control. Es como si los participantes estuvieran intentando eliminar los sufijos de estas palabras pero después son incapaces de encon­trar una palabra que se ajuste en su lexicón y tienen que volver a analizarla. En una tarea en la que se pide a los participantes que valoren si una palabra escrita se pro­nuncia igual que otra (es decir, si la palabra es homófona), Taft observó que la gente tenía dificultades con palabras como “fined” (multado) que tienen una estructura morfológica distinta de su pareja homófona (aquí “find”, encontrar). Taft afirmó que la dificultad de estas palabras surge del hecho de que las palabras deri­vadas están representadas en el lexicón como una raíz más su sufijo. Finalmente, analicemos el caso de palabras como “seeming” (pareciendo) y “mending” (arreglan­do); tienen frecuencias superficiales muy similares; es decir, esas formas concretas aparecen con aproximada­mente la misma frecuencia en inglés. Sin embargo, las raíces tienen frecuencias de base muy distintas: “seem” y todas sus variantes (seems, seemed) es más frecuen­te que “mend” y sus variantes (mends, mended). ¿Cuál determina la facilidad del reconocimiento: la frecuencia superficial o la frecuencia de base? Resulta que, en con­junto, la decisión léxica es mucho más rápida, y hay un menor número de errores, en el caso de las palabras con elevadas frecuencias de base, lo que de nuevo sugiere que las palabras complejas se descomponen y se recono­cen en función de su raíz. Sin embar­go, el efecto de la frecuencia de la base no se encuentra para todas las palabras. Esta conclusión sirve de prueba a favor de la hipótesis de la vía dual, aunque el debate sigue abierto, con Taft que afirma que los efectos de la frecuencia de base y de superficie se producen en distintas fases del procesamiento, de forma que la ausen­cia de un efecto de la frecuencia de base no constituye una prueba en contra de la descomposición obligatoria.

Las palabras compuestas cuyo significado no traslu­ce de sus componentes (ej. “buttercup”, ranúnculo, formado por butter, mantequilla, y cup, taza) también se almacenarán por separado. Así pues, ni “leche” ni “cucharilla” en inglés facilitarán el reconoci­miento de “buttercup” entre los angloparlantes.

Marslen-Wilson, Tyler, Waksler y Older (1994) ana­lizaron la forma en que procesamos complejas palabras derivativas en inglés. El patrón de los resultados era complicado y demostraba que el grado de imprimación identificado depende de las ideas sobre transparencia fonológica y transparencia semántica. La relación entre dos pa­labras morfológicamente relacionadas es fonológica­mente transparente si la parte compartida suena igual. Por tanto, la relación entre “friendly” (amigable) y “friendship” (amistad) es fonológicamente transpa­rente (“friend” suena igual en ambas palabras), pero no en “sign” (señal) y “signal” (señalizar) (el com­ponente “sign” tiene distintas pronunciaciones). Una palabra morfo­lógicamente compleja es semánticamente transparente si su significado resulta evidente a partir de sus partes: por tanto, “unhappiness” (infelicidad) es semánticamente transparente al estar compuesta de la manera previsible por “un-”, “happy” y “-ness”. Una palabra como “department”, a pesar de estar compuesta por morfemas reconocibles, no es semánticamente trans­parente. El significado de “depart” (partir) en “depar­tment” no está relacionado de forma evidente con el significado de “depart” en “departure” (partida). Es semánticamente opaca.

La transparencia semántica y fonológica afecta a la forma en que se identifican las palabras. Las formas semánticamente transparentes se descomponen morfo­lógicamente, independientemente de si son fonológica­mente transparentes o no. Sin embargo, las palabras se­mánticamente opacas no se descomponen. Además, las palabras con sufijos y prefijos se comportan de forma distintas. Las palabras derivadas con sufijos y prefijos se impriman entre sí, pero los pares de palabras con su­fijo producen interferencias. Esto se debe a que, cuando oímos una palabra con un sufijo, primero oímos la raíz. Se activan todas las formas con sufijos, pero en cuanto se tiene evidencia de sólo una de ellas, se suprimen las demás. Por tanto, si posteriormente se presenta una de esas, observamos inhibición.

Los estudios más recientes han concluido que los efectos de la imprimación morfológica son independien­tes de la similitud del significado; es decir, no hay dife­rencia en los efectos de imprimación de las derivaciones semánticamente transparentes y opacas. Estos resultados su­gieren que la imprimación morfológica se obtiene, por lo general, debido a la estructura morfológica, y no a un solapamiento semántico entre elementos similares.

Modelos de reconocimiento visual de las palabras

Todos los modelos del reconocimiento de las pala­bras tienen que abordar cuatro preguntas fundamentales:

  1. ¿es el procesamiento autónomo o interactivo; en concreto, existen efectos de arriba a abajo en el reco­nocimiento de las palabras?

  2. ¿el acceso léxico es un proceso en serie o paralelo?

  3. ¿puede caer en cascada la activación de un nivel de procesamiento a otro posterior, o desde el procesamiento en la fase pos­terior sin esperar a que se haya culminado el procesa­miento en la fase anterior?

  4. ¿cómo encontramos los elementos? ¿Los encontramos buscando en el lexi­cón, o podemos localizarlos porque su localización en la memoria está definida por su contenido, una faceta conocida como el direccionamiento por contenidos?

Carr y Pollatsek (1985) utilizan el término modelos de casos léxicos para los modelos que tienen en común que hay un sencillo acceso perceptivo a un sistema de la memoria, el lexicón, donde se almacenan las represen­taciones de los atributos de las palabras individuales y no tienen ningún otro componente adicional basado en reglas que convierten cada letra en sonidos. Podemos distinguir dos grandes tipos de modelo de casos léxicos. Estos difieren en cuanto a si utilizan una búsqueda en serie a través de una lista o una activación directa múlti­ple de las unidades. El mejor ejemplo de un modelo de búsqueda es el modelo de búsqueda en serie. Los mo­delos de acceso directo basados en la activación inclu­yen el modelo de logogenes, los modelos conexionistas localistas, así como una serie de modelos del recono­cimiento de la palabra hablada. Resulta más difícil incorporar a este sencillo esquema los modelos híbridos o de verificación (que combinan el acceso directo y la búsqueda en serie) y los modelos conexionistas distribuidos (que, aunque son muy pare­cidos al modelo de logogenes, carecen por completo de unidades léxicas simples).

El modelo de búsqueda autónoma en serie de Forster

El modelo es un mo­delo en dos etapas; Forster propuso que identificamos las palabras mediante una búsqueda en serie en el lexicón. En este modelo, el sistema de catálogo se corresponde con lo que se deno­minan archivos de acceso y la estantería llena de libros con el archivo maestro.

En el modelo de búsqueda en serie, el procesamien­to perceptivo viene seguido de una búsqueda secuencial de los archivos de acceso que apuntan a una entrada en el lexicón. Los archivos de acceso son específicos a cada modalidad: hay archivos distintos para las fuentes ortográficas, fonológicas y sintacticosemánticas (utili­zadas en la producción de un discurso). Estos archivos de acceso ofrecen indicadores a un archivo maestro en el lexicón que almacena toda la información relacio­nada con una palabra, incluyendo su significado. Para acelerar el procesamiento, estos archivos de acceso es­tán subdivididos en cubos separados en función de la primera sílaba o de las primeras letras de una palabra. Los elementos que hay en estos cubos están ordenados en función de su frecuencia, de forma que primero se examinan los elementos más frecuentes. Por tanto, se accederá antes a los elementos más frecuentes que a los más infrecuentes. Esta búsqueda en función de la fre­cuencia es una característica importante del modelo. La imprimación semántica se produce debido a las referen­cias cruzadas entre entradas en el archivo maestro.

La búsqueda no se ve afectada por la información sintáctica o semántica, que es por lo que se dice que la búsqueda es autónoma. El único tipo de contexto que puede actuar en el acceso léxico es la imprimación asociativa dentro del archivo maestro. No hay un papel temprano para el efecto del contexto de la frase; el con­texto de la frase sólo puede tener un efecto mediante los mecanismos de acceso posterior, como la comprobación.

La repetición puede cambiar tem­poralmente el orden de los elementos en los cubos, (imprimación por repetición). Se pueden rechazar las palabras inexistentes ilegales al principio del proceso de selección de los cubos, pero las palabras inexistentes legales sólo se rechazan tras una búsqueda exhaustiva en el cubo pertinente.

Evaluación del modelo de búsqueda en serie

La crítica más significativa al modelo de búsqueda en serie hace referencia a la posibilidad de que haya un me­canismo de búsqueda en serie. Aunque la introspección sugiere que el reconocimiento de las palabras es directo, más que a través de una búsqueda en serie, no podemos fiarnos de este tipo de datos. El hacer un gran número de comparaciones en serie requeriría mucho tiempo, pero el reconocimiento de las palabras es notablemente rápido. El modelo explica los datos fundamentales sobre el reconocimiento de las palabras, y hace una potente predicción de que los efectos de la imprimación debe­rían estar limitados a la imprimación asociativa dentro del lexicón. No debería haber una implicación de arri­ba a abajo de conocimientos extra-léxicos en el reco­nocimiento de las palabras. Por último, el modelo no explica de manera convincente cómo pronunciamos las palabras inexistentes.

Forster introdujo un elemento de paralelismo al sugerir que se busca simultáneamente en todos los cu­bos. La subdivisión del sistema en cubos acelera en gran medida la búsqueda, y hace que sea posible concluir que una serie de letras es una palabra inexistente mucho más deprisa de lo que se podría si hubiera que buscar en todo el lexicón.

El modelo de búsqueda en serie también proporcio­na una explicación de los efectos de la frecuencia de las palabras en el acceso léxico. Inicialmente se pen­só que el efecto de la frecuencia era aproximadamente logarítmico, de forma que la diferencia de los tiempos de acceso entre una palabra frecuente y una palabra li­geramente menos frecuente es mucho menor que entre una palabra infrecuente y una palabra ligeramente más infrecuente. En el modelo de búsqueda en serie sólo la frecuencia relativa de las palabras dentro de un cubo tiene efectos sobre el tiempo de acceso, y no la frecuen­cia absoluta. Esta idea se conoce como la hipótesis del rango. La mayor parte de la evidencia sugiere que la frecuencia relativa es más importante para determinar el tiempo de acceso que la frecuencia absoluta. El detallado análisis experimental de los tiempos de decisión léxica y de las tasas de error para las palabras con un gran intervalo de frecuencias muestra que los tiempos de reacción se ajustan mejor a una función lineal (tal y como predice la hipótesis del rango donde todo lo que importa es la frecuencia relativa) que a una función logarítmica (don­de lo importante es la frecuencia absoluta). En concreto, los extremos de la distribución no se comportan como cabría esperar: tanto las palabras de frecuencia muy alta como las de frecuencia muy baja reciben una respuesta más lenta e imprecisa de lo que predeciría la función logarítmica.

El modelo de búsqueda en serie ha resultado ser muy influyente y constituye una norma con la que com­parar otros modelos. ¿Podemos justificar la utilización de mecanismos de acceso léxico más complejos que la búsqueda en serie?

El modelo de logogén

En este modelo cada palabra que conocemos tiene su propia característica sencilla de recuento, llamada logogén. Un logogén acumula evidencia hasta que se al­canza su nivel umbral individual. Cuando se alcanza, se reconoce la palabra. Por tanto, el acceso léxico es directo, y se produce de manera simultánea y en paralelo para todas las palabras. Propuesto por Morton, el modelo de logogenes se relacionó con la idea del procesamiento de información de las características y los demonios, donde los “de­monios” hacen el seguimiento de una entrada percep­tiva buscando “características” específicas; cuanta más evidencia existe de que hay determinada característica en el elemento de entrada percibido, más alto gritan los demonios correspondientes. El modelo fue formulado originalmente para explicar cómo afecta el contexto al reconocimiento de las palabras con una exposición muy breve a la palabra, pero se ha ampliado para explicar muchos de los fenómenos del reconocimiento de las palabras.

Cada unidad logogénica tiene un nivel de activación en reposo. A medida que va recibiendo evidencia que corrobora que corresponde al estímulo presentado, au­menta su nivel de activación. Por tanto, si se identifica en la entrada la letra “t”, aumentan los niveles de activación de todos los logogenes correspondientes a palabras que contienen la letra “t”. Si el nivel de activación consi­gue superar determinado umbral, se dispara el logogén y se “reconoce” la palabra. Tanto la evidencia perceptiva como la contextual aumentan el nivel de activación. Es decir, no hay diferenciación entre la evidencia de una pa­labra de fuentes externas e internas. El contexto aumenta el nivel de activación de un logogén de la misma mane­ra que lo incrementan los datos sensoriales relevantes. Cualquier utilización del logogén dará lugar a una facili­tación posterior al rebajar el umbral de ese logogén. Los elementos más frecuentes tienen umbrales inferiores. Las palabras inexistentes serán rechazadas si no se ha dispa­rado ningún logogén transcurrido cierto tiempo límite. Los logogenes calculan códigos fonológicos a partir de un análisis auditivo y visual de las palabras, y también pasan la entrada, tras la detección, al sistema cognitivo. El sistema cognitivo hace todo el trabajo restante, como utilizar la información semántica. Las conexiones son bidireccionales, puesto que la información semántica y contextual de sistema cognitivo puede afectar a los logogenes.

Problemas del modelo de logogén original

En el modelo de logogenes original, un único logogén realizaba todas las tareas del lenguaje de determinada palabra, independientemente de la modalidad. Es decir, se utilizaba el mismo logogén para reconocer las pala­bras presentadas visualmente y habladas y, para hablar y para escribir. El modelo predice que la modalidad de la fuente de activación de un logogén no debería importar. Por ejemplo, el reconocimiento visual de una palabra debería estar igual de facilitado por una palabra prima hablada que por una palabra prima visual. Los experi­mentos posteriores contradijeron esta predicción.

Winnick y Daniel demostraron que la lectura previa en voz alta de una palabra impresa facilitaba el reconocimiento taquistoscópico de esa palabra. Sin em­bargo, el nombramiento de una imagen, o la producción de una palabra en respuesta a una definición, no produ­cía una facilitación posterior del reconocimiento taquis­toscópico de esas palabras. Entonces, Morton dividió el sistema de recono­cimiento de las palabras en distintos conjuntos de logogenes para distintas modalidades (ej. input, entrada, y output, salida o producción). Morton (1979b) también demostró que, aunque la modalidad de la respuesta pa­recía inmaterial (leer o decir una palabra en la fase de entrenamiento), la modalidad de entradas sí importaba. El modelo fue revisado de forma que, en vez de tener un logogén para cada palabra, hubiera dos, específicos a cada modalidad. La consecuencia de este cambio garantizaba que sólo las entradas visua­les pudieran facilitar la posterior identificación visual de las palabras, y que las palabras primas presentadas auditivamente no facilitarían las palabras objetivo presentadas visualmente en el reconocimiento taquistoscó­pico. La evidencia posterior sugiere que son necesarios cuatro sistemas de logogenes: uno para la lectura, otro para la escritura, otro para la escucha y otro más para hablar.

La evidencia neuropsicológica respalda la división del sistema de logogenes, y éste es el planteamiento domi­nante en la actualidad.

Interacción de las variables en el modelo de logogén

Los efectos del contexto y de la calidad del estímulo (que se degrade el estímulo o no) deberían interactuar si el modelo de logogenes fuera correcto. Además, la fre­cuencia y el contexto actúan de la misma manera en el modelo de logogenes y, por tanto, debería mostrar patro­nes parecidos de interacción con cualquier otra variable. Por ejemplo, la calidad del estímulo debería tener los mismos efectos cuando se combina con las manipulaciones del contexto y de la frecuencia. Se requiere menos información perceptiva para reconocer una palabra de alta frecuencia que una de baja frecuen­cia, y se necesita menos información para reconocer una palabra en un contexto que fuera de contexto. Las conclusiones son complejas y contradictorias. Algunos investigadores han identificado una interacción; Meyer, Schvaneveldt y Ruddy concluyeron que, cuanto menos legible es el estímulo, más beneficiosos son los efectos del contexto. Otros han concluido que son adi­tivos. Experimentos posteriores realizados por Norris clarificaron estos resultados. Conclu­yó que la frecuencia y la calidad del estímulo podían interactuar entre sí, pero que la interacción entre la cali­dad del estímulo y el contexto es mayor y más robusta.

En definitiva, resulta muy difícil extraer conclusiones a partir de esta investigación. Las cuestiones implicadas son complejas y los resultados de los experimentos sue­len ser contradictorios.

El modelo de logogenes ha sido superado por los modelos conexionistas del reconocimiento de las pala­bras y, en muchos sentidos, se puede considerar como el precursor de los mismos.

Modelos de reconocimiento de palabras de activación interactiva

McClelly y Rumelhart (1981) desarrollaron un modelo denominado activa­ción interactiva y competencia (interactive activation y competition, IAC). Es uno de los primeros modelos conexionistas. El propósito original de este modelo era explicar los efectos del contexto de la palabra en la identificación de las letras. Reicher y Wheeler demostraron que en el reconocimiento taquistoscópico era más fácil reconocer las letras en las palabras que cuando se veían de forma aislada. Esto se conoce como el efecto de la superioridad de las palabras. Sin embargo, se puede considerar que el modelo es un com­ponente de un modelo general del reconocimiento de las palabras.

El modelo de activación interactiva y competencia está compuesto de muchas unidades de procesamiento sencillas ordenadas en tres niveles. Existe un nivel de entrada de las unidades de características visuales, un nivel donde se corresponden estas unidades con letras individuales y un nivel de salida en el que cada unidad corresponde a una palabra. Cada unidad está conecta­da a cada unidad del nivel inmediatamente anterior y posterior a la misma. Cada una de estas conexiones es, o bien excitadora (es decir, positiva o facilitadora) si es la adecuada, o inhibidora (negativa) si es inadecua­da. Por ejemplo, la letra “T” excitaría unidades de pa­labras como “TAKE” y “TASK” en el nivel superior, pero inhibiría “CAKE” y “CASK”. Las conexiones excitadoras hacen que las unidades de destino estén más activas, mientras que las conexiones inhibidoras las hace menos activas. Cada unidad está conectada a cada una de las otras unidades dentro del mismo nivel mediante una conexión inhibidora. Esto introduce el elemento de competencia.

Cuando se activa una unidad, envía una activación en paralelo a lo largo de las conexiones a todas las demás unidades con las que se conecta. Si está conectada por una conexión facilitadora, tendrá como efecto el incre­mento de la activación en la unidad al otro lado de la co­nexión, mientras que si está conectada por una conexión inhibidora, tendrá como efecto la reducción de la activa­ción en el otro extremo. Por tanto, si se activa la unidad correspondiente a la letra “T” en la posición de letra ini­cial, aumentará el nivel de activación de las unidades de palabras correspondientes a “TAKE” y “TASK”, pero reducirá el nivel de activación de “CAKE”. Pero, pues­to que las unidades están conectadas a todas las demás unidades en el mismo nivel de conexiones inhibidoras, en cuanto se activa una unidad (ej. una palabra), em­pieza a inhibir todas las demás unidades a ese nivel. Por tanto, si el sistema “ve” una “T”, se activarán “TAKE”, “TASK”, y “TIME” y se empezará inmediatamente a inhibir palabras sin la “T” en ellas, como “CAKE”, “COKE”, y “CASK”. Puesto que la activación también se envía a los niveles inferiores, todas las letras en las palabras que empiecen con “T” están un poco activadas y, por tanto, será “más fácil” “verlas”. Además, puesto que las letras en el contexto de una palabra reciben acti­vación de las unidades de palabras por encima de ellas, son más fáciles de ver en el contexto de una palabra que cuando se presentan de manera aislada, donde no reciben ningún apoyo de la activación de arriba a abajo: de aquí el efecto de la superioridad de las palabras.

Supongamos que la siguiente letra que se presenta es una “A”. Esto activará “TAKE” y “TASK” pero inhi­birá “TIME”, que entonces también quedará inhibida a su vez por la inhibición dentro del mismo nivel de “TASK” y “TAKE”. La “A” también activará, por supuesto, “CASK” y “CAKE”, pero estas dos palabras ya estarán detrás de las palabras que empiecen con una “T”. Si la siguiente letra es una “K”, entonces “TAKE” será claramente la líder. El tiempo se divide en una serie de fragmentos denominados ciclos de procesamiento. A lo largo del tiempo, el patrón de activación se estabiliza o relaja en una configuración estable de forma que sólo permanece activa “TAKE”, y por tanto es la palabra que se “ve” o conoce.

El alcance del modelo es ilimitado y no ofrece ninguna explica­ción de los papeles del significado y del sonido en el procesamiento visual de las palabras. La potencia de la conexión tiene que codificarse a mano. Los modelos en los se aprende la potencia de la conexión se han hecho más populares.

Modelos híbridos

Los modelos híbridos combinan el paralelismo (como en los modelos de logogenes y conexionistas) con la búsqueda en serie (como en el modelo de Forster). En el modelo de verificación de Becker, los procesos perceptivos, impulsados por el estímulo, de abajo a arriba, no pueden reconocer una palabra por sí solos. El proceso de comprobación o verificación de arriba a abajo tiene la última palabra. El procesamien­to perceptivo burdo genera un candidato o conjunto sensorial de posibles elementos léxicos. Este conjunto sensorial está ordenado en función de la frecuencia. El contexto genera un conjunto semántico o contextual de posibles candidatos. Tanto el conjunto sensorial como el semántico se comparan y comprueban mediante un análisis detallado de las características visuales de la palabra. El conjunto semántico se comprueba prime­ro; la verificación se hace en serie. Si no se encuentra una correspondencia, el proceso de equiparación pasa al conjunto sensorial. Este proceso generará una cla­ra ventaja para las palabras presentadas en el contex­to adecuado. Cuanto menos concreto sea el contexto, mayor será el conjunto semántico y más lento será el proceso de verificación. Puesto que el contexto precede a la palabra objetivo, el conjunto semántico está prepa­rado antes de que lo esté el conjunto sensorial. Se pueden ampliar los modelos de verificación para incluir cualquier modelo en el que haya una verificación o comprobación de que el producto de los procesos de ac­ceso léxico de abajo a arriba es correcto. Norris afirmó que los mecanismos de comprobación de acceso posterior comprueban el resultado del acceso léxico en función del contexto y resuelven cualquier ambigüedad existente.

Comparación de los modelos

Hay dos dicotomías que se pueden utilizar para clasi­ficar estos modelos: La primera es entre modelos inte­ractivos y modelos autónomos. La segunda dicotomía es entre si se accede directamente a las palabras o si se accede a las mismas mediante un proceso de búsqueda. Los modelos de logogenes y de activación interactiva son ambos modelos interactivos de acceso directo; el modelo de búsqueda en serie es autónomo y, eviden­temente, basado en una búsqueda. La mayoría de los investigadores se muestra de acuerdo en que las fases iniciales del acceso léxico implican un acceso directo en paralelo, aunque es posible que los procesos en serie actúen posteriormente para comprobar las respuestas preparadas. Hay menos acuerdo en cuanto al grado en que el contexto afecta al procesamiento. Todos estos modelos pueden explicar la imprimación semántica, pero el modelo de búsqueda en serie no tiene ningún papel para el contexto de la frase.

Resolución de la ambigüedad léxica

La ambigüedad del lenguaje surge de diversas maneras. Hay ambigüedades relacionadas con la segmentación del habla. Analice las frases habladas “grey tape” (cinta gris) y “great ape” (gran simio), y “ice cream” (helado) y “I scream” (yo grito) o, por poner un ejemplo total­mente en español, “ser afín” y “Serafín”: si uno habla a una velocidad normal suenan igual. Algunas frases tienen más de una interpretación sintáctica aceptable.

Hay una serie de tipos de ambigüedades léxicas. Las palabras homónimas son palabras con distintos signifi­cados que suenan igual. Algunos ejemplos de homóni­mas puras son “banco” (una entidad bancaria o un lugar en el que sentarse) y “don” (de señor o de cualidad). Las palabras homónimas homófonas no homógrafas suenan igual, pero se escriben de distinta manera (ej. “vaya” del verbo ir y “valla”, y “baca” y “vaca”). Las homófonas homógrafas son ambiguas cuando están escritas, y algunas sólo se pueden discernir en función del contexto (como delfín de animal, o de heredero o sucesor). Las más interesantes son las palabras polisémicas, que tienen múltiples significados Ej.: banco. Algunas palabras también son sintácticamente ambiguas, por ejemplo “como” puede actuar como verbo o como conjunción.

Frazier y Rayner (1990) diferenciaron entre pala­bras con múltiples significados (ej. los significados en inglés de “bank” o “ball”), y palabras con múltiples sentidos, donde sólo los sentidos tienen relación (ej. “film” puede ser el rollo físico o toda la película que se proyecta en la pantalla o se ve en televisión, “giro” puede ser la acción de girar, la dirección que se da a una conversación, el estilo de una frase, o la traslación de caudales por medio de letras, libranzas, etcétera, donde todos los significados están relacionados entre sí). No siempre resulta fácil decidir si una palabra tiene múlti­ples significados o sentidos.

Somos más rápidos tomando decisiones léxicas so­bre palabras ambiguas comparadas con palabras equiva­lentes no ambiguas; esta ventaja se denomina la ventaja de la ambigüedad. Sin embargo, sólo se encuentra esta ventaja para las decisiones léxi­cas. Para las demás tareas, no hay una ventaja, o incluso una desventaja (ej. en mediciones del movimiento ocular). Tal vez las palabras am­biguas se beneficien de tener múltiples entradas en el léxico. Es necesario matizar esta observación: mientras que los múltiples sentidos de una palabra confieren una ventaja, los distintos significados múltiples no. La mayor parte del tiempo, es probable que ni siquie­ra seamos conscientes de la ambigüedad de las palabras ambiguas; de alguna manera utilizamos el contexto de la frase para desambiguarla.

Primeros trabajos sobre la ambigüedad léxica

Primeros modelos de ambigüedad léxica

Los pri­meros investigadores trabajaron en el marco conceptual de tres tipos de modelo de resolución de la ambigüedad léxica:

  1. Modelo de acceso léxico de lectura única guiado por el contexto. Según este modelo, el contexto limita de alguna manera el proceso de acceso, de forma que sólo se accede al significado relevante. Un problema de este modelo es que no está claro cómo puede el contexto proporcionar una restricción tan in­mediata.

  2. Modelo de acceso ordenado: Se acce­de a todos los sentidos de una palabra en orden, a partir de las frecuencias de cada significado individual. Por ejemplo, en inglés, el sentido de “instrumento de escri­tura” de la voz “pen” es más frecuente que el sentido de “lugar donde encerrar a animales”. A continuación se comprueba cada sentido en serie respecto al contex­to para ver si es adecuado. Primero comprobamos el sentido más común respecto al contexto para ver si es coherente. Sólo si no lo es probamos con el significado menos común.

  3. Modelo de acceso múltiple. Según este mo­delo, cuando nos encontramos con una palabra ambigua se activan todos sus sentidos, y a continuación se elige el adecuado en función del contexto.

Primeros experimentos sobre el procesamiento de la ambigüedad léxica

Los primeros experimentos parecían demostrar que accedemos de forma rutinaria a todos los significados de las palabras ambiguas. Esta interpretación parte de la premisa de que, si es más difícil procesar una pala­bra ambigua según determinada medida que el proce­samiento de una palabra ambigua de control, incluso en un contexto con un gran sesgo, esto sugiere que se ha detectado la ambigüedad en algún nivel del sistema de procesamiento del lenguaje. Por ejemplo, MacKay utilizó una tarea de terminar una frase en la que los participantes tienen que terminar el principio de la frase con un final adecuado:

(9) After taking the right turn at the intersection, I…///Tras girar a la derecha en el cruce/en el cruce correcto (yo). . .

(10) After taking the left turn at the intersection, I…///Tras girar a la izquierda en el cruce (yo). . .

Los participantes tardaron más en completar (9) que (10) debido a la ambigüedad de la palabra “derecha” en inglés (right), que puede significar “lo contrario que la izquierda” o “lo correcto”. Esta conclusión sugiere que se están teniendo en cuenta ambos sentidos, y el retraso se produce porque el participante tiene que elegir entre ambos.

En estas frases la ambigüedad no se resuelve con el contexto: en este caso los dos sentidos de “derecha/cru­ce pertinente” eran correctos. ¿Nos resultan más difíci­les las palabras ambiguas incluso cuando el sesgo del contexto nos lleva a determinada interpretación? Ana­licemos el caso de las frases (11) y (12). Aquí, el con­texto de “agricultor” crea un fuerte sesgo hacia el sen­tido agrícola de “paja” más que al de artilugio con el que beber. Foss utilizó una técnica conocida como monitorización de fonemas para demostrar que se tarda más en procesar las palabras ambiguas incluso cuando el contexto genera un gran sesgo. En esta ta­rea, los participantes tienen que hacer un seguimiento de un discurso hablado buscando determinado sonido o fonema, y apretar un botón cuando lo detectan. En estas frases el objetivo es /b/. Los participantes tardaron más en detectar /b/ supuestamente porque se ven ralentizados al tener que desambiguar la palabra anterior.

(11) The farmer put his straw beside the machine {el granjero puso la paja al lado de la máquina).

(12) The farmer put his hay beside the machine (el granjero puso la alfalfa al lado de la máqui­na).

La tarea de monitorización del fonema es sensible a otras variables lingüísticas, como la longitud de la pa­labra anterior. Las palabras cortas nos dan poco tiem­po para procesarlas, mientras que se suele identificar y procesar las palabras largas antes de que terminen; es como si el procesamiento de las palabras cortas siguie­ra durante la siguiente palabra. Esta continuación del procesamiento retrasa la identificación del fonema que están monitorizando los participantes. Mehler, Segui y Carey demostraron que este efecto desaparece si se controla adecuadamente la longitud de las palabras ambiguas. Resulta que, en inglés, las palabras ambiguas tienden a ser más cortas que las palabras sin ambigüe­dad.

En la tarea de escucha dicotómica se presentan dis­tintos mensajes al oído izquierdo y derecho. Se dice a los participantes que presten atención a uno e ignoren el otro. En los experimentos realizados por Lackner y Ga­rrett (1972) y MacKay (1973) el mensaje al que se tenía que prestar atención era (13), y los mensajes a los que no había que prestar atención eran, o bien (14) o (15):

(13) The spy put out the torch as a signal to attack (El espía apagó/sacó la antorcha como señal de ataque).

(14) The spy extinguished the torch in the window (El espía apagó la antorcha en la ventana).

(15) The spy displayed the torch in the window (El espía mostró la antorcha en la ventana).

Después se pidió a los participantes que repitieran el mensaje al que habían prestado atención. Su interpre­tación estaba afectada por el mensaje al que no debían haber prestado atención que permitía desambiguar la locución ambigua “put out” (sacar/apagar).

Los experimentos analizados hasta ahora sugieren que se accede en paralelo a todos los significados de una palabra ambigua. Hogaboam y Perfetti demos­traron que el tiempo que se necesita para acceder al sig­nificado depende de la frecuencia de uso. Utilizaron una tarea de detección de la ambigüedad que medía sencilla­mente el tiempo que tardaban los participantes en detec­tarla. La gente tarda en detectar la ambigüedad cuando las palabras aparecen en su sentido más frecuente. Esto se debe a que en los participantes acceden automáticamente a la interpretación frecuente de “pen”, integrándolo en el contexto y después tienen que volver a analizar para detectar la ambigüedad. En los participantes prueban el sentido más frecuente de la palabra, no consiguen integrarlo en el contexto y acceden a continuación al segundo sentido. Por tanto, en este caso, la ambigüedad se detecta mediante un pro­cesamiento rutinario.

The accountant filled his pen with ink (el contable llenó de tinta la estilográfica).

The farmer put the sheep in the pen (el granjero puso a las ovejas en el corral).

Schvaneveldt et al. utilizaron una tarea de decisión léxica sucesiva, en la que los participantes ven palabras individuales que se presentan en un flujo continuo, y tienen que tomar decisiones léxicas sobre cada palabra. En este caso, los participantes son mucho menos conscientes de las relaciones entre las sucesivas palabras. El principal punto de atención del experimen­to eran los tiempos de decisión léxica de triadas de pa­labras como las de: save bank money (ahorrar/ingresos/dinero); river bank money (río/orilla/dinero); day bank money (día/banco/dinero).

El tiempo de reacción más rápido a la palabra “mo­ney” (dinero) era en donde se había imprimado el significado adecuado de “bank” (ingresar, pero también banco y orilla) con la primera palabra “save” (ahorrar). El tiempo de reacción fue intermedio en la condición de control, pero más lento en donde se había imprimado el sentido incorrecto. Si todos los sentidos de la voz inglesa “bank” fueran accedidos automática­mente cuando se mencionaba por primera vez, “money” tendría que haber sido imprimada por “bank” independientemente de cual fuera la primera palabra. Por tanto, este resultado respalda el acceso selectivo.

El experimento de Swinney (1979)

Parte de la primera evidencia respaldaba al acceso múl­tiple, y parte al acceso selectivo. Los resultados que encontramos dependen en gran medida de la tarea. Ade­más, las tareas son, o bien tareas desconectadas, en el sentido de que reflejan tiempos de procesamiento muy posteriores al momento en que se haya procesado la am­bigüedad (como en la detección de la ambigüedad, la escucha dicotómica y la terminación de las frases), o bien tareas conectadas, como la monitorización de los fonemas, que son muy sensibles a otras variables. Ne­cesitamos una tarea que nos diga lo que está ocurriendo inmediatamente cuando nos encontramos con una pala­bra ambigua. Swinney realizó este experimento. Utilizó una técnica de imprimación multimodal en la que los participantes tienen que responder a una tarea de decisión léxica visual mientras escuchan un material auditivo correlacionado.

Rumour had it that, for years, the government building had been plagued with problems. The man was not surprised when he found several (spiders, roaches, y other) bugs] in the corner of his room. (Dicen las malas lenguas que, du­rante años, el edificio público ha estado lleno de problemas. Al hombre no le sorprendió en­contrar varios bichos (arañas, cucarachas y otros) en la esquina de su habitación).

En la palabra ambigua es “bugs” (bichos/mi­crófonos ocultos). La frase “arañas, cucarachas y otros” es un contexto desambiguador que crea un fuerte sesgo en los participantes a favor del sentido de “insecto” de “bug” en vez de “micrófono o dispositivo electrónico”. Sólo la mitad de los participantes vio esta potente frase de desambiguación. Había una tarea de decisión léxica visual que se presentaba inmediatamente después (en el punto 1) o ligeramente después (tres sílabas después de la palabra crítica, en el punto 2). La palabra objeti­vo de decisión léxica era, o bien “hormiga” (relaciona­da con el sentido del sesgo), “espía” (relacionada con el sentido irrelevante) o “cosía” (una palabra de control neutra). Swinney encontró una facilitación en el pun­to 1 para los dos significados de “bugs”, incluyendo el significado irrelevante, pero sólo encontró facilitación para el significado relevante en el punto 2. Esto sugiere que, cuando nos encontramos por primera vez con una palabra ambigua, accedemos automáticamente a todos sus significados. Sólo utilizamos el contexto a posteriori para tomar una decisión muy rápida entre las alternati­vas, dejando activo únicamente el sentido coherente.

El experimento de Swinney demostró que el contex­to semántico no puede limitar el acceso inicial. Tanenhaus et al. realizaron un experimento análogo basado en una tarea de nombramiento en vez de una decisión léxica. Utilizaron palabras sintácticamente am­biguas (ej. “watch” en inglés, que puede ser un verbo (mirar) o un sustantivo (reloj). Conclu­yeron que inicialmente se activaban los dos sentidos de la palabra en frases como “Boris began to watch” (Bo­ris empezó a mirar) y “Boris looked at his watch” (Bo­ris miró su reloj). De nuevo, el significado dependiente del contexto se desvanecía transcurridos 200 ms. Por tanto, el contexto sintáctico no puede limitar tampoco el acceso inicial. Tanenhaus y Lucas afirmaron que hay buenas razones para esperar que el acceso léxi­co inicial no esté restringido por el contexto sintáctico. La retroalimentación de pertenencia a un conjunto tiene poca utilidad a la hora de decidir si una palabra perte­nece o no a determinada categoría sintáctica: dicho de otra manera, la probabilidad de adivinar correctamente cuál es la palabra que se presenta dada únicamente su categoría sintáctica es muy baja.

En definitiva, los datos disponibles hasta la fecha su­gieren que, cuando oímos o vemos una palabra ambigua, accedemos de forma inconsciente e inmediata a todos sus significados, pero utilizamos el contexto para recha­zar muy rápidamente todos los sentidos inadecuados. Este proceso puede empezar aproximadamente tras 200 ms. Los significados menos frecuentes necesitan más tiempo de acceso porque se necesita más evidencia para traspasar su umbral y ser considerados como adecua­dos al contexto. Esto sugiere que los procesos de acceso léxico son autónomos, o encapsulados informativamen­te, y que todos los sentidos de la palabra ambigua apa­recen en el resultado, pero se utiliza muy rápidamente la información semántica para elegir cuál es el sentido adecuado. Esto, a su vez, sugiere que la construcción de la representación semántica de las frases se está produ­ciendo más o menos siguiendo cada palabra.

McClelly afirmó que estas conclusiones son coherentes con las teorías interactivas. Afirmó que el contexto podría tener un efecto desde un primer mo­mento, pero que la ventaja que confiere es tan pequeña que no se hace patente en estos experimentos. Es difícil falsear este enfoque por lo que, por ahora, la mejor in­terpretación de estos experimentos es que accederemos a todos los significados.

Investigación más reciente sobre la ambigüedad léxica

En la actualidad existe un acuerdo en que, cuando nos en­contramos con una palabra ambigua, se activan todos los significados y se utiliza el contexto a continuación para seleccionar rápidamente cuál es el correcto. La investi­gación reciente ha utilizado técnicas conectadas, funda­mentalmente de la imprimación multimodal y las medi­ciones del movimiento ocular, para refinar estas ideas.

La investigación se ha centrado en tres temas fundamentales:

  1. ¿qué efectos tiene la frecuencia relativa de los distintos significados de la palabra ambigua en el procesamiento?

  2. ¿qué efecto tiene presentar un contexto de desambiguación potente antes de presentar la palabra ambigua?

  3. ¿cómo afecta el contexto al acceso a las propiedades semánticas de las palabras?

Los efectos de la frecuencia del significado y del contexto anterior

Existe una controversia sobre si las frecuencias relativas de los significados afectan al acceso inicial. Recientemente se ha recurrido mucho al estudio de los movimientos oculares, que se cree que reflejan el pro­cesamiento conectado. Los estudios que utilizan esta técnica demuestran que el tiempo que pasan los parti­cipantes mirando a las palabras ambiguas depende de si los significados alternativos de la palabra ambigua son relativamente iguales o muy discrepantes en cuanto a su frecuencia. Simpson denominó a los dos tipos de palabras ambiguas palabras equilibradas y desequi­libradas respectivamente.

En la mayoría de los estudios que hemos analiza­do hasta ahora el contexto desambiguador se presenta después de la palabra ambigua. La evidencia converge hacia la idea de que se accede inmediatamente a todos los significados, pero se utiliza rápidamente el contexto para elegir uno de ellos. ¿Qué ocurre cuando el contex­to desambiguador viene antes de las palabras ambiguas? Se han propuesto tres modelos para explicar lo que ocurre.

Según el modelo de acceso selectivo, el material desambiguador anterior limita el acceso de forma que sólo se accede al significado adecuado.

Según el modelo de acceso reordenado, el mate­rial desambiguador anterior afecta a la fase de acceso en tanto en cuanto aumenta la disponibilidad del sig­nificado adecuado de la palabra. Se trata de un modelo híbrido entre los modelos autónomos e interac­tivos, donde la influencia que puede tener el contexto es limitada. Duffy y cols. (1988) analizaron el efecto del contexto anterior sobre las palabras ambiguas equilibra­das y desequilibradas, sesgando con el contexto siempre hacia el significado menos común en el caso de las pala­bras desequilibradas. El tiempo de procesamiento de las palabras equilibradas y de sus palabras de control era el mismo, pero los participantes pasaban más tiempo mi­rando las palabras desequilibradas que las palabras de control. Duffy et al. afirmaron que el contexto desambi­guador aumentaba la disponibilidad de los significados adecuados, tanto de las palabras equilibradas como de las desequilibradas. En el caso de las palabras equilibra­das, el significado indicado por el contexto era accedido antes de los demás significados. En el caso de las pala­bras desequilibradas con un contexto sesgado, se acce­día al mismo tiempo a los dos significados, necesitándo­se a continuación un tiempo de procesamiento adicional para elegir el significado subordinado adecuado. Este tiempo adicional se conoce como efecto del sesgo su­bordinado. Un contexto sesgado puede reordenar la disponibilidad de los significados, de forma que el significado subordinado está disponible al mismo tiempo que el significado dominante.

Según el modelo de acceso autónomo, el contexto anterior no tiene ningún efecto sobre el acceso; se ac­cede de manera exhaustiva a todos los significados. En una versión de este modelo, conocido como al modelo de integración, la integración con éxito de un significa­do con el contexto anterior da por finalizada la búsque­da de significados alternativos de esa palabra. Por tanto, se produce un acceso selectivo (a un único significado) cuando la integración del signi­ficado dominante es rápida (debido al contexto) pero la identificación del significado subordinado es lenta.

Dopkins, Morris y Rayner (1992) realizaron un ex­perimento para diferenciar entre el modelo de acceso reordenado y el de integración. En su experimento, una palabra ambigua era tanto precedida como seguida por un contexto relevante al significado de la palabra. El contexto que seguía a la palabra ambigua casi siempre la desambiguaba de manera concluyente. La principal manipulación en este experimento era el grado en que el contexto anterior era consistente con los significados de la palabra ambigua. En la condición positiva, la palabra ambigua estaba precedida por material que ponía de re­lieve un aspecto de su significado subordinado, aunque el contexto también era coherente con el significado do­minante. En la condición negativa, la palabra estaba precedida por material que era inconsistente con el significado dominante, pero no contenía ningún ses­go fuerte hacia el significado subordinado. En la condición neutra, la palabra ambigua estaba pre­cedida por un contexto que no respaldaba ninguno de sus significados.

(22) Having been examined by the king, the page was soon marched off to bed. (Habiendo sido examinado por el rey, el paje fue llevado ense­guida a la cama [condición positiva]

(23) Having been hurt by the bee-sting, the page was soon marched off to bed. (Dolorido por la picadura de abeja, el paje /Me llevado ensegui­da a la cania) [condición negativa]

(24) Just as Henrietta had feared, the page was soon marched off to bed. (Justo como se temía Henrietta, el paje/we llevado enseguida a la cama) [condición neutra]

¿Qué predicen los dos modelos? La condición crí­tica es la condición positiva. El modelo de integración predice que el contexto no tiene ningún efecto sobre la fase de acceso inicial. Los significados de las palabras ambiguas serán accedidos en una estricta secuencia temporal independiente del contexto, accediendo siem­pre primero al significado dominante. Si se puede inte­grar este significado con el contexto, se seleccionará; en caso contrario, el procesador intentará integrar el si­guiente significado por el contexto, y así sucesivamente. En las condiciones positiva y neutra, el contexto puede no tener ninguna prueba de que el significado domi­nante es inadecuado, por lo que el procesador logrará integrar este significado, se detendrá antes de acceder al significado subordinado y seguirá adelante. Cuando se encuentra con el material posterior, el procesador se da cuenta de su error y tiene que volver hacia atrás. En la condición negativa, el contexto anterior indica que el significado dominante es inadecuado, por lo que el procesador tendrá que pasar tiempo accediendo al sig­nificado subordinado. El contexto posterior no generará conflicto alguno. El modelo de integración predice que los tiempos de procesamiento de la palabra ambigua serán más largos en la condición negativa que en las condiciones positiva y neutra, pero el tiempo de pro­cesamiento del contexto desambiguador posterior será más largo en las condiciones positiva y neutra que en la negativa.

El modelo de acceso reordenado predice que el con­texto anterior tendrá un efecto sobre el acceso inicial de la palabra ambigua en la condición positiva, pero no en la condición negativa o en la neutra. En la condición positiva, el contexto hace que se acceda antes al signi­ficado subordinado. Esto significa que cuando se ve el contexto después de la palabra, el procesador no tiene que volver a evaluar nada, por lo que el procesamiento en la región de desambiguación será más rápido. En las condiciones negativa y neutra el contexto anterior no in­cluye ninguna evidencia a favor del significado subordi­nado, y las predicciones son parecidas a las del modelo de integración.

Por tanto, la condición clave es la positiva, que favo­rece el significado subordinado pero también es consis­tente con el significado dominante. El modelo de acceso reordenado predice que los tiempos de procesamiento de la región de desambiguación posterior serán relati­vamente rápidos, mientras que el modelo de integración predice que serán relativamente lentos. Los resultados respaldan al modelo de acceso reordenado. Dopkins et al. concluyeron que los tiempos de lectura del material desambiguador eran, en efecto, relativamente rápidos en la condición positiva.

El modelo de acceso reordenado encuentra un ma­yor respaldo en un experimento realizado por Folk y Morris (1995). Examinaron los tiempos de fijación de la lectura y los tiempos de nombramiento cuando se leían palabras semánticamente ambiguas (ej. “calf” que puede ser ternera o pantorrilla), con la misma pronun­ciación pero significados distintos y distinta ortografía (ej. “break” y “brake”), o con múltiples códigos se­mánticos y fonológicos (ej. “tear” que se pronuncia de distinta manera según quiera decir rasgar o lágrima). Concluyeron que las restricciones semánticas, fonoló­gicas y ortográficas tenían, todas, un efecto temprano, influyendo sobre el orden de la disponibilidad de los significados.

Hasta ahora, pues, los datos respaldan al modelo de acceso reordenado respecto a uno estrictamente autó­nomo, como el modelo de integración. Se puede utili­zar la información contextual para restringir el acceso a los significados. Sin embargo, en el modelo de acceso reordenado el papel del contexto está limitado por la frecuencia de los significados. En concreto, el contexto sesgado a los subordinados no puede inhibir que esté disponible el significado dominante. La investigación reciente ha analizado el grado en que es así. Un modelo alternativo es el modelo sensible al contexto, donde la frecuencia de significado y el contexto sesgado actúan juntos, depen­diendo de la fortaleza del contexto. Este es el grado de restricción que impone el contexto en una palabra am­bigua. Según este modelo, el efecto de sesgo del subor­dinado que motiva al modelo de acceso reordenado sólo surge en contextos débilmente sesgados. Si el contexto es suficientemente potente, sólo está disponible el signi­ficado subordinado.

Si el modelo sensible al contexto es correcto, enton­ces un contexto suficientemente fuerte debería abolir el efecto del sesgo del subordinado por el que pasamos más tiempo mirando a una palabra ambigua cuando el contexto apunta hacia su significado menos frecuente. Esta idea fue puesta a prueba en un experimento por Martin et al. Va­riaron la potencia del contexto: (25) es un contexto dé­bilmente sesgado hacia el significado subordinado, pero (26) es un contexto muy sesgado hacia el mismo; (27) y (28) muestran los contextos de control de los signifi­cados dominantes.

(25) The scout patrolled the area. He reported the mine to the commanding officer (el soldado patrulló la zona. Informó de la mina al oficial al mando). [Contexto débil a favor del signifi­cado subordinado]

(26) The gardener dug a hole. She inserted the bulb carefully into the soil (la jardinera cavó un agujero. Insertó el bulbo cuidadosamente en la tierra). [Contexto fuerte a favor del significado subordinado]

(27) The farmer saw the entrance. He reported the mine to the survey crew (el granjero vio la en­trada. Informó de la situación de la mina a los prospectores). [Contexto débil a favor del sig­nificado dominante]

(28) The custodian fixed the problem. She inserted the bulb into the empty socket. (La encargada de mantenimiento arregló el problema. Puso la bombilla en la lámpara) [Contexto fuerte a fa­vor del significado dominante]

Según el modelo del acceso reordenado, siempre se generará el significado dominante independientemente del contexto, por lo que hará falta tiempo para resolver el conflicto. Por tanto, habrá un efecto de sesgo del su­bordinado y los tiempos de lectura de la palabra ambigua deberían ser los mismos, y mayores que el tiempo de lectura de los significados dominantes, independien­temente de la potencia del contexto. Según el modelo sensible al contexto, sólo debería haber conflicto y, por tanto, un efecto del sesgo de subordinado en la condi­ción del contexto débil; por ello, los tiempos de lectura de la palabra ambigua deberían ser más rápidos con el contexto muy sesgado en comparación con el contexto débil. Los datos de una tarea de lectura a ritmo libre respaldaban el modelo sensible al contexto. Un con­texto suficientemente potente puede eliminar el efecto del sesgo del subordinado de forma que los tiempos de lectura de una palabra con, o bien el significado subor­dinado, o bien un significado dominante indicado enér­gicamente, son iguales.

Rayner, Binder y Duffy (1999) criticaron los mate­riales de este experimento. También afirmaron que el modelo de acceso reordenado predice que, con contextos muy potentes, es posible que se acceda antes al significado subordinado que al dominante. No obstante, el acceso es exhaustivo: siempre se sigue accediendo al significado dominante, salvo que el contexto contenga una fuerte relación con el significado pretendido. Por tanto, Rayner et al. afirman que los datos de Martin et al. no son contrarios al modelo de acceso reordenado. Como réplica, Vu y Vellas, aun admitiendo que había problemas con algunos de sus estímulos, afirmaron que estos problemas no podían haber provocado resultados erróneos.

Acceso a las propiedades selectivas de las palabras

Tabossi utilizó una tarea de imprima­ción multimodal para demostrar que el contexto de la frase que limita específicamente una propiedad de la pa­labra prima provoca una facilitación selectiva. Defendió una versión modificada de la dependencia del contexto: no todas las facetas del contexto semántico-pragmático pueden limitar la búsqueda de los posibles significa­dos, pero las características semánticas que restringen propiedades semánticas específicas pueden proporcio­nar esas restricciones. Por ejemplo, el contexto en (29) sugiere claramente la propiedad “amarga” de “limón”. Tabossi observó una facilitación cuando se presentaba visualmente la palabra objetivo “amargo” en una tarea de decisión léxica inmediatamente después de la pala­bra prima (“limón”), respecto tanto al mismo contexto pero con un sustantivo distinto (30) como respecto a un contexto distinto con el mismo sustantivo (31).

(29) The little boy shuddered eating the lemon (el niño se estremeció al comerse el limón).

(30) The little boy shuddered eating the popsicle (el niño se estremeció al comerse el polo).

(31) The little boy rolled on the floor a lemon (el niño dejó rodar el limón por el suelo).

En efecto, Tabossi afirmó que hay importantes dife­rencias en la eficacia de los distintos tipos de indicios contextúales. Si el contexto limita débilmente, observa­mos un acceso exhaustivo, pero si limita enérgicamente, observamos un acceso selectivo. Sin embargo, Moss y Marslen-Wilson señalaron que la compensación acústica de la palabra prima podría producirse dema­siado tarde como para medir un efecto, dado que el acceso léxico inicial se produce muy pronto, antes de que se terminen las palabras. Tabossi utilizó palabras de dos sílabas, y es posible que estas palabras fueran suficientemente largas como para permitir un acceso exhaustivo inicial produciéndose la selección antes de la presentación de la palabra objetivo. Tabossi y Zardon analizaron esta posibilidad es una tarea de deci­sión léxica multimodal presentando la palabra objetivo 100 ms antes del final de la palabra prima ambigua. Si­guieron encontrando que sólo se activaba el significado dominante relevante cuando el contexto estaba muy ses­gado hacia ese significado. Tabossi y Zardon también concluyeron que si el contexto sesgaba enérgicamente la interpretación hacia el significado menos frecuente, tanto el significado dominante (debido a su dominio) como el significado menos dominante (debido al efecto del contexto) estaban activos al cabo de 100 ms.

Moss y Marslen-Wilson analizaron también la forma en que se puede acceder selectivamente a fa­cetas del significado. Midieron el acceso léxico muy al principio, antes de terminar la presentación de la palabra prima. Las palabras objetivo con una relación semántica estaban imprimadas independientemente del contexto, mientras que el acceso a las palabras objeti­vo con propiedades semánticas estaba afectado por el contexto semántico. No se accedía de forma automáti­ca a las propiedades semánticas cuando se escuchaban, pero se podían modular en función del contexto ante­rior, incluso en la posición más temprana. Por tanto, esta conclusión indica de nuevo que ni el acceso ex­haustivo ni el selectivo pueden ser totalmente correctos en tanto en cuanto lo que encontramos depende de la detallada relación entre el contexto y los significados de la palabra.

Evaluación del trabajo sobre la ambigüedad léxica

Al principio hubo dos enfoques básicos sobre cómo ter­minamos eligiendo el sentido adecuado de las palabras ambiguas. Según la perspectiva autónoma, accedemos automáticamente a todos los sentidos de una palabra, y utilizamos el contexto para elegir la interpretación adecuada. A continuación se utiliza la información se­mántica para acceder al sentido correspondiente de la palabra. Según la perspectiva interactiva, el contexto permite un acceso selectivo de los sentidos adecuados de la palabra ambigua. Los experimentos utilizados en este campo son muy sensibles a las propiedades de la palabra objetivo y a la longitud del contexto. Cuando encontramos una imprimación sensible al contexto en estos experimentos multimodales, depende de los deta­lles de la relación semántica entre la palabra prima y la objetivo. Los primeros experimentos utilizando tareas con desconexión encontraron resultados contradictorios tanto para el acceso múltiple como para el acceso es­pecífico al contexto. Los experimentos posteriores, uti­lizando una imprimación multimodal más sofisticada, indicaban un acceso múltiple con rápida resolución.

Los experimentos más recientes sugieren que el pa­trón de acceso depende de las frecuencias relativas de los sentidos alternativos de la palabra ambigua y del grado en que el contexto de desambiguación limita el número de alternativas. Todos los modelos recientes de desambiguación incorporan un elemento de interactividad: la pregunta ahora es hasta qué punto es limitada. ¿Puede un contexto semántico suficientemente limitado impedir la activación del significado menos dominante de una palabra? Así pues, la forma en que abordamos la ambigüedad léxica depende tanto de las característi­cas de la palabra ambigua como del tipo de contexto de desambiguación.

Todavía quedan varias preguntas por responder. En concreto, ¿cómo ejerce el contexto su influencia en la elección del significado correcto? ¿Cómo se produce la integración semántica? MacDonald y cols., abordan esta cuestión, y también la relación entre la ambigüedad léxica y la sintáctica. Pro­ponen que ambas se resuelven utilizando mecanismos análogos basados en un lexicón enriquecido. Kawamoto construyó un modelo conexionista de resolución de la ambigüedad léxica. El modelo demostraba que, incluso en un sistema interactivo, se activan múltiples candidatos, incluso cuando el contexto favorece clara­mente a un significado. (Esto se produce debido a que la relación entre la forma perceptiva de una palabra y sus significados es mucho más fuerte que la relación entre el significado y el contexto.) Esto sugiere que el acceso múltiple no diagnostica necesariamente la modularidad.

Aunque parece que las palabras ambiguas provocan dificultades para el sistema del lenguaje, hay algunos casos en los que las palabras ambiguas presentan una ventaja. Es posible que nombremos más rápidamente palabras ambiguas en comparación con las no ambiguas, y tienen una ventaja en la decisión léxica. Hay una serie de explica­ciones de esta posible ventaja, pero todas giran en torno a la idea de que la disposición de múltiples significa­dos objetivo acelera el procesamiento de la palabra. Por ejemplo, si el significado de cada palabra se corresponde con un detector como un logogén, entonces una palabra con dos significados tendrá dos detectores. La probabi­lidad de que una palabra ambigua active alguno de estos múltiples detectores será mayor que la probabilidad de que una palabra no ambigua active su único detector.

Anterior
Siguiente