El estudio de lenguaje
Introducción
El objetivo primordial del lenguaje es comunicarse, pero también se puede usar para expresar una emoción, para la interacción social, para utilizar los sonidos, para intentar controlar el entorno, para registrar los hechos, para pensar y para expresar identidad. Incluso jugamos con el lenguaje, gran parte del humor depende de ser capaz de manipular el lenguaje.
El estudio de la anatomía del lenguaje pone de relieve los elementos del tracto articulatorio, como la lengua y la laringe. La neuropsicología analiza el papel de las distintas partes del cerebro en la conducta. La lingüística estudia el propio lenguaje. La psicolingüística es el estudio de los procesos psicológicos implicados en el lenguaje. Los psicolingüistas estudian la comprensión, producción y recuerdo del lenguaje, y de aquí que se ocupen de la capacidad de escuchar, leer, hablar, escribir y recordar el lenguaje. También están interesados en la forma en que se adquiere el lenguaje y en la forma en que se relaciona con otros sistemas psicológicos.
La moderna psicolingüística está estrechamente relacionada con otros campos de la psicología cognitiva y depende del mismo tipo de métodos experimentales.
¿Qué es el lenguaje?
El lenguaje es un sistema de símbolos y reglas que nos permiten comunicarnos. Los símbolos son cosas que representan otras cosas: las palabras, ya sean escritas o habladas, son símbolos. Las reglas especifican las formas en que se ordenan las palabras para construir frases. No es fácil tener una definición estricta del lenguaje.
El lenguaje se puede describir de diversas maneras, y para ello se han utilizado distintas apelaciones:
Semántica: es el estudio del significado del lenguaje.
Sintaxis: las reglas sobre el orden de las palabras en un idioma.
Morfología: el estudio de cómo se construyen las palabras a partir de morfemas.
Pragmática: el estudio de la utilización del lenguaje, las facetas del significado que no afectan a la verdad literal de lo que se está diciendo. Hace referencia a cosas como la elección de las palabras con el mismo significado, las cuestiones implícitas en una conversación y el mantenimiento de la coherencia en la misma.
Fonética: el estudio de los sonidos; el detalle acústico de los sonidos del habla y cómo se articulan.
Fonología: el estudio de los sonidos y de cómo se relacionan con los idiomas; la fonología describe las categorías de sonidos que utiliza cada lenguaje para dividir el espacio de los posibles sonidos.
La morfología se ocupa de la manera en que se crean palabras complejas a partir de las unidades más sencillas, denominadas morfemas (unidad de significado más pequeña). Hay dos tipos de morfología:
Morfología inflexiva: se ocupa de los cambios de una palabra que no alteran su significado subyacente o su categoría sintáctica. Estudio de las inflexiones. Ej: pluralización, cambios de tiempos verbales.
Morfología derivativa: se ocupan de los cambios de una palabra que alteran su significado subyacente o su categoría sintáctica. El estudio de las inflexiones derivativas. Ej: desarrollo, desarrollado.
La definición del diccionario de la palabra es “la unidad más pequeña de la gramática que tiene significado por sí sola, separada por espacios en el lenguaje escrito”. La palabra se puede analizar en distintos niveles. En el nivel más bajo, está compuesta por sonidos, o por letras si es una palabra escrita. Los sonidos se combinan para formar sílabas.
Los psicólogos creen que almacenamos representaciones de las palabras en un diccionario mental, denominado léxico o lexicón. El lexicón incluye toda la información de que disponemos sobre una palabra, incluyendo sus sonidos, significado, apariencia escrita y los papeles sintácticos que puede adoptar. Los psicolingüistas están interesados en los procesos de acceso léxico y cómo se representan las cosas.
¿Cómo ha evolucionado el lenguaje a lo largo del tiempo?
No se sabe ni si todos los lenguajes humanos descienden de un ancestro común o si derivan de antepasados distintos. De todas formas, se puede afirmar que hay muchos idiomas que están relacionados entre sí.
Análisis detallados han demostrado que la mayoría de los idiomas de Europa y partes de Asia occidental derivan de una fuente común llamada protoindoeuropeo. Todos los idiomas que han derivado de esa fuente común se denominan indoeuropeos.
Los idiomas indoeuropeos tienen una serie de ramas principales: el romance, el germánico y los idiomas indios. Hay idiomas que son europeos pero no forman parte de la familia indoeuropea. El finlandés y el húngaro provienen de la rama ugrofinesa de la familia de los idiomas de los Urales. Además también existen otras muchas familias de idiomas además de los indoeuropeos. En total, los lingüistas han identificado más de cien familias de idiomas aunque algunos pocos idiomas, como el vasco, parecen no pertenecer a ninguna familia. Se desconoce el grado en que estas grandes familias pudieron estar relacionadas en antaño.
Los idiomas también cambian en períodos de tiempo relativamente breves. Se acuñan nuevas palabras o nuevas acepciones de viejas palabras cuando es necesario. Tomamos prestadas palabras de otros idiomas; a veces se crean palabras por error.
Existe un importante núcleo central de los mecanismos psicológicos que parecen ser comunes al procesamiento de todos los idiomas. Al mismo tiempo es de suponer que los que hablan distintos idiomas pueden tener rasgos distintivos a la hora de procesar la palabra, sobre todo la escrita o la impresa.
¿Para qué sirve el lenguaje?
El lenguaje se utiliza para comunicarse. El lenguaje es una actividad social, y como tal, es una forma de acción conjunta en la que los individuos colaboran para lograr una meta común.
Aunque la principal función del lenguaje es la comunicación, es posible que haya adquirido (o incluso derivado) de otras funciones. En concreto, es posible que el lenguaje haya desempeñado un papel en los procesos cognitivos que inicialmente no era lingüísticos. La versión más extrema es la idea de que la forma de nuestro lenguaje conforma nuestra percepción y cognición, una perspectiva conocida como la hipótesis de Sapir-Whorf. Algunos han afirmado que el lenguaje evolucionó para permitirnos pensar y que la comunicación fue tan sólo un efecto secundario útil.
La historia y métodos de los psicolingüistas
Una breve historia de la psicolingüística
Los comienzos del estudio científico de la psicología del lenguaje suelen remontarse a la conferencia realizada en Cornell, EEUU (1951) y el término psicolingüística se utilizó por primera vez en el libro de Osgood y Sebeok (1954). No obstante, ya se había estudiado anteriormente la psicología del lenguaje. Por ejemplo, Galton (1879) estudio cómo la gente crea asociaciones entre palabras. En Alemania, Meringer y Mayer (1895) analizaron los lapsus lingue, y Freud (1901/1975) intentó explicar el origen de los errores del habla a partir de su teoría psicodinámica. Si situamos la infancia de la moderna psicolingüística en torno a la revisión realizada por el lingüista norteamericano Noam Chomsky (1959) del libro de Skinner “Verbal Behavior” (Conducta verbal), su adolescencia correspondería al período entre principios y mediados de la década de 1960, cuando los psicolingüistas intentaron relacionar el procesamiento del lenguaje con la gramática transformacional de Chomsky.
La psicolingüística tiene sus raíces en dos disciplinas: la psicología y la lingüística, y sobre todo en el enfoque de la lingüística de Chomsky. La lingüística es el estudio del propio lenguaje, de las normas que lo describen, y de nuestro conocimiento sobre las normas del lenguaje.
Las principales preocupaciones de los primeros lingüistas eran bastante distintas de las de la actualidad. La lingüística comparativa, se ocupaba de comparar y buscar los orígenes de los distintos idiomas. En particular, la tradición norteamericana del lingüista Leonard Bloomfield ponía de relieve los estudios comparativos de los idiomas indígenas de los indios de Norteamérica, lo que llevo a poner énfasis en el estructuralismo: un objetivo primordial de la lingüística consistía en ofrecer un análisis de las categorías adecuadas de descripción de las unidades del lenguaje (Harris 1951).
En la lingüística moderna, los principales datos utilizados por los lingüistas son intuiciones sobre lo que constituye una frase aceptable o no. Por ejemplo:
¿Qué le dio el cerdo al burro?
¿Qué le sueño el cerdo al burro?
Sabemos que la secuencia de palabras en (1) es aceptable, mientras que en (2) no es correcta gramaticalmente. ¿Cómo tomamos estas decisiones? ¿Podemos formular reglas generales que expliquen nuestras intuiciones?
Los primeros enfoques psicológicos del lenguaje consideraban que el procesador del lenguaje era un sencillo dispositivo que podía generar y comprender frases pasando de un estado a otro. Hay dos tendencias en estos primeros trabajos, derivadas de la teoría de la información y del conductismo. La teoría de la información (Shannon y Weaver) ponía de relieve el papel de la probabilidad y la redundancia en el lenguaje, y se desarrolló a partir de las exigencias de la industria de las telecomunicaciones. Su elemento central era averiguar cuál era el final más probable de una frase a partir de determinado punto. Esta teoría también era importante dada su influencia en el desarrollo de la psicología cognitiva. El conductismo ponía de relieve la relación entre una entrada (o estímulo) y un resultado (respuesta), y cómo se creaban estas asociaciones a partir del condicionamiento y el refuerzo. Los constructos intermedios (mente) eran considerados innecesarios. La única materia objeto de estudio era la conducta, y el lenguaje era una conducta como cualquier otra. Así, su adquisición y utilización se podían explicar con las habituales técnicas del refuerzo y el condicionamiento. Este enfoque alcanzó su apogeo con el libro de Skinner “Verbal behavior” (1957).
Chomsky con su revisión demostró que el conductismo era incapaz de abordar el lenguaje natural. Afirmó que había una nueva teoría lingüística, llamada gramática transformacional, que proporcionaba tanto una explicación de la estructura subyacente del lenguaje como de los conocimientos que tiene la gente de su idioma. La influencia de la lingüística alcanzó su cima a finales de la década de 1960 y principios 1970. Pero los resultados experimentales sugirieron que, aunque la lingüística nos puede decir mucho sobre nuestro conocimiento del lenguaje y sobre las limitaciones en la adquisición del lenguaje por parte de los niños, es limitada en cuanto a los procesos implicados en el proceso del habla y de la comprensión.
En la década de 1970 la psicolingüística fue absorbida por la corriente principal de la psicología cognitiva: en este enfoque el procesamiento de la información era lo principal. Estos enfoques consideraban la mente como una computadora. La mente utiliza reglas para traducir una entrada, como un discurso o una visión, en una representación simbólica: la cognición es un procesamiento simbólico. El procesamiento podía representarse como diagramas de flujo. Los diagramas de flujo ilustran niveles de procesamiento, y muchos trabajos de la época intentaron demostrar cómo se transformaba un nivel de representación del lenguaje en otro. La metáfora computacional ha tenido una clara influencia en la moderna psicolingüística puesto que la mayoría de los modelos se definen en términos de la descripción de los niveles de procesamiento y de las reglas o procesos que determinan qué es lo que ocurre en medio.
Debido a la influencia de la metáfora computacional, los psicolingüistas lograron una identidad independiente de la lingüística. La psicolingüística moderna es fundamentalmente una ciencia experimental y, al igual que la psicología cognitiva, los experimentos miden el tiempo de reacción. Los psicólogos intentan dividir el procesamiento del lenguaje en sus elementos constitutivos y mostrar cómo se relacionan esos elementos entre sí.
El enfoque de la “ciencia cognitiva”
El término “ciencia cognitiva” se utiliza para abarcar el enfoque multidisciplinar del estudio de la mente, y estas disciplinas incluyen la psicología de los adultos y del desarrollo, la filosofía, la lingüística, la antropología, las neurociencias y la inteligencia artificial. La filosofía desempeña un papel importante en la comprensión del significado. La inteligencia artificial recurre a la utilización de computadoras para hacer cosas que aparentemente requieren inteligencia, como la comprensión de la historia o un discurso. Aparte de las aplicaciones tecnológicas de la inteligencia artificial, se espera aumentar la comprensión de cómo hacen los humanos dichas tareas. La ejecución de un modelo con un programa informático tiene la gran ventaja de que hay que ser explícito sobre todos los aspectos. No hay supuestos ocultos en los modelos que se ejecutan como programas. Por otra parte, la obligatoriedad de lo explícito tiene un inconveniente significativo: debido a que los que definen el modelo tiene que ser explícitos sobre todos los aspectos del modelo, a menudo tienen que hacer supuestos muy arriesgados sobre los procesos y representaciones, y simplificar el contexto o el alcance del modelo hasta un grado en que su utilidad resulta dudosa. No obstante, los modelos informáticos, tienen muchas ventajas y han adquirido una importancia creciente.
Los primeros intentos de análisis sintáctico por computadora (los programas ELIZA y SHRLU) tenían la virtud de demostrar la inmensidad de la tarea que constituye comprender el lenguaje. Los primeros analizadores sintácticos carecían de la potencia de cálculo necesaria para analizar el lenguaje humano.
La influencia de la inteligencia artificial en la psicolingüística alcanzó su cima en la década de los 70. Más recientemente, un enfoque denominado conexionismo (o procesamiento distribuido en paralelo, o redes neuronales) ha adquirido fuerza en todos los campos de la psicolingüística. Las redes conexionistas incluyen muchas unidades, parecidas a las neuronas, muy sencillas y conectadas entre sí, que trabajan juntas sin ningún plan director explícito. Sin embargo, surgen normas y conductas a partir de las interacciones entre esas unidades simples.
Un concepto central en los modelos conexionistas (así como en otros) es la idea de activación. La activación es una cantidad que varía continuamente, y se puede considerar como una propiedad, parecida al calor. Cuanto más activado está algo más probable es que se produzca. La idea de que la mente utiliza algo parecido a la activación, y que el grado de activación de las unidades puede influir sobre los niveles de activación de elementos similares es una idea importante.
Los métodos de la psicolingüística moderna
La psicolingüística utiliza muchos tipos de evidencias. Utilizaremos ejemplos de estudios de observación y de intuiciones lingüísticas, y utilizaremos los errores que cometen las personas. Se puede aprender mucho de los modelos informáticos. Pero el grueso de los datos proviene de los experimentos tradicionales de psicología, sobre todo de los que generan tiempos de reacción. La ventaja de estos experimentos es que es muy fácil ejecutarlos en las modernas computadoras. En muchos experimentos se puede automatizar por completo la recogida de datos.
Una de las técnicas experimentales más populares es el “priming” (imprimación). El priming ha sido utilizado en casi todos los campos de la psicolingüística. La idea general es que, si dos cosas son parecidas entre sí y están implicadas juntas en el procesamiento, o bien se ayudarán o bien se interferirán mutuamente, pero, si no están relacionadas entre sí, no tendrán efecto alguno. Por ejemplo, es más fácil reconocer una palabra (ej. Pan), si se acaba de ver otra palabra relacionada con ella en significado (ej. Mantequilla). Este efecto se conoce como priming semántico. Si el priming hace que se acelera el procesamiento, hablamos de facilitación; si el priming hace que se ralentice, hablamos de inhibición.
Lenguaje y cerebro
La neurociencia cognitiva estudia cómo se relacionan entre sí el cerebro y la conducta. Los últimos avances en la generación de imágenes neuronales permiten ver el cerebro en acción durante el procesamiento normal.
Los estudios sobre lesiones
La neuropsicología cognitiva ha generado importantes avances en la comprensión de la psicolingüística en los últimos 30 años. La neurología tradicional y la neuropsicología se han encargado de preguntas sobre qué partes de nuestro cerebro controlan distintos tipos de conducta (es decir, cuál es la localización de la función), y de averiguar cómo se ajustan las conductas complejas a los flujos de información mediante las estructuras cerebrales. En uno de los modelos neurológicos tradicionales más conocidos, el modelo Wernicke-Geschwind, los procesos del lenguaje fluyen fundamentalmente de la parte trasera del hemisferio izquierdo a la parte delantera, produciéndose los procesos semánticos y de planificación de alto nivel en la parte trasera, en lo que se conoce como área de Wernicke, y la recuperación de sonidos y articulación de bajo nivel en la parte delantera, en lo que se conoce como área de Broca, estando conectadas las dos regiones por un tracto de fibras denominado fascículo arqueado (o fascículo longitudinal superior del cerebro). El énfasis de la neuropsicología cognitiva tiene por objeto relacionar la conducta de un cerebro dañado con los modelos del procesamiento normal.
Shallice (1988) afirmó que la neuropsicología cognitiva se distingue de la neuropsicología tradicional en 3 aspectos cruciales. En primer lugar, ha constituido un avance teórico a la hora de relacionar los desórdenes neuropsicológicos con los modelos cognitivos. En segundo lugar, ha constituido un avance metodológico al poner de relieve la importancia de casos de estudio concretos, en vez de los estudios de grupos de deficiencias neuropsicológicas. Es decir, se pone de relieve la descripción y explicación detallada de pacientes individuales, en vez de comparar grupos de pacientes que pueden no tener el mismo déficit subyacente. En tercer lugar, ha aportado un programa de investigación en tanto en cuanto pone de relieve cómo se pueden informar los modelos del procesamiento normal estudiando la conducta de cerebros dañados. La neuropsicología cognitiva ha contribuido en gran medida a nuestra comprensión del idioma.
Shallice consideró que, a veces, se ha llevado este enfoque demasiado lejos, y denominó a esta posición extrema la neuropsicología ultracognitiva. En primer lugar, ha ido demasiado lejos en su afirmación de que los estudios de los grupos no pueden proporcionar ninguna información adecuada para construir modelos cognitivos. En segundo lugar, ha ido demasiado lejos al afirmar que la información sobre la localización de la función es irrelevante para comprender la conducta. En tercer lugar, subestima la información clínica sobre los pacientes. Seidenberg (1988) señaló que la neuropsicología cognitiva pone demasiado énfasis en revelar la arquitectura funcional de los sistemas implicados. Es decir, se pone de relieve la organización de los elementos constitutivos a costa de explorar los procesos realmente implicados, lo que da lugar a la construcción de diagramas de cajas y flechas con pocos avances en nuestra comprensión de lo que ocurren dentro de las cajas, o de cómo vamos de una caja a otra. En la actualidad se está poniendo mayor énfasis en lo que ocurre dentro de los elementos constituyentes, sobre todo desde que se ha aplicado la modelización conexionista a la neuropsicología cognitiva.
Un concepto importante tanto en la neuropsicología cognitiva como en la tradicional es el de doble disociación. Considere a dos pacientes, A y B, a los que se asignan dos tareas, I y II. El paciente A desempeña normalmente la tara I pero no puede desempeñar la tarea II. El paciente B muestra el patrón de conducta opuesto, desempeñando normalmente la tarea II pero o la tarea I. En este tipo de situaciones se dice que las dos tareas están doblemente disociadas. La interpretación tradicional de una doble disociación es que a cada tarea subyacen procesos distintos. Si a continuación descubrimos que los pacientes A y B tienen lesiones en distintas partes del cerebro, estaremos aún más tentados de sacar conclusiones sobre dónde se localizan estas funciones. Un ejemplo de doble disociación: algunos pacientes son incapaces de leer palabras que no existen, pero pueden leer palabras con una ortografía irregular. Otros pacientes pueden leer palabras que no existen, pero son incapaces de leer palabras irregulares.
Aunque la interpretación tradicional de una doble disociación es que hay dos rutas independientes implicadas en un proceso, la modelización conexionista ha demostrado que es posible que no siempre sea así. Pueden surgir dobles disociaciones aparentes en sistemas complejos distribuidos de una única ruta. Como mínimo, deberíamos ser cautos al inferir que las rutas implicadas son verdaderamente distintas y no interactúan entre sí.
Por lo general, es necesario prestar atención cuando se hacen inferencias a partir de los datos neuropsicológicos. Suele haber un solapamiento significativo entre pacientes y los casos más puros suelen estar asociados con daños cerebrales menores. Finalmente, las cosas no suelen mantenerse en un estado fijo tras producirse un daño cerebral; los procesos intactos se reorganizan, y suele producirse cierta recuperación, incluso entre los adultos.
Técnicas de neuroimagen
Los tiempos de reacción nos permiten inferir cómo funciona la mente; los estudios de las lesiones nos permiten inferir qué parte del cerebro hace qué tarea. Las nuevas técnicas de creación de imágenes cerebrales están adquiriendo paulatinamente más precisión y son más accesibles. Los rayos X tradicionales, tienen una aplicación limitada porque el hueso del cráneo bloquea la visión del cerebro y, en cualquier caso, hay pocas variaciones en la densidad del cerebro. Las técnicas que los neurocientíficos han tenido que utilizar se basan en medir la actividad eléctrica del cerebro, o crear imágenes de la activación cerebral.
Los EEG (electroencefalogramas) y ERP (potenciales evocados o evento-relacionados), miden la actividad eléctrica del cerebro a través de electrodos situados sobre el cuero cabelludo. Estas técnicas tienen una resolución temporal muy buena, pero una resolución muy baja. Los ERP miden cambios de voltaje relacionados con la presentación de un estímulo. Las ondas de los ERP se clasifican en función de su polaridad (positiva o negativa) y su latencia en milisegundos tras el inicio del estímulo (Kutas y Van Petten, 1994). El N400 es una onda muy estudiada que se produce tras un final semánticamente incongruente calcetín (Kutas y Hillyard, 1980). Por supuesto, la frase anterior tendría que haber terminado con “con un final semánticamente incongruente” y, por tanto, “calcetín” debería haber generado un elevado N400 en su cerebro. Las ondas P300 son generadas por cualquier estímulo que requiera de una decisión binaria (si/no). La variación negativa contingente (CNV, contingent negative variation) es un potencial negativo lento que se desarrolla en el cuero cabelludo cuando una persona se está preparando para realizar una acción motriz o procesar un estímulo sensorial que requiere una respuesta.
Los EEG y ERP tienen una resolución temporal muy buena: en la actualidad pueden medir el tiempo de los eventos con una precisión de un milisegundo. Sin embargo, su resolución espacial es muy baja. La MEG (Magnetoencefalografía) presenta la ventaja de tener una buena resolución tanto temporal como espacial, pero es más difícil de realizar y mucho más cara, ya que requiere de dispositivos superconductores llamados SQUIDS, un enfriamiento externo utilizando helio líquido y escudos magnéticos.
La TAC (tomografía axial computerizada) produce imágenes de resolución media integrando un elevado número de imágenes de rayos X tomadas desde muchos ángulos distintos de la cabeza. Las imágenes obtenidas mediante resonancia magnética (MRI, magnetic resonance imaging) utilizan ondas de radiofrecuencia en vez de rayos X y generan imágenes de mayor resolución que la TAC. Estas técnicas han permitido estudiar la estructura del cerebro. Los equipos de PET (Tomografía por emisión de positrones) generan imágenes de la actividad del cerebro. Se inyecta en la sangre una forma de glucosa radiactiva (el combustible metabólico que utiliza el cerebro), que es radiactiva y los detectores alrededor de la cabeza miden la glucosa que se está utilizando. Así, podemos averiguar cuáles son las partes del cerebro más activas cuanto éste está desempeñado una determinada tarea.
La técnica fMRI (imágenes de resonancia magnética funcional) mide la energía que liberan las moléculas de hemoglobina en la sangre y a continuación determinan cuáles son las áreas del cerebro que han recibido mayores cantidades de sangre y oxígeno. Por tanto, nos dicen cuáles son las partes del cerebro que están más activas en un determinado momento. Ofrecen una resolución temporal y espacial muy superior a las imágenes de PET, aunque la resolución temporal sigue siendo ligeramente inferior a la de EEG.
La TMS (estimulación magnética transcraneal) es, de alguna manera, lo contrario a crear una imagen: en vez de observar el cerebro, se hace que parte de él haga algo. Se utiliza un conjunto de imágenes muy potentes para estimular directamente la parte del córtex de un participante y, a continuación, se registra que es lo que hace o experimenta el participante.
La neuroimagen sigue siendo cara y la resolución espacial y sobre todo, la temporal, tienen mucho que mejorar. Un problema más significativo de las técnicas de neuroimagen es que los resultados son difíciles de interpretar. Las imágenes nos dirán dónde se está produciendo, pero no nos dicen cómo, qué o por qué. Sin embargo, en el contexto de la teoría del procesamiento del lenguaje, la creación de imágenes podría proporcionarnos pistas sobre lo que está ocurriendo. El principal método utilizado en el campo de la neuroimagen se denomina proceso de sustracción: el participante desempeña una tarea, y después una variante de dicha tarea, y se sustraen las imágenes de una de la otra. Así se puede identificar dónde se encuentra la diferencia crítica entre ambas tareas. En la práctica, este método suele ser difícil encontrar condiciones de comparación adecuadas. Con mucha frecuencia la diferencia es muy sutil y requiere de interpretación teórica. Además, las técnicas de neuroimagen suelen mostrar la activación de áreas corticales que no se solapan para tareas similares lo que, de nuevo, resulta difícil de interpretar. Los estudios de imágenes también sugieren que los procesos cognitivos están más localizados que lo que indicaban otros métodos, porque las técnicas de creación de imágenes revelan las numerosas áreas que se encuentran activas durante el desempeño de una tarea, independientemente de que esas áreas estén desempeñando un papel importante o no.
Por lo general, las técnicas de neuroimagen no dicen qué significa una gran actividad en distintas partes del cerebro en cuanto a procesamiento.
La neuroimagen juega un papel diagnóstico en el análisis de los efectos del daño cerebral y de los trastornos cerebrales.
Temas y controversias en la psicolingüística contemporánea
Hay 10 temas recurrentes de los que se analizaran 5 de ellos:
Descubrir los procesos reales implicados en la producción y comprensión del lenguaje.
Discernir si los procesos de lenguaje aparentemente distintos están relacionados entre sí. (lectura-habla). Tema de la modularidad.
Descubrir si los procesos del lenguaje operan independientemente unos de los otros, o si interactúan.
¿Qué parte del lenguaje es innata?
¿Tenemos que referirnos a reglas explícitas cuando se analiza el procesamiento del lenguaje?
¿son los procesos que se examinan específicos al lenguaje o son aspectos del procesamiento cognitivo general reclutados a veces para el lenguaje?
¿Hasta qué punto son sensibles los resultados de los experimentos a las técnicas concretas utilizadas?, es decir, ¿se obtienen respuestas distintas a la misma pregunta si se hacen los experimentos de forma ligeramente distinta?
¿Qué se puede aprender analizando el lenguaje de aquellos individuos que tienen dañadas las partes del cerebro que controlan el lenguaje?
¿Qué diferencia marca el hecho de hablar otro idioma?
¿Cómo se puede aplicar a la vida cotidiana el estudio del lenguaje?
¿Hasta qué punto es modular el sistema del lenguaje?
El concepto de modularidad es un concepto importante en psicolingüística. El procesamiento parte de una entrada sobre la que actúan uno o más niveles de procesamiento para generar una salida. Ej: cuando decimos una palabra, tenemos que identificar y procesar la forma visual de la palabra y acceder a los sonidos de la misma. Hay menos acuerdo en la forma en que estos niveles están conectados entre sí.
Un módulo es un conjunto de procesos autocontenidos: convierte una entrada en una salida, sin ninguna ayuda externa en lo que ocurre entre medias; decimos que los procesos dentro de un módulo son independientes de los procesos de fuera. Otra forma de describirlo es afirmando que el procesamiento depende exclusivamente de los datos. Los modelos en los que los procesos se producen de ésta manera se denominan autónomos.
El punto de vista contrario es el que afirma que el procesamiento es interactivo. La interacción incluye la influencia de un nivel de procesamiento en la operación de otro, pero aquí hay 2 conceptos entremezclados. En primer lugar está la cuestión del solapamiento del procesamiento entre etapas. En un modelo discreto solo puede empezar a funcionar un nivel de procesamiento cuando el anterior ha terminado su propia tarea. En un modelo en cascada se permite que fluya la información de un nivel al siguiente antes de que haya culminado su procesamiento. Si se solapan las etapas es posible que haya múltiples candidatos activados en el nivel de procesamiento más bajo.
El segundo aspecto de la interacción hace referencia a si existe un flujo inverso de la información, o feedback, cuando la información de un nivel inferior alimenta a un nivel anterior. Una cascada natural, va exclusivamente de arriba abajo, pero suponga que introducimos una bomba. Un modelo interactivo de reconocimiento de palabras sería uno que va exclusivamente da abajo arriba (desde la representación conceptual de la palabra hasta la representación mental) pero un modelo interactivo de la generación de palabras es un modelo que va exclusivamente de arriba abajo: de la representación mental hasta el sonido de la palabra.
Fodor (1983) afirmó que muchos procesos psicológicos son modulares. Según muchos investigadores, los procesos son modulares no interactivos. Hay dos razones fundamentales para este supuesto. En primer lugar, los modelos modulares suelen ser más sencillos: implican un menor número de procesos y de conexiones entre los sistemas. En segundo lugar, existe la creencia generalizada de que la evolución fomenta un sistema modular. Es posible encontrar una hipótesis auxiliar o salvadora y, así, salvar la hipótesis de la modularidad. En las teorías de reconocimiento de palabras los investigadores han introducido la idea de los procesos posteriores al acceso; en la sintaxis y el análisis gramatical han propuesto un procesamiento en paralelo con una toma de decisiones diferida. Tanto Fodor como Pinker, exponentes líderes de la opinión de que el lenguaje es muy modular y tiene una base innata significativa, ofrecen una visión filosófica más general: la modularidad es inconsistente con el relativismo, la idea de que todo es relativo respecto a todo lo demás y que cualquier cosa es posible (sobre todo ciencias sociales). Los modelos proporcionan un marco fijo en el que estudiar la mente.
La existencia de una disociación neuropsicológica entre dos procesos suele aceptarse como demostración de la modularidad de los procesos implicados. Cuando analizamos la neuropsicología de la modularidad, se puede hablar tanto de una modularidad física (¿están localizados los procesos psicológicos en un área concreta del cerebro?) como de una modularidad del procesamiento (en principio, una serie de procesos podrían estar distribuidos por todo el cerebro y, sin embargo, tener un papel modular en el modelo de procesamiento). Es posible que los dos tipos de modularidad estén relacionados entre sí, de forma que los módulos cognitivos se corresponden con los modelos neuropsicológicos. Sin embargo, Farah (1994) criticó este supuesto de “localidad” y afirmó que se podían explicar las disociaciones neuropsicológicas en términos de sistemas distribuidos conexionistas.
Chomsky (1975) afirmó que el lenguaje es una facultad especial que no se puede reducir a procesos cognitivos. Por otro lado, Piaget (1923) afirmó que el lenguaje es un proceso cognitivo, como cualquier otros, y que el desarrollo de la lingüística depende del desarrollo cognitivo general. Pero incluso si el lenguaje fuera un gran módulo autocontenido, tendría que relacionarse con el resto del sistema cognitivo. Hablamos de lo que pensamos, nuestros pensamientos se producen frecuentemente en forma verbal, discurso interno, e integramos lo que oímos en nuestra memoria a largo plazo. El lenguaje desempeña un papel central en nuestra memoria de trabajo, el almacén de la información a corto plazo.
En cada caso en el que la modularidad constituye un problema, tiene que analizar los datos y preguntarse si la hipótesis auxiliar es más plausible que la alternativa no modular.
¿Es innata alguna parte del lenguaje?
La modularidad también tiene repercusiones más generales. Los investigadores que defienden la modularidad de los procesos del lenguaje, también defiende que hay una parte significativa de nuestra capacidad del lenguaje que es innata. El argumento afirma que debe haber en el cerebro módulos bien definidos o configurados y, por tanto, programados de forma innata, y sistemas complejos y desordenados que reflejan los efectos del aprendizaje.
Evidentemente tiene que haber algunos prerrequisitos a la adquisición del lenguaje, aunque sólo sea una capacidad de aprendizaje general. La pregunta es qué parte tiene de innata. Los modelos conexionistas sugieren formas en las que las propiedades generales del sistema de aprendizaje pueden servir como un conocimiento innato propio del lenguaje, y muestran cómo surge la conducta de interacción entre la naturaleza y la educación a todos los niveles (Elman y cols., 1996).
¿Utiliza reglas el sistema del lenguaje?
En la lingüística tradicional, gran parte del conocimiento estaba encapsulado en forma de reglas explícitas.
En los modelos conexionistas, el procesamiento se produce mediante la interacción de muchas unidades sencillas interconectadas entre sí. Los modelos conexionistas que pueden aprender son particularmente importantes. En estos modelos se aprender la información mediante la presentación repetida; las conexiones entre unidades cambian para codificar las regularidades del entorno. La idea general subyacente al aprendizaje puede resumirse con el aforirmos de Hebb: “las células que se disparan juntas se configuran juntas”: la activación simultanea de las células (unidades) genera una mayor fortaleza (conexión) sináptica.
¿Qué significa la parte de “modelo” del Modelo Conexionista? Los “modelos” nos indican principios importantes de cómo funciona la mente. Se puede aprender de ellos. Su conducta no es siempre totalmente predecible, puede variar algo de una situación a otra. La modelización es una idea importante de la psicolingüística contemporánea.
¿Qué hace que los modelos conexionistas resulten tan atractivos? Resultan más creíbles que la IA, desde el punto de vista neuronal. Se basan a grandes rasgos en una metáfora del cerebro. Por otro lado, los que hacen los modelos conexionistas suelen intentar minimizar la cantidad de información configurada del sistema, poniendo en relieve el hecho de fijar la atención en lo que emerge del modelo. En tercer lugar, el conexionismo tiene la virtud, de que al escribir el programa informático, uno está obligado a ser explícito en sus supuestos.
El conexionismo tiene 3 grandes consecuencias:
Hace que se preste atención a los procesos que se producen dentro de las cajas de nuestros modelos. En algunos casos (Ej.: adquisición del tiempo verbal pasado) esta nueva atención ha generado una reevaluación detallada de la evidencia que motivó los modelos.
El conexionismo ha obligado a analizar con detalle las representaciones utilizadas por el sistema del lenguaje. En concreto, se pueden contrastar los enfoques conexionistas con los enfoques basados en reglas. En los modelos conexionistas las reglas no están codificadas de forma explícita, sino que emergen como consecuencia de las generalizaciones estadísticas de los datos de entrada.
El cambio de énfasis de las reglas de aprendizaje al aprendizaje mediante muchas repeticiones de casos concretos ha dado lugar a un incremento de los modelos probabilistas de la adquisición y procesamiento del lenguaje. Los modelos probabilistas han resultado particularmente influyentes en la adquisición del lenguaje mediante el análisis de estadísticos o de distribución de lo que oyen, más que mediante reglas de aprendizaje explícitas.
¿Son los procesos del lenguaje específicos de cada idioma?
Las ideas sobre lo innato, la modularidad, las reglas y el procesamiento específico del lenguaje relacionadas entre sí. Existe una división dentro de la psicolingüística entre los que afirman que hay modelos innatos específicos al lenguaje que utilizan ampliamente reglas y aquellos que afirman que gran parte de todo el procesamiento es una adaptación de procesos cognitivos más generales.
¿Tenemos alguna certeza en psicología?
Una cuestión importante que hay que resaltar es que hay muy pocos temas en la psicolingüística en los que podemos afirmar que conocemos la respuesta a las preguntas con total certidumbre. Tenga la certeza de que se encontrará con incertidumbre cuando se intenta comprender la psicología del lenguaje.