Conocimiento y lenguaje. AAVVЧитать онлайн книгу.
y tales que la experiencia (los estímulos del contexto) fija para cada uno una serie de valores que constituyen la gramática particular de una lengua. A su vez, dicha gramática particular ni siquiera tiene que remitir en su totalidad a la gramática universal que constituye el genotipo: parte de la información visible –fenotipo– está determinada culturalmente –periferia– y suele obscurecer las propiedades del núcleo, que es quien deriva de la gramática universal (López, 1988: 117).
Los intentos posteriores, correspondientes al modelo minimalista, siguen pretendiendo el equilibrio entre la formalización y su correlato psicologista subyacente, lo que conduce a la eliminación de las estructuras profunda y superficial, sustituyéndolas por un componente sintáctico que es resultado de una proyección del lexicón. Bickerton elogia así la validez cognitiva del modelo minimalista:
este modelo sigue mucho más de cerca que el antiguo el modo en que el cerebro maneja realmente el lenguaje. Para la neurología no tenía ningún tipo de sentido decir que el cerebro daba primero forma a unas cuantas estructuras oracionales muy abstractas para después barajarlas hasta lograr que algo completamente diferente saliera de nuestra boca, que es lo que el viejo modelo de la estructura profunda y la estructura superficial afirmaba implícitamente. Los cerebros no son tan sutiles. Si pueden hacer algo directamente, lo hacen directamente [...]. El viejo modelo implicaba que uno tenía que tener en la cabeza un conocimiento real de la gramática que debía usarse para poner en marcha las estructuras profundas (para «generarlas», razón por la cual recibía el nombre de «gramática generativa»). Sin embargo, se suponía que este conocimiento era innato [...]. En el momento presente, todo lo que queda de las montañas de conocimiento innato que presuponía el antiguo sistema son unos cuantos principios elementales (Calvin y Bickerton, 2000: 197).
En su recopilación de artículos y conversaciones titulada Lingua ex Machina, el neurofisiólogo William Calvin y el antropólogo lingüista Dereck Bickerton defienden que el niño nace predispuesto hacia distinciones lingüísticas particulares, pero sin equipararlas a ninguna categoría morfosintáctica concreta; se trata, más bien, de una predisposición para unir las palabras en oraciones y comprenderlas según la ejecución de ciertos algoritmos. Su objetivo final es demostrar un punto de confluencia entre las tesis evolucionistas (Darwin) y las innatistas (Chosmky), lo que supone un esfuerzo de aproximación que pueda ser asumible para ambos planteamientos.
La tesis defendida por Calvin y Bickerton explica la complejidad del lenguaje natural (básicamente, su estructuración sintáctica) por la convergencia del protolenguaje con la inteligencia social, en concreto lo que el biólogo Robert Trivers designa «altruismo recíproco»: cuando los primates establecen relaciones altruistas (transaccionales, en la perspectiva de Bruner), es necesaria una capacidad de cálculo que les permita realizar varias funciones (Calvin y Bickerton, 2000: 162):
- distinguir a los individuos de su entorno social,
- diferenciar entre los tipos de acción (propia y ajena) que les proporcionan beneficios o perjuicios,
- algún tipo de representación abstracta (recuérdese la función simbólica piagetiana) de los papeles que desempeña cada uno de los implicados en cierta acción, lo que supone su organización en términos actanciales, argumentales.
3.3 Las relaciones pensamiento-lenguaje desde el marco cognitivista
Chomsky, como hemos visto, reivindicaba una caracterización de la lingüística como subdisciplina perteneciente a la psicología cognitiva, cuya emergencia en los años 60 describe Romero (1998: 417) en los siguientes términos, vinculándola a ciertas necesidades surgidas en la segunda guerra mundial:
La aproximación cognitiva, tal y como hoy en día se conoce, surge gracias a influencias sociales y tecnológicas externas y ajenas al propio mundo académico o aplicado de la psicología [...]. En concreto, los avances teóricos y tecnológicos, principalmente en los países anglosajones (EUA y Gran Bretaña) en torno a temas tales como la información, la computación, los ordenadores, etc. –lo que Rivière (1991) ha denominado las tecnologías del conocimiento o Simon (1973) las ciencias de lo artificial– fueron las influencias clave que motivaron a los psicólogos para superar los modelos conductualistas vigentes hasta entonces [...]. Para construir máquinas eran necesarios ingenieros, físicos o matemáticos, y para ahondar en las tareas mentales que esas máquinas pudieran hacer, los más cualificados eran los psicólogos, aunque también podían estar neurólogos, lingüistas, e incluso filósofos y antropólogos.
En su presentación de su modelo neurocognitivista, centrado en el tratamiento y rehabilitación de las patologías del habla, Fernando Cuetos (1998: 11) señala cuáles son los principios básicos que dan base a la psicología cognitiva:
- modularidad: como ya hemos señalado antes, se acepta que el sistema cognitivo está organizado en módulos que se encargan de tareas específicas (lo que los investigadores no logran consensuar es la cantidad, naturaleza e interrelación que presentan tales módulos);
- isomorfismo: las entidades cognitivas modulares tienen necesariamente un correlato biológico que consiste en grupos de neuronas y circuitos neuronales;
- fraccionabilidad: las lesiones cerebrales pueden destruir ciertos módulos sin que esto suponga la quiebra del sistema global;
- sustractividad: la conducta verbal de un paciente lesionado es el resultado del sistema de procesamiento del lenguaje menos (en el sentido de resta) los módulos lesionados.
En este apartado trataremos tres aspectos de la perspectiva cognitiva que merecen especial atención en la relación pensamiento-lenguaje:
- la metáfora computacional del cognitivismo radical;
- el énfasis comunicativo del funcionalismo de J. Bruner;
- la importancia del metalenguaje de la lingüística perceptiva.
3.3.1 El cognitivismo radical y la metáfora computacional
La comparación entre organismos vivos y artificiales no surge de la nada. Ya a fines del siglo XIX Claude Bernard había establecido paralelismos entre ciertos procesos «autorreguladores» de la máquina de vapor y de los seres vivos. En los años 30, Walter Cannon, Norbert Wiener y Arturo Rosenblueth trataban conjuntamente problemas como la homeostasis biológica (concepto acuñado por Cannon para los procesos autorreguladores), los circuitos de computación o el sistema nervioso. La historia de la informática y la inteligencia artificial se desarrollan a lo largo del siglo XX, describiendo un itinerario marcadamente interdisciplinar en el que podemos destacar ciertas fechas concretas:
- 1936: Alan Turing describe la «máquina de Turing», capaz de realizar cualquier cómputo «a la manera de un cerebro».
- 1938: Claude Shannon aplica la lógica binaria a la creación de conmutadores eléctricos.
- 1938-1941: Konrad Zuse construye en Alemania el ordenador Z3, con código binario.
- 1942: la Fundación Josiah Macy Jr. convoca la primera de las que se conocerán como «Conferencias Macy», dedicada al tema de la inhibición cerebral. Acuden: John von Neumann, Norbert Wiener y Walter Pitts (matemáticos), Warren McCulloch (neurofisiólogo y matemático), Julian Bigelow (ingeniero), Arturo Rosenblueth y Walter Cannon (neurofisiólogos), Lawrence Franck (psicólogo), Laurence Kubie (psicoanalista), Margaret Mead y Gregory Bateson (antropólogos), y Milton H. Erickson (hipnoterapeuta). El concepto de feed-back o retroalimentación se asume como la clave explicativa de cualquier conducta intencional.
- 1943: McCulloch y Pitts publican «A Logical Calculus of Ideas Immanent in Nervous Activity», donde describen un funcionamiento de las neuronas que será desarrollado en modelos artificiales («neuronas McCulloch-Pitts») por Kleene o Minsky.
- 1945: John von Neumann publica un artículo donde describía la arquitectura de los ordenadores tal y como se desarrollaron luego.
- 1946: Segunda Conferencia Macy sobre «Mecanismos teleológicos y sistemas causales circulares», en la que Claude Shannon introduce su teoría de la información dando importancia esencial a la «incertidumbre» (que luego Von Neumann llamará «entropía»).