Cerebro y conocimiento

  • Óscar Vilarroya Oliver

     Óscar Vilarroya Oliver

    Licenciado en Medicina y doctor en Filosofía. Actualmente trabaja en la investigación y la coordinación de la Unidad de Investigación en Neurociencia Cognitiva, un centro de investigación vinculado a la Universidad Autónoma de Barcelona y al Instituto Municipal de Asistencia Sanitaria de Barcelona. Es profesor y coordinador del programa de doctorado Neurociencia Cognitiva del Departamento de Psiquiatría y Medicina Legal de la Universidad Autónoma de Barcelona, y profesor asociado del Departamento de Humanidades de la Universidad Pompeu Fabra.

PID_00186194
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

Introducción

La primera experiencia que tiene cualquier individuo de este mundo es como la experiencia de despertarse en un lugar extraño y no saber momentáneamente donde estamos, cómo llegamos aquí, e incluso quiénes somos. Pero frente a los pocos segundos que necesitamos para saber dónde estamos y quiénes somos cuando nos despertamos en un lugar extraño, en la vida tardamos muchos años en conseguir saber dónde estamos y quiénes somos.
Durante el "despertar en el mundo" que sucede en nuestra infancia, no tenemos nuestros sentidos lo suficientemente entrenados para no percibir el mundo, ni la ayuda de nuestra memoria para encontrar referentes en lo que vemos, ni el razonamiento bien entrenado para interpretar lo que vivimos. Es más, a medida que durante nuestra infancia empezamos a dar sentido a nuestras experiencias, olvidamos enseguida la confusión inicial de nuestra conciencia. Olvidamos que en un momento de nuestra infancia pensábamos que cuando dejábamos de ver un objeto, porque alguien lo tapaba, estábamos convencidos de que dejaba de existir; olvidamos que cuando caía un rayo y se oía un trueno, pensábamos que sucedía por causas mágicas; olvidamos que en algún momento de nuestra infancia pensamos que todas las personas del mundo eran aquellas que veíamos nosotros y que, para todas, nosotros éramos la cosa más importante; olvidamos que algún día pensamos que todo lo que no entendíamos era incomprensible por naturaleza, o nada relevante para comprender el mundo.
En la seguridad de nuestro conocimiento ya constituido y desarrollado, nos parece que nuestro conocimiento ha consistido en una acumulación de datos y observaciones, evidentes y claras todas ellas desde el principio, y olvidamos que ha sido construido desde la confusión, la inseguridad, los errores, los cambios de modelos interpretativos. Y lo que es más curioso es que también ignoramos que la plataforma desde la cual reflexionamos sobre todo eso es también una plataforma insegura, movible, que cambiaremos en el futuro.
Todo eso no quiere decir que no podamos tener nunca un conocimiento robusto y verdadero sobre el mundo, sino que la manera de llegar a este conocimiento y, quizás, en qué consiste este conocimiento depende de cómo estamos hechos nosotros y, muy especialmente, de cómo está hecho y cómo funciona nuestro cerebro. A pesar de que su papel ha sido intuido y defendido durante toda la historia, sólo desde hace más o menos cien años, filósofos y científicos han empezado a tomarse seriamente el papel que tiene el estudio del cerebro en muchos ámbitos de nuestra vida, desde la educación, hasta el arte, pasando por la sociología, la economía e incluso la política. Y común a todos los intereses particulares está la convicción del hecho que saber qué hace el cerebro, y cómo lo hace, es muy importante para poder entender todas las actividades humanas, y entre ellas, muy especialmente, cómo conocemos. Según una corriente de pensamiento muy importante actualmente, para tener una teoría del conocimiento completa y robusta tenemos que entender exhaustivamente cómo está constituido el cerebro en todos sus niveles, como funciona y se organiza en cada nivel, cómo se desarrolla, cómo se relaciona con el mundo a través de la percepción, cómo manipula la información, cómo razona, cómo recuerda.
Para que eso haya sido posible han hecho falta tres cosas. En primer lugar, el triunfo de la idea de que la mente humana es un cerebro y no una supuesta sustancia inmaterial que flota sobre nuestras cabezas. En segundo lugar, la llegada del naturalismo a la filosofía y a la epistemología en particular, es decir, la idea de que para comprender cómo comprendemos, no nos podemos basar en un supuesto privilegio de nuestro razonamiento (el conocimiento a priori), sino que tenemos que comprender cómo comprende el cerebro, y por lo tanto basarnos en un conocimiento a posteriori. Y en tercer lugar, todo eso no habría sido posible sin el gran avance de las ciencias en general, y de las ciencias que estudian la mente y el cerebro, en particular.
En consecuencia, se empieza a hacer imprescindible dedicar una mirada detallada a este órgano que se protege dentro de nuestro cráneo, saber cómo funciona y por qué lo hace de la manera que lo hace, antes de pasar a estudiar todo lo que sabemos ya del conocimiento.

Objetivos

Este módulo quiere presentar la relevancia del estudio empírico del cerebro para la teoría del conocimiento, así como introducir algunos datos empíricos sobre el funcionamiento del cerebro que pueden ser útiles.
Con este módulo didáctico el estudiante tiene que alcanzar los objetivos siguientes:
  1. Conocer las razones por las cuales el estudio del cerebro es importante para la epistemología.

  2. Abordar las cuestiones filosóficas que han permitido el desarrollo de un naturalismo moderno.

  3. Sintetizar aspectos del funcionamiento perceptivo, de memoria y de razonamiento cerebrales que son relevantes para la epistemología.

  4. Obtener un panorama histórico de los autores y las corrientes más importantes del naturalismo moderno.

1.¿Por qué interesa a la epistemología saber qué hace el cerebro?

Hay una respuesta fuerte y otra débil a esta pregunta. La fuerte defiende que es imprescindible saber cómo funciona el cerebro para desarrollar una teoría del conocimiento. La débil defensa que, al menos, puede ser útil.
Las dos respuestas tienen en común considerar que para tener una teoría del conocimiento adecuada, y para entender términos epistemológicos como justificación, referencia y conocimiento, tenemos que comprender nuestras capacidades perceptivas, de memoria, de razonamiento, de codificación conceptual. Y para que eso sea posible, tenemos que conocer los caminos en que el cerebro condiciona y produce estas capacidades.
Tomarse seriamente lo que hemos aprendido del estudio del cerebro nos fuerza a tratar a los sujetos conocedores, y por lo tanto el conocimiento, como limitados por la manera en que la información llega de los sentidos al cerebro, de cómo se trata esta información, de cómo accedemos conscientemente a esta información. Además, hace falta tener en cuenta el pasado evolutivo del cerebro, porque el conocimiento ha sido una capacidad aparecida en la evolución para permitir a los animales sobrevivir y perpetuarse, y eso produce un filtro necesario para entender qué y cómo llegamos a conocer. Las disciplinas científicas que estudian cómo funciona el cerebro, cómo ha evolucionado y cómo se comporta biológicamente nos muestran que el conocimiento está altamente condicionado por la manera en que el cerebro considera conveniente optimizar su interacción con el entorno.

"La epistemología, o algo parecido, simplemente pasa a ser un capítulo de la psicología y, por lo tanto, de las ciencias naturales. Estudia un fenómeno natural, eso es, el ser humano."

W. V. Quine (1998). Del estímulo a la ciencia. Barcelona: Ariel.

Lo que diferencia la respuesta fuerte de la débil es el grado en que el estudio del cerebro se considera útil. Los que consideran imprescindible el estudio del cerebro entienden que la epistemología es una rama más de las ciencias naturales. Esta perspectiva nació de aquellos epistemólogos que vienen de la tradición conocida como naturalismo. El naturalismo en epistemología adopta una perspectiva a posteriori, es decir, se basa en conocimiento empírico, en contraposición con los que practican la epistemología como una empresa a priori que no se basa en conocimiento empírico. En pocas palabras, el método naturalista trata la epistemología como una ciencia empírica más. Los naturalistas aportan diferentes tipos de argumentos. Una forma de defensa naturalista de la epistemología puede ser de la siguiente manera:
"Si por ciencia se entiende habitualmente un sistema de conocimiento que se interesa por explicar y predecir el mundo y sus fenómenos, estableciendo generalizaciones o leyes fundamentales mediante observaciones no sesgadas y experimentación sistemática y reproducible; y si, por otra parte, por epistemología se entiende un sistema de conocimiento que se interesa por explicar el conocimiento y sus fenómenos, estableciendo generalizaciones o leyes fundamentales mediante las reglas del razonamiento; y si podemos entender que las reglas de razonamiento son instrumentos científicos, entonces se puede defender que la epistemología forma parte de las ciencias naturales."
Sin embargo, los naturalistas también aportan otros tipos de argumentos a su favor. Por ejemplo, se ha demostrado que el cerebro humano necesita siempre un modelo explicativo, una forma de analogía para explicarse las cosas. Y según lo que sabemos de cómo conocen los humanos, parece que nuestra manera de entender el mundo es fundamentalmente mecanicista. Al calificar una explicación de mecanicista, se entiende que las explicaciones se tienen que estructurar de una manera análoga a cómo funciona una máquina. Una máquina es un conjunto de partes que tienen una función específica, y cuya actividad se combina de manera tal, que cada uno contribuye a producir la conducta del sistema. Una explicación mecanicista identifica estas partes y su organización, mostrando cómo la conducta de la máquina es una consecuencia de las partes y de su organización. Las características fundamentales del modelo mecanicista es que tiene que ser descomponible en partes y jerárquico.
Hasta ahora, las analogías que se han utilizado para explicar las capacidades cerebrales han dependido siempre de la tecnología más importante de cada época, pero en general siempre han mantenido un perfil mecánico. Ya los griegos clásicos supusieron que "algo" manipulaba el cerebro para producir conocimiento mediante "cuerdas" invisibles. Cuando se inventaron los relojes, los filósofos empezaron a utilizar los mecanismos de relojería como analogía del razonamiento cognitivo.
Sin embargo, lo que cuenta como mecanismo cambia con el contexto social y la cultura. El mecanismo cartesiano excluía la acción a distancia, y antes de la mecánica cuántica no considerábamos algunos de los conceptos que ahora son sitios comunes. En el momento actual, el modelo que se utiliza para explicar el cerebro consiste sobre todo en el modelo del ordenador, que ha sido muy útil, pero que parece ser insuficiente para entender el funcionamiento del tejido neuronal.
El hecho, sin embargo, es que el cerebro, según las investigaciones actuales, no es susceptible de un acercamiento mecanicista, porque el cerebro funciona como un sistema complejo. Un sistema complejo es, igual que una máquina, un sistema compuesto por partes cuya actividad contribuye a la conducta del sistema. No obstante, y al contrario de los sistemas mecánicos, las reglas que determinan la actividad de cada componente del sistema no explica su contribución a la conducta del conjunto, sino que tenemos que apelar a la manera en que las partes se interrelacionan y como tales interrelaciones modifican la conducta global del sistema. De alguna manera, los sistemas complejos son el mejor ejemplo del aforismo que apunta que "el todo no es la suma de las partes". Trasladado al tema que nos ocupa, si el cerebro fuera un sistema complejo, entonces el conocimiento, como producto del cerebro, no podría ser analizable.
En este sentido, investigaciones en psicología cognitiva indican que los humanos tenemos grandes dificultades para comprender casos con más de unas cuantas variables. Los humanos no podemos utilizar información que concierna a muchos componentes o interacciones complejas de componentes. En otras palabras, los sistemas complejos son psicológicamente inmanejables. Eso no quiere decir que no lo podamos analizar y descubrir, ya que por complejas que sean las partes del cerebro y sus interrelaciones, tarde o temprano podremos generalizar y explicar el funcionamiento del sistema de acuerdo con sus fines adaptativos y cognitivos. Lo que quiere decir es que sus productos cognitivos, y entre ellos el conocimiento, se tendrán que filtrar desde esta perspectiva.
Por lo tanto, podría pasar que lo que nosotros entendemos como conocimiento es en realidad una proyección mecanicista sobre un fenómeno que resulta ser un sistema complejo. Podría resultar que lo que nosotros pensamos que es una justificación, una creencia, un concepto, no correspondiera a ningún elemento del sistema complejo mediante el cual conozcamos el mundo, sino a una construcción útil para explicarnos cómo conocemos. Y, evidentemente, si éste es el caso, saber cómo conoce el cerebro es imprescindible para desarrollar una teoría del conocimiento (o para olvidarnos completamente de ella).
En cambio, los que piensan que puede ser útil, piensan que sea cual sea la aportación del conocimiento del cerebro, hay una parte central y crítica de la epistemología que no se puede resolver desde la perspectiva de una ciencia natural. Y es que la epistemología se constituye como una disciplina normativa, es decir, establece qué cuenta y qué no como conocimiento. Y eso no lo puede resolver el estudio del cerebro. Sea cual sea la respuesta correcta, las dos tienen que aprender las mismas cosas del cerebro, del cual ya sabemos mucho con respecto a su capacidad conocedora.
En resumidas cuentas, para los naturalistas puede ser útil o imprescindible, según el énfasis del autor al que nos referimos, saber cómo funciona el cerebro para desarrollar una teoría del conocimiento robusta y completa. Los datos empíricos sobre cómo el cerebro llega a conocer el mundo a través de la percepción, cuáles son sus atajos, las limitaciones de la información procesada, la fiabilidad de la memoria, sus mecanismos de inducción, el tipo de razonamiento que lleva a cabo, son los elementos que se utilizarán para configurar la teoría.
Pero, aparte de presentar los datos empíricos, es importante situar la tradición naturalista respecto a tres cuestiones que han sido esenciales en su aparición:
a) El problema mente-cerebro, que ha permitido a la tradición naturalista concebir el conocimiento como el producto de un sistema material.
b) Las bases evolutivas del cerebro, que han situado el cerebro humano como un estadio más en la historia filogenética de nuestro mundo y, por lo tanto, sin ningún privilegio especial para la especie humana.
c) La discusión naturaleza-cultura, que ha abierto el camino para investigar qué conocimiento es innato y cuál aprendido, y cómo aparecen los dos.

1.1.El problema mente y cerebro

"Es una tarea muy difícil formarse una opinión sólida sobre la mente [...]. Parece como si todo lo que el alma experimenta ocurriera en asociación en un cuerpo, [...] tanto la alegría, como el amor y el odio; en todos estos casos algo sucede en el cuerpo también [...]. Si éste es el caso, entonces estas propiedades poseen algo material, incluso en su ser esencial [...]. Y eso es, después de todo, la razón por la cual el físico es responsable de la investigación del alma."

Aristóteles, De anima

Estas frases tienen 2.300 años, y se encuentran en la primera discusión sistemática del problema mente-cerebro. En su núcleo, son todavía válidas. En efecto, la intuición de que hay dos tipos diferentes de cosas en el mundo, lo mental y lo físico, sigue siendo tan actual como en el tiempo de Aristóteles. De hecho, la lista que podríamos hacer de estos dos fenómenos no sería muy diferente de la del filósofo griego:
Mental
Físico
Dolor
Piedra
Alegría
Agua
Deseo
Manzana
Empatía
Ciudad
Envidia
Perro
Intuitivamente, estas categorías parecen claras y sin problemas. Al menos, claro está, que todas las que hemos clasificado como mentales son mentales, y todas las cosas que hemos clasificado como físicas son físicas. Cada uno de nosotros podría generar una lista larguísima con casos adicionales de cosas físicas y cosas psicológicas. Y sabemos que las dos categorías son parte de nuestro mundo.
El problema mente-cerebro, o mente-cuerpo, como históricamente se conoce, existe sólo para aquellos que quieren incluir la vida mental de los animales conscientes, y entre ellos los humanos, en la comprensión científica del mundo. Por una parte, esta tradición, que podríamos llamar naturalista, entiende que todo lo que sucede en la mente depende de, o es, algo que sucede en el cerebro. Por otra parte, definir las características de los estados mentales como la subjetividad o la calidad de la experiencia de una percepción, por ejemplo, parece no poder reducirse en términos de operaciones físicas del organismo. El hecho es que mientras que podemos observar y medir los procesos corporales como hablar o sonreír, y las técnicas de neuroimagen modernas nos permiten detectar las actividades del cerebro, no hay ninguna máquina que pueda reproducir la calidad de los estados mentales, de alegría, miedo, ansiedad, que cada individuo experimenta. Y el problema aparece porque esta dicotomía no parece depender del nivel de información empírica recogida hasta ahora, sino que el problema parece teórico, conceptual, de perspectiva.
Una constatación de la dificultad que representa el problema mente-cerebro para los humanos es la diversidad con que los autores que lo han tratado expresan el problema. Dicho de la manera más precisa, resulta casi imposible encontrar planteamientos del problema que en el enunciado sea común a todos los acercamientos, dado que en general todos presuponen ya su respuesta. Por ejemplo, es muy diferente exponer el problema como:
"El problema mente-cuerpo es el de la relación que se establece entre la mente, como entidad no física, y el cuerpo, como entidad física."
Que
"El problema de la mente-cerebro es cómo los procesos del cerebro dan lugar a la conciencia."
El problema mente-cerebro es el de discernir si los procesos mentales son diferentes o idénticos a los procesos cerebrales."
O
"El problema de la mente-cerebro es cómo explicar los acontecimientos mentales como causados por la descarga electroquímica de neuronas."
O
No es difícil ver que esta manera de plantearse la pregunta lleva ya implícita una respuesta. Es decir, la formulación de la pregunta es crítica. Por eso las respuestas han sido tan variadas, excluyentes e, incluso, extrañas. Hasta el momento, las soluciones al problema mente-cerebro se pueden situar en alguna de las siguientes posiciones:
a) Dualismo cartesiano
Afirma que hay dos entidades diferentes, cuerpo y mente, y que interactúan causalmente, aunque no sabemos cómo. Se llama dualismo cartesiano, porque se considera que fue Descartes quien lo formuló.
b) Dualismo de propiedades y emergentismo
Son dos versiones de una posición relativamente común que defiende que las propiedades mentales representan un aspecto especial de ciertos objetos físicos. Difiere del dualismo cartesiano en el hecho de que postula diferentes propiedades, pero no entidades especiales, diferentes. La conciencia no sería una propiedad de una sustancia inmaterial, sino de objetos físicos. El emergentismo afirma que los acontecimientos físicos pueden causar acontecimientos mentales, y que los acontecimientos físicos causan la conducta, pero que los acontecimientos mentales no causan nada. Los procesos mentales, tanto conscientes como inconscientes, están causados por procesos cerebrales, pero no se reducen a estos sino que son fenómenos o propiedades autónomos que emergen de los sistemas neurofisiológicos en el curso del largo proceso evolutivo de la especie. El filósofo contemporáneo John Searle es uno de sus defensores.
c) Paralelismo
Esta posición afirma que no hay conexión entre los fenómenos mentales y los físicos. Considera que los fenómenos mentales y los físicos existen, como si dijéramos, en reinos separados, y que funcionan independientemente unos de otros. Los acontecimientos mentales no tienen efecto sobre ningún acontecimiento físico, y los acontecimientos físicos no tienen efecto sobre los acontecimientos mentales. Leibniz fue uno de sus defensores.
d) Monismo idealista
Defiende que no hay fenómenos físicos, que sólo hay ideas en nuestras mentes. No hay bolígrafos, montañas o materia. El mundo está todo en nuestras mentes. El obispo Berkeley es su representante más conocido.
e) Monismo materialista
El alma y el cuerpo no son de naturaleza radicalmente diferente, sino manifestaciones diferentes de la sustancia única que constituye la totalidad de las cosas. Los partidarios de un planteamiento monista de la cuestión niegan la existencia de la mente como una realidad diferente del cerebro y adoptan una forma de reduccionismo, tratando de explicar los fenómenos mentales en términos físicos o biológicos. La distinción entre la mente y el cerebro sería debida a la insuficiencia actual de nuestros conocimientos sobre los procesos cerebrales, pero el desarrollo científico futuro permitirá reducir los fenómenos mentales a fenómenos puramente físicos o biológicos que tienen lugar en el cerebro. Inicialmente formulada por los presocráticos, defendida por Locke y Hume, es una de las tesis más argumentadas contemporáneamente.
f) Teoría de la identidad mente-cuerpo
Afirma que los fenómenos mentales son una subcategoría de los fenómenos físicos. Todo lo que hay de mental serían estados de los sistemas mentales de los animales. Dolor es una palabra que se refiere a un estado del cerebro, como luz es otro nombre para la radiación electromagnética. Admiten la existencia de los procesos mentales como causa interna de la conducta. Ahora bien, la única explicación de la conducta humana y animal que es posible establecer en términos científicos es la que se realiza en términos del funcionamiento fisicoquímico del sistema nervioso central. Por lo tanto, los estados mentales son idénticos a los estados puramente físicos del sistema nervioso central, y la psicología se tiene que reducir a la neurofisiología. J. J. C. Smart y David Armstrong son dos de sus defensores modernos.
g) Materialismo eliminativo
Afirma que no hay fenómenos mentales, que sólo está el mundo físico. La conciencia, en este caso, se trata de un fenómeno físico. Paul Churchland, filósofo y el más conocido defensor de esta posición, considera que la creencia popular en la existencia de la mente es una teoría primitiva precientífica y que los estados mentales de los que hablamos en el lenguaje ordinario (creencias, deseos, sentimientos, intenciones) no existen realmente. Esta psicología del sentido común o psicología popular tiene que ser sustituida por una neurociencia estricta, que parta de la idea de que las actividades cognitivas son en última instancia actividades del sistema nervioso. Propone una inversión del procedimiento habitual de la investigación de los procesos cognitivos (aproximación de arriba abajo) que parte de las actividades cognitivas de los seres humanos (pensar, hablar, recordar, aprender, etc.) y después indagan las operaciones cerebrales que las pueden producir, para una aproximación de abajo arriba: empezar por comprender el comportamiento físico, químico, eléctrico y de desarrollo de las neuronas y sólo después tratar de comprender lo que sabemos intuitivamente sobre nuestras actividades cognitivas.
Lo que resulta curioso es que haya teorías tan diferentes y algunas tan contraintuitivas, o incluso difíciles de creer. Las diferentes posiciones con respecto al problema mente-cerebro se podrían entender como una paradoja que nace de las posiciones conflictivas con respecto a las cinco tesis siguientes:
1) Cualquier sistema material se puede explicar mediante la descripción de sus partes y la interrelación de estas.
2) Las únicas relaciones de causa y efecto se pueden producir dentro de un sistema material.
3) Las personas están hechas de materia física que tiene sólo propiedades físicas.
4) Las personas tienen estados mentales.
5) Los estados mentales no se pueden explicar con descripciones de propiedades o sustancias físicas.
Todas las tesis pueden ser defendidas, pero todas no pueden ser verdad. En el apartado de ejercicios, os propondremos que consideréis qué tesis son defendidas o negadas por cada una de las posiciones.

1.2.El cerebro como producto evolutivo

Los fundamentos del pensamiento moderno evolutivo fueron establecidos por Charles Darwin (1809-1882). Se dice que la teoría de la evolución por selección natural es la idea más revolucionaria e importante de la historia de la ciencia. En 1859, Darwin publicó la obra El origen de las especies por medio de la selección natural, donde explicaba su teoría, que ha revolucionado todos los campos del conocimiento, de la biología a la economía, pasando por la psicología.
La aplicación de la teoría evolucionista a la comprensión del cerebro implica que lo tenemos que entender como un sistema que es como es y hace lo que hace precisamente porque es el heredero de una tradición filogenética muy precisa. Sólo los cerebros que han sido los mejores en ayudar a sobrevivir y reproducir a los individuos que los tenían son los que se han perpetuado, y con ellos sus capacidades.
Del cerebro como adaptación, se ha pasado a sus capacidades cognitivas y por lo tanto epistémicas como herederas también de la tradición evolutiva. Fundamentalmente, la perspectiva evolutiva aplicada a la epistemología trata las capacidades cognitivas como adaptaciones. Las adaptaciones se entienden igual que en la teoría de la evolución, es decir, como innovaciones que diferencian diseños biológicos alternativos que presentan diferentes individuos de una población. Unos diseños son "escogidos" porque son más eficaces que los otros, ya que permiten la supervivencia y la reproducción de su portador. Dentro de esta nueva perspectiva, el cerebro es una colección de funcionalidades que se añadieron y mantuvieron (copiadas de generación en generación) porque tuvieron la consecuencia de solucionar problemas que promovían, de una manera u otra, la supervivencia y la reproducción. En otras palabras, el cerebro que protege nuestro cráneo es como es y hace lo que hace porque cumplió y cumple unas funciones adaptativas bien concretas.
Por lo tanto, si queremos entender las funciones actuales, no hay bastante con crear un modelo idealizado del conocimiento, sino que también tenemos que entender la historia evolutiva y, en la historia, comprender las funciones que en un determinado entorno cumplía nuestro cerebro. Por ejemplo, las soluciones biológicas a problemas adaptativos tienen que tener en cuenta los recursos disponibles en el sistema antes de que el problema aparezca. Los principios del funcionamiento del cerebro aparecieron a raíz de los requerimientos de supervivencia combinados con las propiedades físicas de sus componentes.
El biólogo molecular francés y nobel François Jacob utilizó el término bricoleur para referirse a la manera cómo la naturaleza afronta la búsqueda de diseños. "La evolución es chapucera, no ingeniera". La evolución no diseña nuevos organismos; al contrario, los nuevos organismos emergen de la variación genética inherente en el bagaje genético. En efecto, la selección natural no proporciona ningún mecanismo para planificar de antemano. La selección sólo puede hacer chapuzas con la variación genética disponible.
El caso es que los seres humanos no somos en absoluto máquinas diseñadas especialmente para cumplir las funciones que actualmente cumplimos, como hacer teorías epistemológicas, sino que dependemos de lo que hicimos en nuestro pasado evolutivo. La ingeniería y la evolución son diferentes precisamente porque tienen diferentes estrategias disponibles. Los ingenieros pueden, al menos potencialmente, diseñar soluciones sin restricciones de recursos disponibles o características del entorno; es decir, pueden construir sistemas a partir de sus análisis del problema. Por contra, los sistemas biológicos están sujetos a presiones del entorno y de recursos que los fuerzan a unas trayectorias funcionales determinadas. Los ingenieros van del problema a la solución; el sistema biológico no ve la solución hasta que la encuentra. El hecho es que un ingeniero no diseñaría a los humanos a partir de la manera en que la naturaleza nos diseñó. Por ejemplo, no empezaría diseñando un animal que tiene que andar sobre dos patas "haciendo bricolaje" con un animal que anda con cuatro. Los humanos tenemos una larga historia de diseño evolutivo detrás, y no estamos perfectamente adaptados a nuestra manera de vivir. Transformar un diseño de cuatro patas en uno que soporta el andar derecho ha presentado muchos problemas de ingeniería que ha llevado a muchos errores de diseño.
Otro ejemplo nos puede permitir entender la relevancia para la teoría del conocimiento. Fijémonos en el mecanismo que tienen las ranas para cazar moscas. Las ranas tienen un mecanismo que registra la presencia de moscas en su campo de acción, lo cual provoca la activación de la lengua en dirección a la mosca. Pues bien, la descripción de ingeniería asumiría que la información que detecta la rana es la de "mosca" o "mosca allí" o "insecto comestible allí", ya que esta información se puede derivar del hecho de que la función del mecanismo es detectar la presencia de moscas.
Sin embargo, un análisis del sistema cognitivo indica que la mejor manera de dar cuenta de la función del cerebro de la rana es, más bien, que es sensible a "pequeñas cosas oscuras que vuelan cerca". Eso significa que el mecanismo de la rana no está diseñado "óptimamente", desde el punto de vista del ingeniero, para cazar moscas, ni de hecho "conoce" moscas. No obstante, desde un punto de vista adaptativo, esta puede ser la mejor solución, o la única posible, porque el sistema a partir del cual la naturaleza tenía que diseñar el cerebro de la mosca no podía diseñar un sistema tan sofisticado que pudiera diferenciar moscas de otros objetos; para conseguirlo, seguramente necesitaría un sistema de categorización y conceptualización que no se podía meter en el cerebro de una rana. Y claro está, la garantía de que este sistema, no óptimo en el sentido del ingeniero, ha funcionado como adaptación es el hecho contingente que un número suficiente de pequeñas cosas oscuras en torno a la rana fueron moscas.
Otra manera como la evolución constriñe las trayectorias funcionales del individuo conocedor es estableciendo una solución que no hace falta que no sea óptima desde el punto de vista ingeniero, sino simplemente satisfactoria. La solución que los agentes encuentran es, de acuerdo con el científico Herbert Simon, no óptima pero sí "satisfactoria" (satisficing). Por satisfactoria se entiende que las estrategias de resolución de problemas y de toma de decisiones se completan cuando se encuentra una solución que satisface el objetivo establecido de entrada. Simon utilizó la analogía del ajedrez para ilustrar este aspecto. Los jugadores de ajedrez están condicionados para tomar una decisión entre todas las que pueden adoptar (más las posibles respuestas del contrincante). Cualquier jugador de ajedrez genera necesariamente un pequeño número de posibles movimientos: hace una jugada tan pronto como encuentra la que le parece satisfactoria. Esta elección es satisfactoria para Simon, porque las restricciones de procesamiento de información impiden al jugador hacer una jugada óptima en términos de ingeniería (que en un juego de ajedrez implicarían procesar 10120 combinaciones). Según eso, las soluciones adaptativas sólo requieren satisfacer un requerimiento mínimo para permitir que un organismo sobreviva y se reproduzca mejor que sus competidores. Por lo tanto, no hay que asumir que el mecanismo es también la solución óptima para el problema. De acuerdo con todo eso, se puede decir que una adaptación sólo se optimiza bajo presiones selectivas.
En resumidas cuentas, cualquier teoría del cerebro, y por lo tanto, siguiendo la tradición naturalista moderna, tiene que tener en cuenta la historia filogenética del cerebro, qué funciones adaptativas cumplía en especies anteriores, y en los antepasados de los humanos actuales. El cerebro no es un artefacto diseñado por un ingeniero, sino que es el producto de la evolución; los principios de su organización aparecieron por los requerimientos de supervivencia combinados con las propiedades físicas de sus componentes. En consecuencia, no es suficiente saber lo que hace y cómo lo hace, sino quizás es también importante saber lo que puede y no puede hacer y por qué.

1.3.Conocimiento innato - conocimiento aprendido

En el centro del acercamiento naturalista a la teoría del conocimiento está el problema de cómo llegamos a adquirir el conocimiento que tenemos. Históricamente, los filósofos han discutido qué cantidad de lo que sabemos se basa en el instinto, es decir, en conocimiento que ya tenemos al nacer, y cuál en experiencia. En un extremo, los racionalistas (como Descartes) defendían que esencialmente todo el conocimiento es innato. En el otro, los empiristas radicales (como Locke) argumentaban que todo el conocimiento es adquirido.
  • Los racionalistas ponían el énfasis en las predisposiciones que tiene la mente-cerebro para interpretar el mundo en términos de ciertas categorías: por ejemplo, lenguaje, espacio y números.

  • Los empiristas, por contra, defendían la idea de que el conocimiento viene después de un proceso lento de aprendizaje que partía de los elementos primitivos del pensamiento, las sensaciones, que se interasociaban para dar lugar a los conceptos.

Estos contrastes dado a entender que todo lo que sabemos es causado por los genes o causado por la experiencia, en la cual estas categorías se interpretan como exclusivas y exhaustivas. Sin embargo, los descubrimientos recientes en biología, neuroembriología y neurobiología moleculares han destruido esta distinción aguda entre la naturaleza y cultura, para usar el lema de la oposición. Es cierto que el conocimiento exhibido en el nacimiento es innato en cierto sentido. Una rata "normal" recién nacida va al lugar más caliente, muerde un pezón, y empieza a chupar. Un gatito lanzado al aire se endereza y aterriza sobre sus patas. Un recién nacido humano imitará una expresión facial, como sacar la lengua. También es cierto que muchos otros conocimientos, como jugar al ajedrez, escribir o comportarse en público se aprenden, obviamente, posnatalmente.
En este sentido, contemporáneamente ha aparecido un nuevo acercamiento, que sólo se puede agrupar bajo el apelativo de no innatistas, que se escapa de la ingenuidad de los empiristas al pensar que todo es aprendido, y evita la radicalidad de los innatistas. De hecho, quedan ya pocos empiristas puros, mientras que los innatistas han visto reforzada su posición con el desarrollo de la genética. La asociación entre genes y rasgos diferenciales cognitivos ha sido interpretada como una prueba de su posición. Por eso las discusiones entre empiristas e innatistas se han convertido contemporáneamente en una batalla constante entre innatistas y no innatistas.
1.3.1.El modelo innatista
En el ámbito del lenguaje es donde se han disputado las batallas contemporáneas más agresivas entre los innatistas y los no innatistas. El gran defensor moderno del innatismo en el lenguaje ha sido Noam Chomsky, que ha propuesto que todas las lenguas del mundo comparten una gramática. Esta gramática universal, de la cual todavía desconocemos casi todas las reglas, correspondería a un conjunto de reglas abstractas de análisis y producción lingüística codificados genéticamente y desarrollados en todos los cerebros humanos que crecen de manera sana y en un entorno social adecuado. En este sentido, la estructura y el funcionamiento del lenguaje humano se tendría que entender y estudiar como cualquier otro órgano biológico, como el corazón o los riñones.
Los innatistas consideran que el lenguaje "crece" en el cerebro, en lugar de ser aprendido. Los genes tendrían codificadas las instrucciones para hacer crecer en el cerebro las conexiones neuronales necesarias para convertir una parte del cerebro en un sistema formal de análisis y producción lingüística que correspondería a las reglas de lo que llama "gramática universal", que es común a todas las lenguas del mundo. Lo único que tienen que hacer el cerebro del recién nacido es identificar la lengua particular de su entorno y adaptar los parámetros fonéticos y léxicos a este sistema. El resto viene de manera natural. Desde su perspectiva, el entorno proporciona las condiciones bajo las cuales los principios innatos del lenguaje pueden "aparecer" en la conducta. Por lo tanto, es un entorno específico lo que hace que los niños aprendan inglés, si han crecido en un ambiente donde el inglés es la lengua predominante.
Los argumentos que han usado los innatistas como Chomsky para defender sus posiciones son los siguientes:
a) Los niños adquieren el lenguaje con la misma cronología independientemente de la lengua aprendida específicamente. Todos los niños aprenden a hablar hacia la misma edad, independientemente de la lengua de que se trate, de la riqueza y cantidad de los estímulos lingüísticos recibidos y de la inteligencia particular del niño de que se trate.
b) Hay un periodo crítico para la adquisición de una primera lengua. Los innatistas afirman que hay una etapa en la infancia en que el lenguaje se puede desarrollar. Si no se dan las circunstancias adecuadas, la estimulación lingüística externa, entonces las redes neuronales codificadas genéticamente que darían lugar al órgano del lenguaje se desarrollan correctamente. Comparan este periodo crítico con otros que se producen en ciertas funciones cerebrales, como la percepción, en que si se impide a un gato percibir visualmente durante un periodo crítico de su desarrollo postnatal, entonces ya no puede percibir adecuadamente el resto de su vida. Y para mostrar la pertenencia de este argumento aportan lo que se llama experimentos de la naturaleza, es decir, situaciones o casos en los que la naturaleza produce un caso que se puede interpretar según una teoría determinada. Señalan que la presencia de lo que se llama enfants sauvages (niños salvajes, en francés) es también una demostración de la existencia del periodo crítico en el desarrollo. Los enfants sauvages son niños perdidos o abandonados desde pequeños, recluidos en algún lugar o libres en la naturaleza, pero sin contacto humano durante muchos años. Cuando se han encontrado en edad adolescente, estos niños presentan en muchos casos dificultades para aprender una lengua correctamente, y son incapaces de hablar, por mucho que intentan aprender. Para los innatistas estos casos son una demostración de su hipótesis sobre el conocimiento innato del lenguaje.
Enfants sauvages
Algunos de los enfants sauvages más famosos de la historia son:
  • Victor d'Aveyron. El término enfant sauvage se debe a un informe de la policía de Aveyron, que encontró a quien se conoce como Victor d'Aveyron. Jean Itard escribió una crónica en 1797, a partir de la cual el cineasta François Truffaut creó la película L'enfant sauvage.

  • Kaspar Hauser, que vivió en el siglo XIX, y sobre el cual Werner Herzog hizo la película El enigma de Kaspar Hauser.

  • Genie, el nombre dado a una niña que se encontró en Los ángeles el año 1970, encerrada durante toda su infancia en una habitación por su padre, que sufría una enfermedad mental. Esta niña fue estudiada profundamente por psicólogos y lingüistas, y sobre ella se han escrito libros y muchos artículos científicos.

  • Marcos, sobre el cual el novelista Gabriel Janer escribió una crónica.

c) El argumento de la pobreza del estímulo. Según los innatistas, los datos lingüísticos que reciben los niños son defectuosos y empobrecidos. Las frases que oyen los niños en un entorno normal está lleno de frases incompletas, agramaticales, y sin embargo los niños acaban produciendo frases correctas. Es más, pueden producir frases que nunca han oído sabiendo que son frases gramaticalmente adecuadas. Este argumento se complementa con una demostración matemática (el teorema de Gold), que demuestra que para llegar a inducir una gramática (como lo tendría que hacer todo niño sin conocimiento innato de su lengua) no sólo se tiene que tener acceso a frases gramaticalmente correctas, sino también a casos de frases incorrectas (que se reconozcan como incorrectos, que no es el caso en un entorno normal, ya que la gente no dice "esta frase que he dicho es gramaticalmente incorrecta").
d) La existencia de universales lingüísticos. Se postula que ciertas propiedades lingüísticas se encuentran en todas las lenguas.
e) Los hablantes convergen en las mismas gramáticas, independientemente de la enseñanza recibida. En este sentido, los innatistas afirman que casos en que la aparición del lenguaje se da en niños con privación de estímulos lingüísticos es una prueba que soporta su posición. Por ejemplo, presentan el caso de niños sordos que no han sido expuestos a ningún lenguaje formal, evidentemente verbal, pero tampoco a signos, pero que eran capaces de comunicarse creando ellos mismos un lenguaje de signos con léxico y una sintaxis sofisticada que nadie les había enseñado. O el caso de los criollos, lenguas creadas por esclavos a las Antillas los hijos de los cuales aprenden y convierten en lenguas con gramáticas como las de cualquier lengua del mundo.
Sin embargo, estos argumentos no han acabado de convencer a toda la comunidad científica. Las críticas al modelo innatista son:
  • Con respecto al argumento de la universalidad de la cronología en el aprendizaje lingüístico, los no innatistas consideran que en muchos otros casos cognitivos, como por ejemplo el aprendizaje del lenguaje musical, también se dan, con un mismo nivel de estímulos externos, los mismos éxitos de aprendizaje, independientemente de la inteligencia del niño, y de periodos críticos.

  • Los casos de enfants sauvages son interpretados por los no innatistas como una demostración de la importancia del entorno psicosocial en el desarrollo cerebral y de las funciones cognitivas, y no específicamente de un déficit en el desarrollo de una sola tarea, la lingüística. Indican que, además de problemas lingüísticos, estos niños tienen muchos déficit cognitivos, emocionales y sociales.

  • En cuanto a la pobreza del estímulo, los no innatistas insisten en el hecho de que si se analiza todo lo que ha oído un niño desde que nace hasta que tiene dos años, no se puede decir que los estímulos hayan sido pobres.

  • Con respecto al hecho de que es imposible inducir una gramática a partir sólo de los datos lingüísticos que tienen los niños, algunos no innatistas, como Elizabeth Bates, aportan argumentos que provienen de lo que se conoce como teorías sobre los sistemas complejos. Estas teorías muestran que hay fenómenos de la naturaleza que se producen sin que se puedan predecir de los input a un sistema. Por ejemplo, la forma esférica de una pompa de jabón no se puede predecir de los elementos iniciales que la producen; no se puede explicar por las características físicas del jabón, ni del agua, o de la actividad que hace un niño cuando sopla la membrana de jabón. Las pompas de jabón son redondas porque la esfera es la solución que satisface las condiciones de máximo de volumen con el mínimo de superficie. Los no innatistas argumentan que el conocimiento puede emerger de esta manera, con interacciones sucesivas entre la actividad sensoriomotora y un mundo estructurado. De la misma manera, se ha argumentado que las gramáticas representan la clase de posibles soluciones a los problemas de estructurar el lenguaje en un procesador de información como el cerebro.

Sistema complejo
El término sistema complejo se refiere a un sistema que tiene muchos componentes que se relacionan de manera no lineal. Al referirse a los sistemas como no lineales, los teóricos entienden que los sistemas son más que la suma de sus partes. Por ejemplo, en una relación lineal de dos componentes, si uno cambia, el otro lo hace de manera proporcional; en cambio, en una relación no lineal, si una parte cambia, la otra no cambia proporcionalmente. Cuando hay muchas no linealidades en un sistema, entonces su conducta no se puede predecir. El estudio de los sistemas complejos ha tenido un gran desarrollo en los últimos años, gracias a la disponibilidad de ordenadores muy potentes que permiten simulaciones, el único modo de estudiarlos.
Muchos fenómenos de la naturaleza han sido descritos como sistemas complejos: las sociedades de individuos, los fenómenos meteorológicos, la predicción de terremotos, los sistemas inmunológicos, las redes neuronales o incluso la conducta de un grupo de patos. Si miramos la formación de vuelo de un grupo de patos nos puede parecer que se han puesto de acuerdo para configurar esta forma de V , pero esta formación es la consecuencia de conductas muy simples que adopta cada pato ("no choques con tus vecinos", "te tienes que mantener en vuelo y cerca del pato vecino", etc.), pero también de una compleja interrelación. En muchos sistemas complejos la variedad de las partes y de sus interrelaciones hacen imposible comprenderlos de manera mecánica. Sólo es posible analizarlos matemáticamente y/o simularlos, es decir, reproducir el sistema y las condiciones iniciales en las que se encuentra, para posteriormente ver lo que le sucede. Así es como se realizan, por ejemplo, las predicciones meteorológicas. Pero, claro está, en este caso no tenemos una comprensión verdadera de lo que ocurre en el sistema, sino que sólo lo sabemos reproducir.
  • Finalmente, los no innatistas consideran que la idea de que una gramática lingüística puede estar codificada en los genes es una manera inadecuada de comprender cómo funciona el desarrollo ontogenético (el desarrollo de un organismo desde los genes en el organismo vivo completo) en biología. De la misma manera que podríamos decir que un diagrama arquitectónico es una especie de programa para un edificio, un gen, según los innatistas, sería un programa de las conexiones neuronales que implementan nuestra facultad del lenguaje. Dado este presupuesto, podríamos atribuir la facultad en cuestión a un gen. Esta posición se llama preformacionista.

"Hoy pensamos en el preformacionismo como una reliquia arcaica de un pensamiento pasado de moda y nos reímos de la idea de que (cómo se creía antes) hay gente pequeña y doblada en los espermatozoides o el óvulo. Pero sustituir gente doblada con planos o programas doblados no es tan diferente. [...] Lo central en el pensamiento preformacionista no es la presencia literal de criaturas totalmente no desarrolladas dentro de los gametos, sino una manera de pensar en el desarrollo -el desarrollo como revelación de una esencia en vez de una serie de interacciones contingentes, constructivas, transformaciones y productos emergentes. Es una manera de pensar que hace irrelevante el desarrollo real, ya que la «información» básica o forma es aquí desde el principio un legado de nuestros antepasados."

Susan Oyama (2000). Evolution's eye: a systems view of the biology-culture divide. Durham: Duke University Press.

1.3.2.El modelo no innatista
En cambio, hay no innatistas modernos que enfatizan la importancia de todos los procesos que intervienen en el desarrollo de un organismo, tanto genéticos, como epigenéticos (es decir, aquellos aspectos que no dependen específicamente del ADN, donde ha codificado la información genética, sino de elementos del entorno o de elementos que emergen de las mismas interacciones de los genes con el entorno).
Estos no innatistas aportan argumentaciones como la siguiente: "Lo único que codifican los genes es la estructura primaria de las proteínas. Por lo tanto, los genes pueden ser considerados instrucciones para la producción de proteínas, pero no instrucciones de cómo las proteínas interaccionan, ni mucho menos los efectos, como por ejemplo la manera en que las células y los tejidos se comunican, en que los órganos y el sistema nervioso central se forman. Los genes no son ni planes ni programas para el desarrollo de un organismo, sino que sólo proporcionan proteínas, y eso es únicamente una pequeña parte del desarrollo. Los efectos locales de los genes pueden poner en marcha una multitud de acciones genéticas que, a su vez, pueden inducir interacciones a múltiples niveles de acontecimientos bioquímicos, celulares, fisiológicos y de comportamiento. La manera como un gen se expresa en, por ejemplo, una conducta determinada es el resultado de un complejo de procesos que requieren muchos niveles y componentes. Así, los procesos de desarrollo que conducen a la aparición de un rasgo constituyen una configuración altamente dinámica, en la cual interaccionan unos mecanismos de retroalimentación (tanto positivos como negativos). La emergencia de rasgos no es una cuestión sencilla. La colaboración de muchos genes es necesaria para que aparezca el fenotipo (los rasgos aparentes de un organismo). Además, la interacción entre genes se considera suficiente para producir un rasgo fenotípico determinado. El entorno es igualmente necesario".
Dadas estas contingencias, resulta imposible, para los no innatistas, atribuir ningún tipo de primacía en el desarrollo ni a los genes ni en el entorno. Los rasgos provienen de la paridad del entorno y el genoma. Eso no implica que el desarrollo es un proceso sin estructura; sólo señala un hecho fundamental: en el desarrollo nada sucede en el vacío. Las facultades cognitivas, tanto si son del habla como de cualquier otra competencia cognitiva, son el resultado de una jerarquía compleja de muchos niveles de desarrollo, que va desde los nucleótidos, los genes y las proteínas hasta la formación y el desarrollo de las diferentes partes del cuerpo, la biomecánica y la interacción apropiada con el entorno. Por lo tanto, los fenotipos no responden al concepto de un programa o un código que de alguna manera encuentra su sitio en el cerebro humano y que se activa cuando entra en contacto con ciertos estímulos del entorno. Para los no innatistas, esta visión crea un vacío explicativo, un tipo de argumentación elíptica, que genera la ilusión de que existen genes que proporcionan conductos.

2.¿Qué interesa del cerebro?

Es probable que el cerebro sea el objeto más complejo del Universo. Quizás porque al espacio que a duras penas ocupa un puño y con un peso de un poco más de un kilogramo, el cerebro es capaz de comprimir todo el conocimiento del Universo, incluyendo el suyo propio. El ser humano siempre se ha sentido fascinado por este extraño órgano que le permite percibir cosas con los cinco sentidos, recordar sus experiencias pasadas, imaginar el futuro, resolver problemas, crear una obra de arte, experimentar emociones y soñar.
Justo cuando el calendario cambiaba de 1999 a 2000 se daba por concluido lo que el Congreso de los Estados Unidos denominó "Década del Cerebro", un programa de apoyo a la investigación en neurociencia. Parafraseando a Churchill, eso no significaba el fin del apoyo a las ciencias del cerebro, ni mucho menos el principio del fin, sino solamente el fin del principio. Porque el siglo XXI se ha convertido ya en el siglo de las ciencias del cerebro, juntamente, claro está, con otras ciencias, como la genómica proteómica, la nanociencia, y seguramente otras que hoy no podemos siquiera imaginar. El hecho es que la producción de investigaciones en neurociencia, el número de revistas neurocientíficas especializadas, de investigadores y de congresos ha crecido enormemente en los últimos años, y se han abierto nuevos campos de investigación gracias a la introducción de nuevas técnicas de investigación.
En efecto, en el momento actual, el cerebro que estudia la neurociencia es ya el cerebro que percibe, recuerda, conoce y razona, es decir, actividades todas ellas epistémicas. ¿Cómo estudia la neurociencia estas actividades? Como el cerebro no puede ser desmontado como un reloj, la neurociencia necesita la tecnología para alcanzar a ver lo que pasa en las estructuras cerebrales. La neurociencia dispone de muchos instrumentos para estudiar un montón de actividades y elementos del cerebro, en todos sus niveles, desde las moléculas, y expresión genética, su fisiología, metabolismo, su conectividad, incluso se puede ver ya el cerebro mientras realiza operaciones intelectuales. En efecto, desde hace unos años se han introducido técnicas que permiten visualizar las estructuras del cerebro al mismo tiempo que registran su actividad metabólica o eléctrica.
Gracias a estas técnicas, la actividad epistémica del cerebro puede ser analizada a muy diferentes niveles. Así, podemos estudiar el cerebro en su nivel más elevado, el de la conducta, y estudiar cómo percibe el mundo y actúa sobre él, cómo regula la actividad del organismo, cómo registra y revive sus experiencias pasadas. A un nivel más bajo, podemos estudiar cómo organiza la actividad de la conducta en sistemas que se ocupan de actividades concretas, como la visión, el lenguaje, las emociones o la memoria. Si seguimos descendiendo en esta jerarquía de niveles, podemos llegar a las neuronas y a sus interconexiones, cuyas propiedades estructurales y funcionales se explican de manera particular, y de cómo constriñen las actividades perceptivas. Y por debajo de las neuronas descubriremos un mundo molecular riquísimo que necesita descripciones específicas, y más por debajo nos tropezaremos con el nivel genético, que también interviene no sólo en el desarrollo del sistema nervioso, sino también en fenómenos tan importantes para la vida cognitiva como la memoria.
En los últimos años, los grandes avances en el estudio del cerebro se han dado en áreas como la neurociencia molecular y celular, en el estudio de las bases genéticas de las funciones normales y de las enfermedades neuronales, en el desarrollo del cerebro, en las investigaciones mediante las técnicas de visualización cerebral y en la aplicación de la neuroinformática para resolver daños neurológicos irreversibles.
En el campo del desarrollo del sistema nervioso central, hay, por ejemplo, hallazgos sobre los mecanismos que determinan la diferenciación de neuronas. Las células del cerebro se reproducen en el útero materno al increíble ritmo de 250.000 células por minuto. En el momento del nacimiento, cada bebé ha generado la gran mayoría de neuronas que tendrá toda su vida, aproximadamente cien mil millones de neuronas (de mil tipos diferentes), soportadas por más de un billón de células gliales (células que protegen y estructuran las neuronas).
En los primeros años de la vida del cerebro, este astronómico número de neuronas se interconectan mediante sinapsis para permitir registrar todo lo que aprende, sobre todo desarrollar las habilidades cognitivas, como el lenguaje, así como aprender todos los conocimientos básicos, como las reglas sociales. De hecho, se sabe hoy que entre los 3 y los 8 años los niños tienen el doble de neuronas y el doble de interconexiones que el cerebro adulto. A medida que el niño se convierte en adolescente, pierde las sinapsis que no utiliza a un ritmo de miles por segundo. Pero para que eso ocurra es necesario que las neuronas sepan, cuando nacen, dónde situarse y con quién conectarse. Y en los últimos años se ha avanzado mucho en el conocimiento de los mecanismos que guían, durante el desarrollo del cerebro, los axones (prolongaciones del cuerpo de las neuronas) hasta sus puntos de contacto en otras regiones del cerebro. Los axones de unas neuronas de la retina navegan distancias larguísimas –lo que para un humano serían miles de kilómetros– a través del sistema nervioso sorteando dificultades, cambiando direcciones hasta encontrar no sólo el área de destino, sino una localización precisa, y todo eso gracias a señales químicas que encuentra en el camino.
Se ha avanzado, asimismo, en el conocimiento de la complejidad de las neuronas. En concreto, los neurocientíficos han demostrado que la neurona no es un simple transistor que se activa o no según los impulsos que recibe. Al contrario. ahora se sabe que cada neurona produce un solo y pequeño efecto sobre otras neuronas, pero para que tenga lugar puede necesitar que hasta más de mil señales se integren en un momento determinado. Eso obliga a pensar en la neurona como una computadora en toda regla; de hecho se han llegado a describir hasta catorce mecanismos biofísicos que pueden corresponder a otras tantas operaciones computacionales neuronales. No obstante, la estrella tecnológica de estos últimos diez años es, sin lugar a dudas, la técnica de manipulación genética, gracias a la cual se han conseguido crear animales cuyas anatomías, químicas y fisiologías cerebrales anómalas han permitido entender nuevos principios neurocientíficos. La aplicación más usual ha consistido en el estudio de las consecuencias moleculares o conductuales de las alteraciones genéticas. Estos estudios han descubierto el papel de los genes en la aparición de conductas de un organismo, como la agresividad, la ansiedad, la sociabilidad, el tono vital y un sin fin de características de personalidad más.
Por otra parte, los investigadores conocen mucho más detalladamente la química cerebral, tanto la normal como la patológica. Se sabe ya, por ejemplo, qué tipos de alteraciones bioquímicas están asociadas con enfermedades como la depresión, el trastorno bipolar, la esquizofrenia. Este hecho ha permitido el diseño y la producción de fármacos que intervienen en estos mecanismos y que han tenido un éxito inmediato.
La introducción de la nueva tecnología de visualización cerebral ha representado otro de los avances más productivos de esta década, ya que ahora se puede visualizar el cerebro al mismo tiempo que se registra su actividad metabólica o eléctrica mediante la tomografía de emisión de positrones, la resonancia magnética nuclear funcional, o los campos magnéticos evocados. Gracias a estas técnicas se ha empezado a entender la organización y el funcionamiento del sistema nervioso como sistema complejo, cómo el cerebro representa la información que recibe a través de sus sentidos, cómo la transforma por procesos que le son propios y cómo modifica su conducta para, en el mejor de los casos, actuar de una manera más eficiente que antes de recibir la información.
Se conocen ya muchas particularidades de cómo procesamos las percepciones, o qué factores intervienen en la memoria, el aprendizaje, el razonamiento, o el procesamiento y la producción lingüística. Gracias a la aplicación de las técnicas de neuroimagen en la psiquiatría, se ha dado nacimiento a una nueva área de investigación que empieza a dar frutos muy interesantes para la comprensión de las enfermedades mentales. Tanto en la esquizofrenia, como en la depresión o en los trastornos de ansiedad, se empiezan a conocer las alteraciones de desarrollo, de organización y de funcionamiento del cerebro.
En definitiva, la neurociencia empieza a descubrir los secretos más íntimos del funcionamiento cerebral; entre ellos, los de la percepción, la memoria y el razonamiento.

2.1.La percepción

La percepción está en el centro de cualquier teoría del conocimiento. Si la epistemología es la disciplina que estudia qué conocemos y cómo, resulta imprescindible estudiar qué y cómo se percibe, porque es a través de los sentidos que conocemos el mundo. Siglos de disquisiciones filosóficas e investigaciones científicas se han dedicado al estudio de la percepción. Y durante muchos siglos se ha creído en lo que se puede llamar "dogma de la inmaculada percepción", es decir, la creencia que la percepción nos da un acceso directo y completo a la realidad. Este dogma lo han sostenido todos aquellos que pensaban que la percepción era un proceso pasivo, es decir, que los sentidos sólo transmitían la información sensorial en el cerebro. Esta tesis es defendida fundamentalmente por los empiristas radicales, que consideran que todo el conocimiento se basa en los datos de los sentidos, y por lo tanto, necesitan que los datos sean fiables e inmaculados.
¿Cuál sería una visión dogmática moderna de la percepción? Supongamos que nos fijamos en la percepción visual. El dogma afirma que una determinada información se registra en la retina; el resultado de este proceso se envía hacia la corteza cerebral primaria, donde se procesan los primeros estadios de la información sensorial, y entonces se envía esta información hacia lo que se conoce como áreas asociativas, donde se forman las representaciones de las percepciones propiamente dichas, la aparente imagen mental, por ejemplo, de una manzana.
En este esquema, los sistemas periféricos, los órganos de los sentidos, funcionan codificando las señales que reciben según un tipo de energía: electromagnética, en el caso de la visión y el oído, química, en el caso del gusto y el olfato y electroquímica y mecánica, en el caso del tacto. Los sistemas centrales se hacen responsables de esta información para llevar a cabo los análisis y el procesamiento superior, cosa que normalmente llamamos percepción, y todos los otros procesos superiores, como el pensamiento.
A partir de aquí, explicamos que la información del mundo exterior se procesa diferenciando claramente entre las sensaciones, las percepciones y los conceptos. Para simplificarlo, diferenciamos claramente lo que llamamos datos de los sentidos, que configuran las representaciones perceptivas –los olores, las formas, las texturas, la intensidad de luz–, por un lado, y todos los otros elementos que ya forman parte de los procesos de pensamiento, lo que normalmente llamamos interpretaciones de esta información perceptiva, por el otro. Cualquier proceso superior –como lo que interpreta la percepción de una manzana como un ejemplo del concepto manzana– viene después de que los sistemas sensoriales hayan aportado una representación perceptiva más o menos completa y adecuada.
En resumidas cuentas, los datos de los sentidos son la información que aportan los órganos de los sentidos, las percepciones corresponden a la organización de estos datos en representaciones unificadas y estructuradas de las cosas que vemos, oímos, tocamos, y degustamos, mientras que los conceptos son las abstracciones que el sistema nervioso hace de estas percepciones o, según se mire, que se derivan de estas percepciones.
Supongamos que queremos explicar cómo vemos una manzana encima de una mesa. El cerebro recibe un conjunto de datos sensoriales que incluyen información del color, la forma, el movimiento, el olor, el sabor y el tacto, organiza estos datos de manera tal que configura una representación de la manzana en rasgos perceptivos y, una vez adquirida o activada la capacidad de abstracción, puede inferir que esta representación es un ejemplo del concepto manzana. De esta manera, cuándo percibamos una manzana parece como si tuviéramos activa en "el ojo de la mente" una representación de la manzana tal como es, captando lo que creemos que son las propiedades verdaderas e inherentes de la manzana: su color, su forma, su sabor verdadero.
Pero la verdad es que nuestra percepción no es una mirada en el mundo tal como es, sino un complicado conjunto de miles de procesos diferentes que construyen, más que representan, la realidad. Los estudios recientes en neurociencia de la percepción han mostrado que la percepción no es un proceso complejo, nada directo y completo. La percepción es un proceso que se produce a partir de procesos neurológicos complejos de forma extrema, que construyen la realidad, más que dar acceso a ella. Como nos han mostrado decenas de miles de experimentos en psicología y en neurociencia cognitiva, el contenido de nuestra percepción es un conglomerado de interpretaciones de la realidad, construcciones de otras realidades, explicaciones post hoc, reevaluaciones y un montón adicional de trucos de magia que el cerebro considera conveniente fabricar para optimizar nuestra interacción con el entorno.
Se tiene que reconocer que el dogma nace de una creencia bastante natural. Cuando miramos, por ejemplo, una manzana sobre una mesa, tenemos la sensación de que la mente tiene una pantalla en la cual vemos la manzana, la sensación que los ojos son fieles "copistas" de la realidad, o que observamos "como a través de una ventana". Pero no existe esta pantalla, ni los ojos son copistas, ni hay una ventana, sino que la percepción es una especie de "construcción". Aunque así le parezca al dogma, el cerebro no "observa" el mundo a través de los sentidos. No tiene una representación fiable de cómo son las cosas en realidad. El hecho de que parezca que tengo una imagen de una manzana en "el ojo de la mente" y que creemos que es una "copia" de la manzana real es una sensación ficticia de la cual no nos podemos sustraer.
Una manzana vista por una abeja es completamente diferente de cómo la vemos nosotros. El rojo de la manzana es algo que ha pasado por un proceso, no es algo dado directamente por los sentidos. La luz que viene de la manzana no contiene en ella misma la calidad de rojo hasta que el cerebro no la relaciona con la señal que proviene de los alrededores de la manzana y con otras señales que le llegan de otros procesamientos cognitivos, incluyendo la memoria. En consecuencia, el color que percibimos no es una propiedad del objeto al cual atribuimos el color; los objetos no tienen los colores que les atribuimos. Las manzanas no son rojas, sino que se ven rojas. Y eso es porque el color aparece gracias a la combinación de tres factores: las longitudes de onda de la luz reflejada por los objetos, las condiciones de iluminación y el cerebro. Cada objeto refleja la luz de su superficie de acuerdo con una combinación que consta de diferentes longitudes de onda. Sin embargo, las longitudes de onda específicas que se reflejan no son constantes, dependen de las condiciones de iluminación. Así, es posible que una manzana refleje unas longitudes de onda por la mañana que sean diferentes de las que refleja por la tarde y, sin embargo, continuaremos viendo la manzana del mismo color. Tampoco la reflectancia, la combinación de longitudes de onda, sirve para determinar un color, ya que dos reflectancias diferentes pueden ser vistas del mismo color, o dos iguales pueden ser vistas de diferente manera. Es más, las categorías en torno a las cuales distinguimos los colores siguen unos patrones mucho particulares, en los cuales hay colores que son los importantes, llamados focales, como el verde, el rojo, el amarillo, el azul, y colores intermedios, que se perciben como variaciones de estos colores focales, y no como colores diferentes, que es lo que correspondería.
En pocas palabras, el color, en tanto que percepción, es una combinación del cerebro y el mundo. Y por extensión, todas las percepciones sólo tienen sentido cuando englobamos el mundo y el cerebro. Teniendo en cuenta eso, las percepciones nacen de la combinación entre el sistema cognitivo, el mundo, y el pasado perceptivo del individuo. El mundo aporta los objetos y el cerebro aporta todo aquello necesario para discriminar los rasgos relevantes de la percepción. Eso quiere decir que discriminar el rasgo rojo de la manzana que vemos nace de las propiedades físicas de la superficie de la manzana, de la luz que emite, de ciertos procesos del cerebro y de los rojos que hemos discriminado en el pasado. Para la percepción de rojo es necesario tanto el mundo como el cerebro.
Todo eso parecería dar la razón a los racionalistas, que basan el conocimiento en un pretendido conocimiento innato y, por lo tanto, podrían interpretar que la construcción de la percepción se hace sobre la base de este conocimiento innato. Nada más lejos de la realidad. La percepción es una construcción que se hace sobre la base de ciertas predisposiciones innatas, pero es fuertemente dependiente de la experiencia. De hecho la percepción es activa en el doble sentido: los datos de los sentidos son procesados por el cerebro, pero el cerebro está condicionado por los datos de los sentidos. Es más, los procesos perceptivos que llevan a cabo la construcción de la realidad son inaccesibles a la introspección, son procesos neurológicos básicos que tienen poco que ver con los principios racionales del conocimiento perceptivo. En consecuencia, nos hace falta el estudio neurocientífico para descubrir estos procesos inconscientes.
De hecho, es muy importante tener en cuenta, además, que esta "construcción" que hacemos en cada percepción depende de nuestro pasado perceptivo. Cuando un recién nacido mira una manzana, no ve nada concreto, apenas formas y colores inespecíficos. Después de unos meses, el lactante ya ve unas manchas de colores, y unas formas más definidas, y a medida que se hace grande va viendo nuevas cosas, hasta que después de ser conceptualmente y lingüísticamente competente puede decir "qué manzana más roja". A pesar de que el cerebro es el mismo en todas estas fases, lo que ve el niño no es lo mismo, no tiene las mismas percepciones en todos los casos. No hay nada que sea universal en la percepción que corresponda a la percepción de manzana o de rojo. Si dos individuos miran la misma manzana, los dos verán la manzana de manera diferente, porque tienen un pasado perceptivo diferente. No es lo mismo que un director de orquesta y un analfabeto musical escuchen la misma pieza de música.
Movimientos sacádicos
En la retina tenemos un área llamada fóvea, que es la única zona que permite la visión en color de gran agudeza; es el área que, por ejemplo, usamos para leer. Se trata de un área muy pequeña, y por lo tanto el campo de visión que podemos usar para mirar con precisión es muy pequeño. El resto de la retina permite una visión panorámica, pero, por el contrario, la sensibilidad para los detalles del resto de la retina es muy pequeña. Para compensar la pequeñez del campo de visión, los ojos se mueven de un lado al otro muy rápidamente muchas veces por segundo con el objetivo de que la fóvea se pueda dirigir hacia diferentes puntos. Los ojos de una persona normal experimentan estos movimientos, llamados sacádicos, más de 100.000 veces al día. Cada movimiento sacádico dura entre 10 y 80 milisegundos. Entre dos movimientos sacádicos, los ojos se fijan en un punto durante dos o trescientos milisegundos. Por lo tanto, la información que recibe la retina es un conjunto de elementos variados de forma extrema, discontinuos, erráticos y de diferentes ángulos de visión. Sin embargo, no nos damos cuenta de estos movimientos, y tenemos la sensación de ver siempre una escena estática.
¿Cuál es la infraestructura neuronal de la percepción? Si seguimos en la percepción visual, lo que sabemos es que, estimulados por la luz, los fotorreceptores de los ojos (los conos y bastones de la retina) generan unas señales que, después de algún proceso, entran a la corteza visual en una zona llamada V1, en el área occipital (la más posterior) del cerebro. Si esta área del cerebro se destruye, por un traumatismo, un infarto o una hemorragia, la persona se convierte en ciega, por muy bien que tenga los ojos.
A partir de aquí, las señales continúan adelante hacia la parte frontal del cerebro a través de más de treinta áreas con diferentes especialidades funcionales. Estas áreas se pueden dividir en dos grandes vías que funcionan en paralelo, que reciben el apelativo de vía del dónde y vía del qué, en referencia a la simplificación de sus funciones: una se orienta a identificar el tipo de cosa que percibimos ("la vía de qué") y la otra se orienta a identificar la vía de la situación de la cosa ("la vía del dónde").
  • La vía del dónde incluye extensas zonas del lóbulo parietal, que está en la parte superior del cerebro. Estas áreas, como la llamada MT, procesan selectivamente elementos espaciales como el movimiento, la velocidad, la dirección del movimiento, y la relación espacial entre los objetos. Cualquier lesión en una de estas zonas puede provocar que la persona sólo pueda ver, por ejemplo, objetos que están estáticos, de manera que cuando se empiezan a mover, desaparecen completamente de su experiencia visual.

  • La vía del qué incluye áreas del lóbulo temporal, localizado en la parte profunda del cerebro. Algunos de sus múltiples subcomponentes, como la llamada área V4, procesan selectivamente elementos como el color, el contraste, la orientación y la configuración geométrica de los objetos. En los humanos, además, tenemos un área específicamente dedicada al procesamiento de las caras. Una lesión en la zona implicada en el proceso del color provoca que la persona se quede ciega para los colores.

A partir de aquí, las dos vías se dirigen directamente al lóbulo frontal, en la parte anterior del cerebro, donde los procesos de las dos vías se integran.
Como vemos, no percibimos los objetos en su entorno de modo unitario, sino que descomponemos los objetos y los escenarios en un montón de componentes entre los cuales están el color, la forma, el movimiento y muchos más. ¿Qué principios tenía el dogma que se han cambiado a causa de lo que ya conocemos de la percepción?
Desarrollo de percepción de objetos animados e inanimados en los niños
Uno de los grandes retos de la percepción de un niño es separar las partes del estímulo visual en objetos separados. En ciencias naturales, la información del objeto es frecuentemente ambigua, poco especificada, cambiando continuamente. El sistema perceptivo tiene que desarrollar la habilidad para definir los límites de los objetos, llenando con información que falta. Y esta información no nos viene desde el nacimiento. Por ejemplo, hasta los nueve meses los niños a menudo dejan de buscar objetos que vuelan pero que se esconden delante de sus ojos, o no se extrañan cuando dos objetos diferentes se mueven como si fueran uno. Aunque el recién nacido parece tener alguna idea implícita sobre qué es un objeto, como que es sólido y tiene una unidad espaciotemporal, no es hasta el segundo año de vida cuando los niños perciben los objetos como los adultos. Además de objetos inanimados, el mundo del niño también está habitado por objetos animados, como sus padres y hermanos. Y por los últimos estudios, parece que los niños nacen con ciertas predisposiciones para atender a otros seres humanos, pero que necesitan estímulos sociales para desarrollarse correctamente. Desde los 3 meses, pero no antes, los niños miran en la dirección de la mirada (cuando no va dirigida a él mismo) de otra persona. Desde los 12 meses, los niños interpretan la conducta de los adultos en términos de sus objetivos y deseos.
Las investigaciones recientes están haciendo temblar cuatro de los pilares básicos del dogma, que son:
1) Unidireccionalidad: la percepción, según el dogma, es un proceso llamado bottom-up (de abajo a arriba) y no puede recibir influencias top-down (de arriba abajo).
2) Unimodalidad: cada modalidad sensorial (visión, oído, tacto, etc.) procesa su información sin interacciones relevantes con otros sentidos.
3) Salto conceptual: la percepción implica un análisis conceptual de los estímulos sensoriales que no está presente en el procesamiento sensorial más primario.
4) Transparencia: la percepción es una especie de observación directa de la realidad.
Pues bien, hay muchas investigaciones que se están llevando a cabo en neurobiología del desarrollo, neurofisiología y neuropsicología cognitiva que, entre otras cosas, muestran que hay una interacción intensa entre los estadios inicial y final del proceso perceptivo, que hay una transferencia de información necesaria y constante entre diferentes modalidades sensoriales en el proceso sensorial primario, y que en los procesos iniciales del procesamiento sensorial encontramos ciertos procesos que tendrían que ser considerados propiamente conceptuales. Veamos-lo por separado.
2.1.1.¿Unidireccionalidad de la percepción?
Los neuroanatomistas han sabido siempre que hay vías que se proyectan sobradamente desde áreas superiores, asociativas, del cerebro en áreas corticales inferiores. Es cierto que los detalles de las conexiones, fisiológicos y anatómicos, entre estas áreas perceptivas están todavía en proceso de descripción. Sin embargo, es un hecho que la investigación anatómica ha mostrado que, por ejemplo, las vías ascendentes desde la retina en las áreas corticales y otros centros más superiores en la jerarquía del proceso perceptivo se corresponden con vías descendentes desde áreas superiores a las inferiores y llegan incluso al nivel de la retina. El sistema visual de los mamíferos consiste, de hecho, en un gran número de áreas corticales interconectadas por muchas vías, algunas de las cuales pueden ser caracterizadas como bottom-up (de abajo a arriba) y otras como top-down (de arriba abajo). Es más, las proyecciones bottom-up constituyen sólo una minoría de todas las sinapsis que viajan hacia las áreas corticales, mientras que las conexiones top-down parecen más abundantes y difusas.
Sin embargo, estos hechos anatómicos han sido ignorados desde el punto de vista de los procesos perceptivos. Como máximo, se ha propuesto que las proyecciones top-down servían sólo como una especie de influencia moduladora. Eso es así porque, de acuerdo con la hipótesis del dogma que se conoce como tesis de la impenetrabilidad de la percepción, la percepción es un proceso bottom-up y no puede recibir influencias top-down. La hipótesis afirma que los procesos cognitivos superiores, los sistemas de creencias y conocimiento, no tienen impacto en el procesamiento de los sistemas sensoriales y motrices, porque los sistemas sensoriales son impenetrables.
Contra esta conclusión, pruebas empíricas indican que las áreas superiores afectan al contenido de los sistemas sensoriales y motores de manera directa. La corteza primaria no se puede entender ya como una estación de interconexión donde cierta información se procesa y se redirige hacia otras partes de la corteza. Hay un juego dinámico de interacción entre las áreas sensoriales primarias y los centros perceptivos superiores.
En humanos, algunos estudios sugieren que la percepción de ciertos estímulos de alto nivel necesitan la actividad simultánea de regiones primarias (el área MT) y áreas asociativas superiores (el lóbulo frontal). Estas investigaciones ha encontrado una red de procesos cerebrales que implican expectativas top-down (esperar, por ejemplo, seguir encontrando un conejo después de que pase corriendo por detrás de un boj) y datos bottom-up como procesamiento simultáneo. Todos estos procesos pueden contribuir a la habilidad de formar distinciones perceptivas, y favorecer interpretaciones top-down donde la percepción se determina por el conocimiento previo de los estímulos.
Además, la búsqueda neurocientífica en tareas "de imaginación mental" (donde se pide a los sujetos que imaginen un objeto determinado y que lo muevan de manera imaginaria) ha demostrado que la corteza visual primaria, V1, está a menudo activa junto con otras áreas visuales primarias, aunque no hay información sensorial que venga del exterior, ya que el sujeto sólo imagina el objeto. Por ejemplo, cuándo se hacen tareas de imaginar objetos en movimiento, la corteza motora primaria M1 (un área que se ocupa de procesar la información de movimiento de los objetos) está activa junto con otras áreas motores. De manera similar, las tareas de imaginación motora no sólo activan áreas motores primarias, sino que además estimulan neuronas espinales (a la altura de la columna vertebral) y producen movimientos de los brazos y las piernas, e incluso puede cambiar el ritmo respiratorio y cardiaco. Por ejemplo, cuando tiradores de élite se imaginan que están disparando con su arma, todo su cuerpo se comporta de manera similar a cómo normalmente lo hacen cuando disparan de verdad. Estos experimentos se han visto corroborados en tareas de imaginación auditiva, donde la activación se ha observado en la corteza primaria auditiva.
Todos estos resultados refuerzan la idea de que la percepción no puede ser vista como un proceso bottom-up en el que cada estadio es independiente del siguiente. Los resultados indican además que los procesos top-down y bottom-up se coordinan para alcanzar una percepción eficaz.
2.1.2.¿Especificidad modal de la percepción?
Muchos libros de texto de percepción consideran cada modalidad sensorial -la visión, la audición, etc.- como un procesamiento aislado, como si cada modalidad sensorial procesara su información sin interacciones relevantes con otros sentidos. Sin embargo, la integración entre diferentes modalidades no es sólo un fenómeno común al cerebro, sino que es un prerrequisito para muchos tipos de percepción y conducta. Evidentemente, el dogma no cuestiona que en un nivel superior, al final del proceso perceptivo, hay una integración entre las diferentes modalidades (de manera tal que el concepto de rosa incluye rasgos olfatorios y visuales). El dogma afirma que la integración sucede, pero siempre después del proceso sensorial, y que por lo tanto el proceso sensorial respeta las fronteras modales.
La integración transmodal de rasgos multisensoriales (por ejemplo, visuales y auditivos) es uno de los ejemplos que rompen el dogma. En la integración transmodal dos o más modalidades se integran en el mismo proceso. Muchos estudios sugieren que la integración transmodal no es sólo un hecho, sino que además es necesario en los estadios perceptivos primarios.
Ejemplos de percepción transmodal
Uno de los ejemplos más famosos es el efecto McGurk, donde en una presentación de vídeo los experimentadores superponen los movimientos de los labios de un personaje, que pronuncia un fonema, en una información auditiva de un fonema diferente. El resultado es que quien mira la cinta de vídeo oye un tercer fonema (por ejemplo, el sonido fonémico /ba/ junto con el movimiento de los labios pronunciando /ga/ se percibe como /da/). En el efecto del ventrílocuo (cuando alguien habla sin mover la boca, pero hay otro sujeto que mueve la boca sin hablar) la percepción auditiva se siente en un lugar diferente de donde se produce. La alteración de los sonidos del roce de dos manos provoca que el sujeto perciba la textura de la piel de las manos de manera diferente, mientras que cambiando el color de las bebidas se puede alterar la percepción de su olor. En este experimento, cuarenta catadores expertos fueron engañados por los experimentadores y les coloraron un vino blanco de manera tal que parecía un vino tinto. Pues bien, los cuarenta describieron los olores de los vinos con rasgos característicos de los vinos tintos.
Los efectos transmodales no están restringidos a las modalidades auditivas. Entre otros, hay estudios que han encontrado que el colículo superior integra rasgos de tres modalidades sensoriales diferentes -visión, audición y sensación corporal-, y otros experimentos han demostrado que la percepción visual puede estar alterada por el sonido. La integración transmodal es, pues, la regla, y no la excepción.
Finalmente, hay estudios recientes que son incluso más intrigantes, dado que sugieren que todos los procesos perceptivos pueden estar modulados y afectados por estímulos emocionales. Se ha mostrado que la amígdala, una estructura cerebral dedicada al proceso de los estímulos emocionales, puede influir directamente en la percepción visual. El estudio ha mostrado por primera vez que los sistemas perceptivos están sintonizados en la significación de los estímulos y requieren mucha menos atención o esfuerzo que los estímulos neutros. Así, han visto que palabras con significación emocional (muerto, sangre, miedo) se perciben más rápidamente que las que tienen significación neutra (silla, carretera, etc.).
2.1.3.¿Fronteras entre percepción y cognición?
El dogma afirma que los procesos sensoriales básicos no implican un análisis conceptual de la información, mientras que los procesos superiores de las percepciones sí lo implican. Así, podemos decir que una percepción de manzana comporta un tipo de juicio, análisis conceptual, pero la sensación de una manzana, en sus rasgos puramente sensoriales de 'rojo', 'redondo', etc., no contiene estos aspectos más conceptuales. De alguna manera, el dogma diría que la sensación de manzana es siempre la misma independientemente de las capacidades cognitivas que tiene el individuo.
En efecto, el dogma distingue tradicionalmente entre la idea de sensación y la de percepción. Aunque es difícil establecer esta distinción de manera precisa, quizás lo que es común a todas variaciones del dogma es que hay una distinción clara entre un primer estadio, lo que se conoce como sensación, y un estadio cognitivo llamado percepción. Más concretamente, la transducción de energía física (sonido, luz, presión, etc.) del entorno que se convierte en códigos y señales neurales correspondería a la sensación. Esto se tendría que diferenciar de la interpretación de estas señales y códigos que es lo que correspondería a la percepción. Por lo tanto, mientras sentimos luces, sonidos, sabores, olores y roces, percibimos un helado de chocolate o una copa de Borgoña ligeramente frío.
No obstante, hay pruebas empíricas que parecen crear a esta tesis muchos problemas. No sólo hay influencias superiores en los procesos perceptivos, sino que algunas de las propiedades que se consideran propiamente perceptivas pueden ser llevadas a cabo por procesos sensoriales. Estudios recientes crean, por ejemplo, un gran problema para modelos actuales de procesamiento visual. En particular, implican que gran parte de la categorización puede ser hecha por subsistemas visuales.
De manera similar, otras investigaciones han mostrado que incluso los sistemas de creencias, conocimiento, atención y conciencia modulan de alguna manera u otra la percepción. Por ejemplo, la representación conceptual de estímulos perceptivos ambiguos provoca cambios en el procesamiento sensorial primario. En audición, cuando los experimentadores hacen creer a los sujetos experimentales que están oyendo diferentes hablantes en una cinta de audio, los sujetos tienden a establecer diferencias entre los diferentes sonidos, aunque sean producidos por una sola persona. Por contra, cuando creen que sólo un hablante está produciendo los sonidos, las diferencias sensoriales se reducen y las tratan como si fueran cambios de énfasis del hablante. En consecuencia, cada interpretación produce un tipo de procesamiento sensorial que es apropiado para una conceptualización particular del mundo.

2.2.La memoria

Es natural preguntarse por qué es importante el funcionamiento de la memoria para una teoría del conocimiento. Que casi todo nuestro conocimiento está en la memoria no lo duda nadie. Para tener el pensamiento "estoy mirando una salida de sol en el mar muy bonita" tenemos que acceder, aunque sea inmediatamente, a la memoria para saber que aquello es un sol, que aquello es el mar, y que como el sol sale por el este y estamos en Barcelona, entonces aquello es una salida de sol. Sin memoria tampoco podemos saber que la expresión salida de sol es equivocada, porque aunque nos parezca que el sol sale por el horizonte y se desliza por el cielo, sabemos, por el conocimiento delegado de los astrónomos que tenemos en nuestra memoria, que es la Tierra la que da vueltas alrededor del Sol. Todo eso es sabido, pero a la vez es intuitivamente irrelevante para una teoría del conocimiento.
El hecho, sin embargo, es que la naturaleza del conocimiento depende de los mecanismos de nuestra memoria. Ponemos un ejemplo cultural, pero relacionado con la memoria individual de cada persona: un esquimal que ha nacido y vivido entre esquimales en un entorno esquimal puede diferenciar más de cuarenta tonos de blanco en la nieve, y ser consciente de ello, mientras que para cualquiera no esquimal le es imposible, aunque sus ojos y su cerebro funcionan igual. Y eso depende de la memoria del esquimal, que ha codificado los tonos de blanco durante toda su infancia. El concepto de blanco, por lo tanto, no es lo mismo para un esquimal que para un no esquimal. ¿Cuál tendría que ser el concepto de blanco universal para todos los humanos?
Otro ejemplo de una psicóloga de la memoria que ha tenido muchas consecuencias legales. Elizabeth Loftus pasó un vídeo de un accidente de tráfico a un grupo de personas. Después los dividió en dos grupos. A uno le preguntó a qué velocidad aproximada iba el coche que chocó contra el otro, mientras que al otro grupo le preguntó a qué velocidad aproximada iba el coche que aplastó al otro coche. Pues bien, sólo con esta pequeña diferencia los que respondieron a la segunda pregunta dieron una velocidad mucho más elevada que la que expresaron los que respondieron a la primera. Una semana después les preguntó si habían visto cristales rotos. Los que habían contestado la segunda pregunta dieron una respuesta positiva muchas más veces.
¿Qué quiere decir todo esto? Que el conocimiento humano no es un simple acto de acceder a un conjunto de datos del mundo (como presenciar un accidente) o de nuestro conocimiento innato (como se ha dicho de los colores), registrarlo y descodificarlo cuando lo necesitamos, sino que es un proceso elaborativo y constructivo, que se modula por nuestra experiencia y por la manera en que codificamos la información en nuestra memoria. Y si eso no lo tenemos en cuenta, nuestra teoría del conocimiento puede quedar coja.
Porque, de hecho, la manera intuitiva de entender la memoria es que esta es como un almacén donde guardamos nuestro conocimiento cuando no lo usamos. Esta noción de almacén implica que el aprendizaje es una acumulación de recuerdos que recoge conocimiento no interpretado. Por lo tanto, la concepción de recordar lo que le correspondería se entendería de la siguiente manera: cuando necesitamos un tipo de conocimiento, consultamos el almacén de la memoria y sacamos la información de las "estanterías" cerebrales donde se guarda la información.
Esta concepción de memoria es atractiva, pero equivocada. No hay estanterías en la memoria, ni la información se guarda en archivadores. Si os preguntamos cuál es la última vez que vuestra madre os riñó, e intentáis recordarlo, vuestra memoria no buscará en la estantería de la M para encontrar madre y en la de la R para encontrar reñir, de manera tal que si la memoria se equivoca buscando la entrada en el archivador acabáis recordando cuándo fue la última vez que os "rebozasteis" en la "mierda".
Para comprender mejor la memoria, tenemos que ir más allá del mito de que la memoria trabaja como una cámara de vídeo, pasivamente, recordando los detalles de nuestra experiencia pasada. Por contra, la organización de la memoria depende de la manera en que nuestras experiencias personales significan para nosotros. Recordar es un proceso de elaboración; no accedemos a una información estática, sino que la construimos. Por ejemplo, si os pedimos que recordéis el incidente con vuestra madre a fin de que me expliquéis cómo os sentisteis, vuestro recuerdo será construido desde la perspectiva personal. Si os pedimos que recordéis el incidente, pero que nos describáis qué objetos había en la habitación donde os riñeron, entonces es posible que adoptéis una posición de observador externo, incluso es posible que os "veáis" desde fuera, como una parte de la escena, a la hora de recordar. La manera de revivir nuestro pasado depende, entre muchas otras cosas, del objetivo que tenemos al recordar. No reproducimos los recuerdos, los construimos.
La naturaleza reconstructiva de la memoria provee de claves sobre su fragilidad, y algunas de ellas han llegado a provocar problemas de cariz social. El caso de la recuperación de recuerdos traumáticos de abusos experimentados en la infancia es uno de ellos: en los Estados Unidos, la voluntad social de revelar casos de abusos que por vergüenza y presiones se habían mantenido ocultos provocaron la desmesura de intentar extraer estos casos de la memoria de muchas personas. Durante los años noventa se hizo popular la aparición de casos que se habían "extraído" de la memoria reprimida de muchos niños, adolescentes y adultos. Poco a poco, muchos de estos casos se revelaron como una construcción fantasiosa de muchos de los que los confesaban, quizás por la voluntad de satisfacer a los terapeutas y la necesidad de encontrar solución a sus problemas psicológicos. Los efectos de ignorar que la memoria es frágil y reconstructiva fueron devastadores. Por un lado, muchos casos reales quedaron en suspenso, y por el otro, muchas personas fueron acusadas falsamente, sus vidas, destrozadas y las familias, rotas.
Sin embargo, la naturaleza reconstructiva de la memoria no pasa sólo en el momento de recordar, sino también en el momento de guardar la información. Y este proceso de codificación de la información es igualmente elaborativo. ¿Cómo codificamos la información que guardaremos a la memoria? La respuesta más segura es que la selección depende del tipo de manipulación de la información que se ha hecho a la hora de registrarla en el cerebro. Pero si queremos ir un poco más allá, el primero y más importante es que el tipo de codificación de la información que recibimos, que vivimos, depende de nuestra motivación en el momento de la codificación. Generalmente, los humanos tenemos un registro de codificaciones que tienen que ver con nuestras necesidades: alimentarse, socializar, reproducirse, evitar peligros, etc. Estas motivaciones hacen que un individuo tienda a recordar mejor en un supermercado dónde está la comida, que a recordar la tipografía de los carteles anunciadores. Sin embargo, y de manera particular, las motivaciones de cada individuo en la sociedad humana son muy diversas y cambiantes. Quizás hay alguien, especialista tipográfico, que en algún momento de su vida, sin hambre y con intereses profesionales, recuerda mejor la tipografía de un supermercado que el lugar donde están sus galletas favoritas.
Otros factores que afectan a la codificación de la memoria son, por ejemplo, el nivel de estrés y ansiedad. El estrés por él mismo no es una enfermedad, ni un mal funcionamiento; el estrés es un sistema de preparación y alerta del organismo para enfrentarse a situaciones que requieren nuestra total atención. Un accidente inminente, una amenaza, un reto, como hablar en público, hacer un examen o casarnos. Si el estrés no se convierte en crónico y/o no es excesivo, aporta siempre beneficios. Por ejemplo, cuando tenemos que estudiar para examinarnos, hace falta que nuestro organismo esté en estrés. Se ha demostrado que si no estamos un poco "estresados" la memoria funciona deficientemente, de la misma manera que si estamos demasiado "estresados". Por lo tanto, el mismo conocimiento lo podemos adquirir de manera diferente según el nivel de estrés en el cual estamos.
Otro factor que importa en la codificación de la memoria es el contexto en que memorizamos. Una anécdota frecuente es la de encontrarnos por la calle con alguien que sabemos que conocemos mucho pero que no sabemos recordar quién es, hasta que conseguimos situarlo en el contexto: es el carnicero, o alguien con quien viajamos cada día en el metro, etc. El conocimiento está guardado en la memoria asociado a un montón de circunstancias relacionadas con su codificación. Algunas no se harán nunca explícitas, pero estarán siempre.
Todo lo que hemos dicho sobre la naturaleza elaborativa y reconstructiva de la memoria no quiere decir que la memoria no sea fiable, sino que tenemos que conocer cómo funciona para saber cuáles son sus limitaciones, sus errores sistemáticos y sus fortalezas. Así, podemos siempre completar, ayudar a la memoria, consiguiendo un contraste externo, suspendiendo el juicio en casos difíciles, etc.
Pero ¿qué conocemos de la memoria? Clásicamente, los procesos de memoria se dividían en memoria a corto plazo y memoria a largo plazo.
a) Memoria a corto plazo
Sin embargo, la memoria a corto plazo ha ido perdiendo terreno frente a la memoria operativa o memoria de trabajo. La memoria de trabajo comprende un sistema muy complejo, donde está el funcionamiento operativo en el cual se incluye la manipulación de la información sobre nuestra experiencia actual. La memoria de trabajo tiene capacidad y duración limitadas. En general se acepta que puede retener siete más/menos dos unidades de información durante 20 segundos, es decir, que podemos mantener uno número de teléfono nuevo en la mente, sin escribirlo, ni repetirlo, durante 20 segundos. Tiene un sistema ejecutivo central, que es en realidad un mecanismo de control de atención encargado de seleccionar las estrategias para procesar la información de entrada. Por lo tanto, tiene un papel importante en las tareas cognitivas esenciales: aprendizaje, razonamiento y comprensión. En cambio, su capacidad de almacenaje es muy limitada y, cuando se ve superada, apela a mecanismos como la repetición verbal de la información, conocido científicamente como bucle fonológico.
b) Memoria a largo plazo
Cuando hemos elaborado la información, entonces la memoria crea un registro que se conoce como engrama. Engrama es el conjunto de cambios neuronales que se producen en los circuitos cerebrales que procesan la información que se tiene que registrar. Los engramas comprenden cambios bioquímicos y estructurales más o menos permanentes en los circuitos neuronales participantes. En líneas generales, representan una modificación de la eficacia sináptica de estos circuitos.
Los engramas no tienen localización cerebral, sino que están repartidos por todo el cerebro. La investigación en neurociencia ha mostrado que los recuerdos no están almacenados en ningún lugar en concreto del cerebro. Los elementos que requerimos para reconstruir el pasado están repartidos en remiendos de diferente naturaleza y contenidos en muchas partes del cerebro, que las tiene que encontrar y poner en común cuando se necesitan.
Los engramas conforman lo que hemos llamado memoria a largo plazo. Este sistema tiene una capacidad esencialmente ilimitada que permite almacenar grandes cantidades de información. Contiene nuestros recuerdos autobiográficos, el conocimiento del mundo real y de sus representaciones a través del lenguaje y sus reglas y del significado de los conceptos.
Los neurocientíficos no han tenido bastante en considerarlo un sistema único, sino que su complejidad extraordinaria han hecho necesarias algunas distinciones adicionales. En general, se ha dividido en dos subsistemas: la memoria explícita, también conocida como memoria declarativa, o memoria del saber qué, y la memoria implícita, o no declarativa, o memoria del saber cómo.
  • La memoria explícita comprende la memoria de la información general, de los conocimientos, denominada memoria semántica, y la memoria de la autobiografía, de los hechos vividos personalmente contextualizados en el tiempo y el espacio, que es la memoria episódica.

  • La memoria implícita, que es la memoria de los procedimientos, como las habilidades motores (conducir un coche, atarse los zapatos, etc.) y de las disposiciones, que se denomina memoria procedural o procedimental.

Amnesia anterógrada
En 1953, un paciente de 27 años conocido como H. M., que sufría de una epilepsia grave resistente a cualquier tratamiento, fue sometido a una operación neurológica para tratar de detener los ataques. El cirujano le seccionó la parte más profunda de los dos lóbulos temporales. Cuando se recuperó de la operación, los médicos se sorprendieron porque H. M. presentaba lo que se conoce como una amnesia anterógrada grave. El sujeto era incapaz de aprender nada de nuevo, o de recordar nada nuevo que le pasara en la vida. Su cerebro había quedado incapacitado para consolidar nuevos recuerdos. A partir de aquel momento, la vida de H. M. se quedó congelada en aquella fecha de 1953. Nada de lo que ha pasado desde entonces ha pasado a ser conocimiento de H. M., ni de su vida, ni de lo que ha visto en los diarios, o en la televisión. De hecho, ahora, cuando H. M. se mira en el espejo se lleva un susto, porque para él todavía tiene 27 años, y ver la cara de un hombre anciano lo trastorna. Un caso de amnesia anterógrada ha sido llevado al cine en la película Memento.
Finalmente, no debemos olvidar el olvido, valga la redundancia. O mejor dicho, olvidar que no todo lo que registramos, elaboramos en la memoria, es accesible a nuestro recuerdo. No podemos recordar todos y cada uno de los momentos que hemos vivido en nuestro pasado, ni todas las piezas de información que hemos aprendido en algún momento. Por lo visto, nuestro cerebro sí que es capaz de tener toda esta información elaborada. Su capacidad de registro es astronómica, y acontecimientos fortuitos y casos patológicos han dado una idea de las habilidades memorísticas del cerebro. Pero cuando queremos acceder conscientemente a estos recuerdos, la cosa no resulta ser fácil, ¡para desgracia de muchos alumnos que se examinan!
La dificultad, los obstáculos al recuerdo, tienen diversas funciones. Por un lado, funciones protectoras vitales. Si recordáramos todos los acontecimientos dolorosos de nuestra vida, sería imposible de soportar, pero si recordáramos todos los acontecimientos felices, entonces no tendríamos que esforzarnos para vivir. Pero la función más importante, desde el punto de vista del conocimiento, de la dificultad para recordar es que para pensar, para generalizar, para conceptualizar es necesario ignorar las diferencias concretas de las cosas que hemos conocido. Si recordáramos todos los casos de cada cosa que hemos visto, de cada perro, y no pudiéramos generalizar, seríamos incapaces de pensar sobre los perros. La dificultad para recordar nos permite alejarnos de los detalles, generalizar, y tener un pensamiento conceptual eficaz.

2.3.El razonamiento

Son las siete de la tarde y dos hermanos, Pedro y Marta, se pelean por un juguete. La madre, que está harta de oírlos, les dice: "si queréis cenar esta noche, dejad de pelearos". Los dos hermanos, que no han comido nada desde la hora de comer, se miran y detienen la pelea. A nadie le extrañaría ver que los niños han dejado de pelearse, pero lo que es curioso es que la madre no les ha dicho explícitamente que dejaran de pelarse. Sin haber recibido ninguna instrucción en lógica de primer orden, los niños han inferido la conclusión correcta. Eso muestra el cerebro razonador "como un rayo".
Tradicionalmente, la concepción de esta capacidad razonadora de los seres humanos ha implicado la descripción normativa de una mente idealizada que llega a conclusiones racionales a partir de unas premisas y de unas reglas de inferencia. Esta descripción normativa correspondía a la lógica formal, que describía las leyes del pensamiento racional. Cualquier desviación de la corrección se ha entendido siempre como una ejecución incorrecta de estas reglas, sea por mala formalización de las premisas, o un mal uso o desconocimiento de las reglas de inferencias. Esta visión fue reforzada a mediados del siglo XX con la introducción de la metáfora del cerebro como un ordenador. Las asunciones que se hacían de este paradigma sobre la mente racional incluyen:
a) La omnisciencia lógica: eso implica que el sistema racional tiene que ser un sistema lógico cerrado, es decir, todas las consecuencias lógicas que se pueden derivar de los elementos del sistema están incluidas, asumidas, en el sistema.
b) Infalibilidad: un sistema inferencial infalible empieza a partir de un conjunto de verdades lógicas, las manipula a través de reglas válidas que preservan la verdad de la inferencia.
c) Consistencia: un sistema lógico no tiene que permitir contradicciones.
d) Reglas libres de contexto: la lógica prescinde del contenido semántico de las premisas, y de las inferencias. Es un sistema que se aplica de manera abstracta.
Sin embargo, centenares de miles de experimentos en neurociencia cognitiva que se han llevado a cabo en los últimos treinta años han mostrado que el cerebro humano no es una máquina lógica en este sentido. Sus procesos no pueden ser descritos adecuándose a la normatividad de la lógica formal.
El razonamiento humano no es lógicamente omnisciente. El razonamiento más habitual opera en presencia de conflictos entre creencias, y siempre intentamos llegar a conclusiones aunque las premisas sean incompletas o poco claras. Razonamos con errores, y establecemos mecanismos para minimizarlos.
Nuestra manera de no razonar tampoco es infalible. No siempre empezamos a partir de premisas necesarias, nuestra información es a veces falsa y/o incompleta. Tenemos que usar muy a menudo aproximaciones, estimaciones, y lo que se conoce como reglas heurísticas o también reglas a ojo, porque nos referimos a reglas creadas intuitivamente para encontrar una solución satisfactoria a nuestros problemas.
El razonamiento humano tampoco es consistente, en el sentido que podemos tener creencias contradictorias, y a pesar de eso podemos razonar correctamente gracias a reglas heurísticas.
Finalmente, el razonamiento humano es intensamente contextual. Las reglas heurísticas que usamos en algunas circunstancias no se aplican en otras que tienen la misma estructura lógica. Nuestro aprendizaje y razonamiento dependen fuertemente de las experiencias que hemos vivido y los problemas que hemos intentado resolver.
El concepto de razonamiento humano que se está dibujando a partir de los estudios de neurociencia cognitiva corresponde a un sistema complejo, que comprende aspectos como la adquisición de creencias a partir de la percepción, la construcción de un sistema de valores, la capacidad para planificar, manipular información relevante de forma contextual, descartar información irrelevante de forma contextual, el sistema de cognición social, etc.
Sin embargo, para simplificar, los mecanismos de razonamiento del cerebro humano combinan un sistema de razonamiento implícito y uno basado en reglas explícitas.
  • Por razonamiento implícito se entiende todo proceso en el que no interviene la conciencia en la manipulación de la información relevante para llegar a la conclusión.

  • El mecanismo basado en reglas explícitas es el más moderno filogenéticamente, con toda probabilidad sólo presente en los humanos, ya que depende del uso del lenguaje y de una formalización de los diversos pasos de cualquier argumentación.

Para la gran mayoría de neurocientíficos que han estudiado cómo razonamos, nuestro sistema de razonamiento explícito está basado en el uso del lenguaje. Este sistema tendría una base lógica natural en nuestros razonamientos que incorporan reglas implícitas como las que hemos descrito "si p, entonces q", pero que se potenciarían con el uso del lenguaje, lo que nos permitiría formular frases y relaciones lógicas entre los diversos elementos. Hay, sin embargo, investigadores como Johnson-Laird que afirman que no razonamos con lenguaje. Johnson-Laird defiende la posición que razonamos con lo que llama modelos mentales, que consiste más o menos en la creación de un modelo de relaciones entre los elementos en un marco visoespacial, como si nos quisiéramos imaginar un escenario con unos actores, representando también las relaciones entre ellos. La batalla entre las dos posiciones no la ha ganado todavía ninguna de ellas. De momento, hay pruebas empíricas que sostienen ambas teorías.
El mecanismo implícito es el más antiguo filogenéticamente, lo que hemos heredado de nuestro pasado evolutivo. En efecto, el cerebro, desde su aparición en la naturaleza, en las especies más antiguas y simples, se ha distinguido por su capacidad de aprender y razonar. En sus inicios, el razonamiento era muy básico, con comportamientos que se podrían describir como razonamientos inductivos sencillos, tales como: "he seguido este rastro y he conseguido comer, por lo tanto, este rastro se sigue siempre de comer". Con el tiempo, y la aparición de nuevas especies, que se enfrentaban cada vez a problemas más complejos, la evolución del cerebro ha hecho que incorpore más habilidades razonadoras, hasta llegar a las capacidades cognitivas de los humanos.
En todos los casos, el mecanismo de razonamiento implícito está basado en ciertas predisposiciones de base genética, pero sobre todo depende de las experiencias concretas que ha vivido el individuo. Es un mecanismo rápido e inconsciente y combina los análisis cognitivos con las emociones.
¿Se puede establecer una descripción de cuáles son las reglas o los mecanismos de razonamiento que utilizamos? De momento, la neurociencia cognitiva no ha conseguido establecer una lógica natural humana que se parezca a la lógica formal y que describa las "leyes" sobre las cuales trabaja el cerebro. Sin embargo, lo que sí que se empieza a conocer en profundidad, y que puede interesar a una teoría del conocimiento, son los tipos de errores o de sesgos o de reglas heurísticas que usamos casi todos los humanos y que nos apartan de un razonamiento canónico formal. Estos sesgos son inconscientes, y, por lo tanto, no son evidentes a la hora de valorar las conclusiones de nuestros razonamientos, pero están bien presentes y si no se tienen en cuenta, nuestra teoría del conocimientos se puede resentir. El estudio de estos sesgos permite a la neurociencia cognitiva acercarse cada vez más al conocimiento de nuestro razonamiento natural y, por lo tanto, saber como llegamos a las conclusiones, al conocimiento, al que llegamos cuando iniciamos un proceso de pensamiento.
Heurística
Se denomina heurística la capacidad de un individuo para encontrar una solución a un problema siguiendo reglas intuitivas, que en muchos casos no puede explicitar. La capacidad heurística es un rasgo característico de los humanos. La etimología de heurística es la misma que la de la palabra eureka, cuya exclamación se atribuye a Arquímedes. La popularización del concepto se debe al matemático George Polya, que lo introdujo en el libro How tono solve it ('Como resolverlo'). Habiendo estudiado tantas pruebas matemáticas desde su juventud, quería saber como los matemáticos llegan a estas. El libro contiene la clase de recetas heurísticas que trataba de enseñar a sus alumnos de matemáticas. Tres ejemplos extraídos del libro ilustran el concepto mejor que ninguna definición:
a) Si no conseguís entender un problema, dibujad un esquema.
b) Si no encontráis la solución, haced como si ya la tuvierais y miráis a ver qué podéis deducir (razonando hacia atrás).
c) Si el problema es abstracto, probad a examinar un ejemplo concreto.
2.3.1.Sesgos inductivos y deductivos
  • Un primer sesgo, conocido como sesgo de fijación perceptiva, se refiere a la tendencia que tenemos los humanos a usar los elementos que tenemos presentes a la hora de razonar. Supongamos que unos experimentadores nos hacen leer la siguiente regla: "si no hay un cuadrado rojo a la izquierda, entonces hay un círculo amarillo a la derecha". Entonces nos hacen escoger dos figuras geométricas y disponerlas de manera tal que hagan la regla falsa. La mayoría de nosotros lo que hace es poner un cuadrado rojo a la izquierda y un círculo amarillo a la derecha. Si siguiéramos las tablas de lógica de primer orden, lo que tendríamos que haber hecho es poner una figura que haga el antecedente verdad (no un cuadrado rojo) y el consecuente falso (no un círculo amarillo).

  • Sesgo efecto de bandwagon. Se refiere al hecho de que la gente a menudo hace y cree ciertas cosas porque los otros lo hacen. Bandwagon es, en inglés, el vagón donde viaja la banda de música en un desfile de la calle, y la expresión subirse al bandwagon se usa para referirse a la gente que sigue los dictados de la masa sin esforzarse. En español se podría decir el efecto rebaño de ovejas. El caso es que adaptativamente el hecho de "seguir lo que la gente dice" es un efecto muy potente que seguramente permite los beneficios de la cohesión del grupo frente a la coherencia de un pensamiento individual.

  • Sesgo de confirmación. Se refiere a la tendencia de los humanos a buscar o interpretar información de una manera que confirma nuestras asunciones previas. Representa un error de inferencia inductiva que nos lleva a la confirmación incorrecta de la hipótesis en estudio. Un sesgo relacionado es el de congruencia, que es la tendencia a probar hipótesis exclusivamente a través de pruebas directas e ignorar las indirectas (consultad el cuadro).

  • Sesgo de prominencia. Se refiere a la tendencia que tenemos los humanos a fijarnos en los aspectos más "sobresalientes y chillones" de un acontecimiento. A veces los aspectos más relevantes de una situación no son los más evidentes, pero los humanos nos quedamos enganchados a los elementos conspicuos.

  • Sesgo de exceso de información. Los humanos tendemos a recoger más información de la que nos es necesaria para tomar una decisión. Esta tendencia proviene de una regla heurística que dice "como mejor" aplicada a la toma de decisiones. Los ejemplos más claros de este caso suceden en el campo de la diagnosis médica. En muchos experimentos que se han hecho, los médicos tienden a recoger más información, aunque sepan que no es imprescindible, "por si acaso".

Tarea de selección de Wason
Esta tarea fue una de las primeras en descubrir el sesgo de confirmación. Se trata de un juego lógico, que se formula de la siguiente manera: "Hay cuatro cartas sobre la mesa. Todas tienen un número en un lado y por el otro, una letra del abecedario. Las cartas que tienes a la vista tienen el número 4, el 7, la letra E y la letra T". El juego consiste en preguntar cuál o qué cartas se tienen que girar para saber si la regla "si una carta tiene una vocal en una lado, entonces tiene un número par en el otro lado" se cumple. Sólo el 5% de la gente encuentra la respuesta correcta, que es decir que se tiene que girar la carta E y el 7. Si se dice sólo la carta E, se olvida que si la carta 7 tiene una vocal en el otro lado también convertiría en falsa la regla.
Una encuesta probó el sesgo de la confirmación en la idea preconcebida de la "mano caliente" en baloncesto. Está la creencia general entre los jugadores y los entrenadores que los jugadores tienen "rachas" de tiros. Sin embargo, el análisis estadístico de los tiros acertados y fallados no permite prever que un jugador falle después de un acierto o viceversa. Cuando se mostraron estos datos a los jugadores y los entrenadores, casi todos ellos encontraron irrelevante los datos y siguieron creyendo en las rachas.
2.3.2.Sesgos de probabilidad
  • El primer sesgo que podemos considerar es el que depende de nuestra facilidad de entender, de concebir, de imaginar, el acontecimiento del cual tenemos que estimar la probabilidad. Por ejemplo, cuando preguntamos a un individuo angloparlante si es más probable que una palabra empiece por la letra k o que k sea la tercera letra, el 70% de la gente que cree más probable que una palabra empiece por k, simplemente porque les es más fácil imaginarse una palabra que empiece por k, cuando de hecho hay el doble de palabras que tienen k como tercera letra.

  • Otro sesgo a la hora de estimar probabilidades es el que se conoce como el sesgo de representatividad, por el cual entre dos opciones la más representativa es la que se cree más probable. Así, si enseñamos una foto de un joven de aire deportista con un coche deportivo, y preguntamos si es más probable que sea un deportista o un administrativo, la mayoría de la gente dice que es más probable que sea un deportista, cuando en realidad es muy más probable que sea un administrativo porque hay muchos más administrativos que deportistas profesionales.

  • El sesgo conocido como el de presentación es el que se produce porque la forma de presentación más impersonal es la que se considera más probable. Si a un grupo de psiquiatras se le dice que "se estima que 20 de cada 100 pacientes similares al señor Martín cometen actos de violencia", un 41% rechaza darle el alta. Pero si se les dice "se estima que pacientes similares al señor Martín tienen un 20% de posibilidades de cometer actos de violencia", sólo el 21% rechaza darle el alta. Imaginarse a 20 pacientes con predisposición violenta no es lo mismo que pensar en porcentajes.

  • El sesgo conocido como de ajuste se refiere a la tendencia a partir de la cual los humanos estimamos la probabilidad de un acontecimiento ajustando un valor de referencia. Si preguntamos a un grupo de personas cuál es el porcentaje de países africanos en las Naciones Unidas, y añadimos el dato de "¿más o menos del 65%?", la respuesta media es del 45%. Pero si el dato proporcionado es "¿más o menos del 10%?", la respuesta es de 25%.

  • Otro sesgo es el de la contaminación vivencial. Entre dos opciones, la menos experimentada es la que parece arriesgada. Entre conducir o copilotar un avión de combate, se considera más arriesgado copilotar un avión de combate. Un sesgo relacionado es el de la contaminación emocional: como más afectivamente positiva es la concepción de una situación futura, menos riesgo se asocia; como más negativo es el posible futuro, más arriesgado se percibe, aunque tenga menos probabilidades. Por eso se considera más arriesgado la energía nuclear que el tráfico.

  • El sesgo del conservadurismo se refiere a la tendencia que tenemos los humanos a cambiar la estimación de un acontecimiento más moderadamente de lo que sería adecuado con datos que nos lo indican. Por ejemplo, presentamos a un grupo de personas dos bolsas, una con 30 bolas blancas y 10 de negras, y la otra con 30 negras y 10 blancas, sin que los individuos sepan cuál es cuál. Les hacemos escoger una de las dos bolsas al azar, sacamos cinco bolas y salen 4 blancas. ¿Cuál es la probabilidad de haber escogido la de bolas blancas? La respuesta intuitiva se aproxima al 0,7-0,8, mientras que la de cálculos de probabilidades llega al 0,96.

  • Un sesgo relacionado es el de la aversión a la ambigüedad, según el cual entre dos opciones, aquella que tiene la probabilidad conocida es la preferida.

  • Finalmente tenemos el sesgo del exceso de confianza. Los humanos tendemos a hinchar nuestras capacidades. Estimamos una eficacia del 100%, cuando la real es del 80%; estimamos un 90%, cuando la real es del 75%; y un 80%, cuando la real es del 65%.

El papel de las emociones
Aunque clásicamente se hace una división estricta entre razón y emoción, los estudios del cerebro nos indican que los procesos emocionales son una parte fundamental de toda actividad razonadora. Antonio Damasio fue uno de los pioneros en descubrir que el cerebro utiliza tanto la cognición más abstracta como las emociones en el razonamiento. Muchos de sus pacientes que tenían alterada la capacidad para sentir emociones, o para interpretarlas, razonaban de manera tan deficiente, que a pesar de ser capaces de hacer operaciones aritméticas complejas y seguir los pasos de un silogismo deductivo, eran incapaces de valerse por ellos mismos. Tomaban riesgos innecesarios, incluso ante información detallada sobre los posibles peligros.

3.Panorama histórico

El naturalismo es la tradición filosófica que ha adoptado la perspectiva de situar las ciencias empíricas, en general, y el estudio del cerebro, en particular, en el centro de la teoría del conocimiento. Y por epistemología con el adjetivo naturalista se conoce un acercamiento a la teoría del conocimiento que ensalza la aplicación de los métodos, los resultados y las teorías de las ciencias empíricas. Se opone a las perspectivas que promueven un análisis a priori conceptual, o que insisten en que el conocimiento es independiente de los detalles científicos del funcionamiento del cerebro. Las variedades de epistemología naturalista difieren en términos de la manera de conceptualizar la relación entre la ciencia empírica y la epistemología, como hemos mencionado al inicio del módulo.

3.1.Willard van Orman Quine

Aunque el acercamiento naturalista a la epistemología se identifica con muchos autores de la historia de la filosofía, el representante moderno sobradamente aceptado es W. V. O. Quine, que opuso a la filosofía tradicional lo que llamó epistemología naturalizada. La epistemología tradicional tiene el objetivo de mostrar al escéptico cómo, desde fundamentos indudables, podemos derivar nuestro conocimiento del mundo a través de argumentos válidos. Quine argumentó contra esta posición que no se pueden establecer derivaciones que nos lleven de la estimulación de nuestros sentidos al conocimiento de las cosas del mundo. Pero como no tenemos nada más que la estimulación de nuestros sentidos, y de hecho llegamos a conocer el mundo, entonces el proceso no puede ser derivación teórica. Quine entonces propone la manera de entender este proceso: "¿Por qué no optamos por la psicología?", se pregunta. En consecuencia, la tarea epistemológica se convierte en investigación científica. En el ensayo Epistemología naturalizada, propone la epistemología como un "capítulo de la psicología".
El giro naturalista propuesto por Quine articula, por lo tanto, una transición del programa epistemológico tradicional a la psicología. La epistemología pasa a estudiar un fenómeno natural: el sujeto humano físico. Lo que se tiene que estudiar es el proceso entre el input que recibe un sujeto y el output que da en forma de aserción sobre este estímulo. La epistemología antigua aspiraba a contener la ciencia natural construyéndola sobre la base de los sentidos. En cambio, la nueva epistemología propuesta por Quine está contenida en la ciencia natural.
La posición de Quine repone sobre la tesis del holismo epistémico o tesis de Duhem. Lo que se conoce bajo este nombre es en realidad una idea que se desprende de la obra del físico, historiador y filósofo de la ciencia francés Pierre Duhem, que fue ampliada y radicalizada por Quine. Supone que no se puede someter a prueba experimental cada enunciado teórico de forma aislada, ya que cada uno se sostiene en un sistema de creencias que conforman un todo. Es este sistema lo que constituye la unidad de contraste empírico, y es eso lo que lleva a la formulación más fuerte de su tesis: "unos mismos resultados experimentales pueden ser descritos por un número infinito de teorías diferentes e incluso incompatibles entre ellas". Quine lleva al extremo esta tesis, al salir del campo restringido de la física y extenderla a la cuestión del conocimiento del mundo en general, comprendiendo la lógica misma y la matemática.
Quine afirma que sólo hay dos maneras de acercarse al problema. Una es el estudio psicológico de cómo la gente produce un output teórico desde un input, y la otra es la reconstrucción lógica de nuestro vocabulario teórico en términos sensoriales. Según Quine, el segundo acercamiento no puede tener éxito, y, por lo tanto, nos quedamos con la psicología. Este acercamiento nos puede facilitar la comprensión de cómo conocemos, a través de los mecanismos cerebrales y de sus fallos. Así, por ejemplo, se refiere habitualmente a los problemas que ya hemos visto sobre cómo razonamos de manera incorrecta, de cómo el cerebro construye la percepción, y de cómo todo eso demuestra la falibilidad de nuestros juicios epistémicos.
El conocimiento es, por lo tanto, un fenómeno natural, el resultado de un proceso natural mediante el cual la estimulación sensorial lleva a tener teorías sobre el mundo. Para comprender la conexión entre la estimulación y las teorías, tenemos que estudiar el proceso de manera científica. El punto fundamental no es reconstruir la transición, sino comprender cómo sucede. La epistemología naturalista de Quine está, por lo tanto, contenida en la psicología como una subdisciplina. Pero también hay un sentido en que la epistemología naturalista contiene el resto de la ciencia. Nuestras teorías y creencias sobre el mundo, que constituye nuestra ciencia, son una parte de la materia que estudia la epistemología. Como se contienen la una a la otra, la epistemología y el resto de la ciencia se condicionan la una a la otra.
"Hay, por lo tanto, un contenimiento recíproco, aunque en sentidos diferentes: la epistemología en la ciencia natural, y la ciencia natural en la epistemología."
No sólo nuestras teorías científicas tienen que pasar nuestro filtro epistemológico, sino que nuestras teorías epistemológicas se tienen que adaptar al resto de nuestra visión científica del mundo. Esta concepción de la relación entre ciencia y epistemología contrasta con la visión tradicional de la epistemología como la "reina de las ciencias". Este es, quizás, uno de los puntos seminales del naturalismo de Quine.

3.2.Edward O. Wilson

Edward O. Wilson reúne en una sola persona un científico y un pensador contemporáneo. Ha sido uno de los biólogos evolutivos más importantes de las últimas décadas del siglo XX, además de haber iniciado un gran movimiento científico-cultural con el libro Sociobiología, y haber propuesto la primera gran unificación de todo el conocimiento humano a partir de las ciencias, con el libro Conscilience.
Después de sus intentos en Sociobiología de convencer a los humanistas y científicos sociales de que la biología evolucionista tiene que ser la base de una comprensión científica del fenómeno humano en todas sus dimensiones, Wilson introduce en Conscilience un argumento nuevo y general, que intenta abarcar todo el conocimiento humano, intentando continuar y concluir el proyecto de los sabios de la Ilustración. Su eslogan es:

Asumimos francamente y abiertamente, pero cuidadosamente, las consecuencias de que el ser humano es sólo y simplemente una especie biológica, cuyos rasgos y predisposiciones de todo tipo son producto de su historia evolutiva.

Wilson intenta reintroducir en el eje del debate sobre la comprensión del conocimiento científico la idea de unidad y armonía total entre todas las ciencias naturales, y entre estas y las otras actividades humanas. El proyecto es hacer tangible una última, completa y elegante imagen del mundo natural, donde las explicaciones de todos los fenómenos sean interdependientes, y se puedan jerarquizar y encajonar las unas dentro de las otras de manera que las ciencias más básicas, como la física, sirvan de base a las otras ciencias.
La naturalización y secularización de nuestro conocimiento del mundo natural aportadas por la revolución científica se tienen que completar, según Wilson, con una gran unificación de explicaciones que integren desde el nivel más pequeño, el mundo cuántico, hasta el cósmico, pasando por el histórico-humano. La articulación tiene que incluir la integración del conocimiento biológico, físico y filosófico, y se basa en la ciencia física, biológica y neurocientífica contemporánea. La ciencia está aprendiendo a describir y recurrir a esta integración, y cuando lo alcance sabremos todo lo que se puede saber de nosotros mismos. Wilson está convencido de que es inútil e incluso retrógrado apostar por otras vías de investigación. Hacer investigación científica que no presuponga la unidad final es para él estropear recursos y retrasar el avance. A partir de esta perspectiva, Wilson hace un primer acercamiento, integrando la coevolución de genes y cultura, la biologización de las ciencias sociales, la función biológica del arte y su aportación a nuestra calidad de vida, el sentido de la vida social y de la ética, entre otros. Wilson parte de la creencia que en gran manera ha sido ya posible integrar una gran parte del conocimiento científico. Está seguro de que acabará por integrarse del todo, de manera que "las explicaciones se unan en el espacio desde la molécula hasta el ecosistema, y en el tiempo desde el microsegundo hasta el milenio."
Wilson asume que hay sólo una clase de explicaciones científicas básicas, las físicas, que los científicos consiguen escalar hacia todos los niveles de complejidad. La compleja y sorprendentemente diversidad natural está siendo progresivamente explicada por la unificación de las descripciones básicas de hechos superficialmente diferentes. Al ir tejiendo una red uniforme de hechos y conexiones explicativas, cada nueva consilience robustece y afirma nuestro conocimiento global, y nos acerca hacia el objetivo.
Para Wilson la clave contemporánea para conseguir la unificación es a través del puente que pueden establecer las neurociencias y la psicología evolucionista. El conocimiento de cómo funciona el cerebro ayudado por el conocimiento de por qué se seleccionaron sus funciones y estructuras permitirá, según Wilson, articular un avance importantísimo en la creación de la red conceptual.
Es cierto, sin embargo, que esta posición de que la naturaleza tiene que ser capturable bajo una única visión conceptual tiene detractores no sólo entre los filósofos tradicionales, científicos sociales o humanistas. Hay pensadores y científicos que tienen la perspectiva opuesta de que el avance y la aparición de nuevas ciencias hacen que los ámbitos del conocimiento delimiten, parcelen y recorten aspectos del mundo natural y social de maneras esencialmente diferentes y se generen islas de conocimiento y prácticas refractarias entre ellas, tanto sincrónicamente como diacrónicamente, de manera que no hay reducción, fusión o asimilación posible. La ambigüedad enorme de las ideas de unidad (o fragmentación) permite que sea difícil aclarar el territorio de la disputa. En los extremos hay acuerdo. Es difícil dudar de que hay una unidad inevitable en cuanto a los materiales básicos de que están hechas las cosas del universo. El problema es determinar qué es y en qué consiste una unificación teórica.

3.3.Otros naturalistas contemporáneos

Una versión más modesta de naturalistas defiende la respuesta débil de la que hablábamos al principio del módulo: los resultados empíricos de las ciencias que estudian la mente-cerebro son útiles para hacer progresar una epistemología todavía basada en análisis a priori. "Los resultados de las ciencias de la cognición pueden ser relevantes, y pueden ser legítimamente utilizados para resolver problemas epistemológicos tradicionales", dice la epistemóloga Susan Haack. Otros representantes de esta visión son Alvin Goldman, Philip Kitcher, Stephen Stich, Gilbert Harman, entre un gran número de epistemólogos.
Un punto importante de los naturalistas contemporáneos moderados es que muchos de ellos defienden que los hechos epistemológicos son hechos naturales. Así, por ejemplo, consideran que términos epistemológicos tradicionales como justificado, garantizado, tener buenas razones, saber que, ver que, aprehender que, es probable, afirma que y muchos otros son hechos naturales. Y los epistemólogos naturalistas consideran que los hechos naturales incluyen todos los hechos que una ciencia completa reconocerá. También hay quien defiende una posición más modesta sobre lo que es un hecho natural, incluyendo una lista de ejemplos representativos que permita tener una idea aproximada de que más se puede incluir.
Además, los naturalistas contemporáneos aceptan que las cuestiones importantes para la epistemología son del tipo: "¿podemos mostrar que tenemos conocimiento en un ámbito concreto?", "¿llegamos a las conclusiones correctas a partir de las pruebas que tenemos?", "¿son fiables los procesos cognitivos de inducción y deducción que usamos para llegar a estas conclusiones?". En todas estas preguntas es obvio que las ciencias empíricas tienen mucho que decir. Investigaciones sobre el tipo de errores que cometemos al hacer inducciones y deducciones es vital para evaluar la fiabilidad de nuestras creencias. En consecuencia, los resultados empíricos pueden cambiar totalmente las bases epistemológicas de lo que contamos como conocimiento y lo que no.
El ejemplo más claro y repetido del enfrentamiento entre los epistemólogos que defienden la pertenencia de las ciencias cognitivas y los que no es el problema de la inducción. El filósofo Hume se preguntó si tenemos buenas razones para llegar a las conclusiones de nuestras argumentaciones inductivas. Por ejemplo, nos damos cuenta de que todos los casos de un determinado objeto que vemos tiene una propiedad determinada, y después inferimos que el próximo objeto que encontraremos tendrá la propiedad que también tenían los otros. Nuestra premisa no implica la conclusión, y resulta muy difícil justificar estas inferencias inductivas que no dependen del proceso de inducción en él mismo. Una solución, como la que propuso el filósofo Peter Strawson, es que "adoptar las prácticas inductivas es constitutivo de nuestro concepto de racionalidad". Sin embargo, como el epistemólogo Kitcher dice, "¿por qué tratar nuestro concepto de racionalidad actual como privilegiado?". Quizás hay culturas que consideran racionales las prácticas antiinductivas.
En resumidas cuentas, para los naturalistas contemporáneos el proyecto de la epistemología es entender cómo los cerebros conocen el mundo. Invitan a los epistemólogos a dirigirse a la ciencia, en general, y a las ciencias que se ocupan del cerebro, en particular: a la biología evolutiva, a la neurociencia, a la ciencia cognitiva, etc. Para ellos, la filosofía pura deja de tener sentido, de la misma manera que la química reemplazó a la alquimia. Algunos, por contra, lo ven como una invitación no al reemplazo total, sino como una invitación a que las disquisiciones filosóficas calibren sus argumentos a partir, entre otras cosas, de las ciencias empíricas que tratan del cerebro.

3.4.El camino empírico hacia el naturalismo

¿Cuál es el camino de las ciencias empíricas que lleva hacia el naturalismo contemporáneo? Como en casi todos los campos del conocimiento, la Grecia clásica es la cuna de la aplicación de las ciencias empíricas en el estudio del conocimiento. Así, entre otros, Anaxágoras de Clazómenes, el filósofo presocrático maestro de Eurípides y Pericles, que vivió aproximadamente entre el 500 y 428 aC, introdujo el concepto de mente tal como lo entendemos hoy en día. Otros intentaron empezar a reproducir algunas de sus habilidades -el mecanismo de Antiquitera (aproximadamente del 80 aC) intentaba modelizar los movimientos de los cuerpos pesados-, aunque de una manera muy rudimentaria.
Fue también entonces cuando se empezó a sospechar que el sistema nervioso tenía algún papel en la actividad mental: Alcmeón de Crotona (sobre el 500 aC) localizó los procesos mentales en el cerebro. Sin embargo, otros pensadores todavía dudaban de esta hipótesis. Aristóteles propuso, por ejemplo, que el cerebro servía para enfriar la sangre, mientras que otros, como Platón, defendieron la doctrina que entendía la mente como una entidad no material separada del cuerpo humano.
La esencia de las diferencias entre Alcmeón y Platón originó una tradición filosófica occidental representada por diferentes corrientes que fueron perfiladas sobre todo a partir de Descartes y que adoptaron una de las dos versiones de signo contrario del mismo principio, oposición que subsiste con extremada vitalidad en la actualidad:
  • Unos están convencidos de que el cerebro, la biología, es imprescindible para entender las capacidades mentales y, en consecuencia, basan su estudio en una estrategia que considera el conocimiento de los fenómenos neurobiológicos como una condición necesaria, aunque no suficiente, para entender los fenómenos mentales.

  • Otros afirman que los fenómenos cerebrales son irrelevantes para la comprensión de los fenómenos mentales, ya que pertenecen a un nivel de análisis y de reproducción independiente.

Las dos posiciones, la que hemos llamado opción racionalista (o a priori) y la que hemos descrito como opción naturalista (o a posteriori), llegaron a mediados del siglo XX a la madurez que les otorgaron ciertos instrumentos teóricos, de manera tal que se dieron las condiciones para que estos principios configuraran las bases de un estudio moderno del conocimiento, lo que hemos llamado, para resumir, ciencias cognitivas.
En 1906 Santiago Ramón y Cajal y Camillo Golgi recibían el premio Nobel de Medicina y Fisiología por sus investigaciones sobre la estructura del tejido nervioso. Ramón y Cajal había demostrado, sin casi ninguna duda y con los métodos del mismo Golgi, la evidencia contraria a la posición defendida por este y conocida por reticularista: el sistema nervioso está compuesto por células autónomas y discretas que interaccionan sin estar físicamente fusionadas.
El segundo hallazgo básico tenía que revelar qué tipo de información contiene el sistema nervioso y cómo se transmite esta. Bernstein fue quien propuso en 1886 la hipótesis que todavía define la naturaleza del impulso y la excitabilidad neuronal y que no mereció, pero sí su comprobación, el laurel científico: la polarización de la membrana y la propagación del potencial de acción una vez despolarizada. Sus predicciones fueron confirmadas por Huxley y Hodgkin en sus trabajos iniciados en los años treinta, por cuyos resultados sí que recibieron el premio Nobel en 1963 al lado de Sir John Eccles, quién completó la concepción del impulso nervioso ofreciendo la cuota química al demostrar la existencia de unas sustancias, los neurotransmisores, como los responsables de la transmisión del impulso de una neurona a otra.
El tercer hallazgo tenía que explicar la naturaleza de la información transmitida con referencia al mundo exterior. A partir de estos investigadores y de sus aportaciones teóricas y empíricas, el cuerpo de la disciplina neurofisiológica se redujo al trabajo experimental. Los estudios configuraron globalmente la teoría de la neurona, la complejidad de su estructura de interrelación, comprobaron la diversidad funcional de las neuronas, establecieron su papel en los diferentes tipos de sistemas sensoriales y motores, pronunciaron las características de la información transformada y transmitida, confirmaron a través del microscopio electrónico la existencia y forma de la sinapsis y revelaron su base neuroquímica con el perfeccionamiento de las técnicas de laboratorio, e incluso propusieron ciertos principios sobre el funcionamiento de conjuntos neuronales y nociones sobre la base neuroquímica y estructural de ciertas funciones como la memoria.
No obstante, en cuanto a la concepción general de la organización y funcionamiento del sistema nervioso como sistema complejo, no ha habido ningún avance comparado con lo que establecieron Ramón y Cajal, Bernstein, Müller y Helmholtz. A pesar de que se conocen muchas cosas acerca de la estructura y el funcionamiento de las neuronas, todavía falta mucho por saber: cómo el cerebro representa la información que recibe a través de sus sentidos, cómo la transforma por procesos que le son propios y cómo modifica su conducta para, en el mejor de los casos, actuar de una manera más eficiente que antes de recibir la información.
Por otra parte, el instrumento que permitió el inicio de modelización teórica del funcionamiento cerebral procede de los trabajos en matemática computacional. Los precursores más significativos son Boole, que impulsó definitivamente la lógica simbólica moderna, Whitehead y Russell, que configuraron en la obra Inicia Mathematica la demostración de que las matemáticas se basan en las leyes fundamentales de la lógica.
Estas ideas permitieron el avance durante los años treinta y cuarenta de la matemática computacional, cuyo representante más significativo es Alan Turing. Genio matemático y hombre infeliz, la sociedad de su momento se aprovechó de sus ideas, que, una vez aplicadas, han revolucionado la sociedad contemporánea, y después lo lanzó a la marginación moral y social. Turing publicó hacia mediados de los años treinta la prueba que permitía concebir la existencia de una máquina simple que podía llevar a cabo cualquier tipo de cálculo o programa codificado en un código binario. Eso suponía la primera noción de lo que ahora llamamos ordenador, aunque se nos hace difícil creer que salió de la imaginación de un individuo.
Por otra parte, faltaba un elemento esencial para el nacimiento de la formalización artificial del funcionamiento cerebral: la teoría de la información, las ideas básicas de la cual se deben a Claude Shannon, un brillante ingeniero electrónico. Shannon (1938) probó que las operaciones básicas del pensamiento se pueden expresar simplemente a través de dos estados básicos de los interruptores electromagnéticos –el ya entrañable bit–, la idea clave en la teoría de la información moderna. Por primera vez se podía pensar en la información y, por extensión, en los procesos cognitivos independientemente de cualquier tipo de materialización.
Con estos antecedentes, la necesidad de conseguir, durante la Segunda Guerra Mundial, la más completa superioridad posible sobre el enemigo, no sólo en el campo de batalla, sino en cualquier ámbito que tuviera implicación en el rendimiento de un ejército, como la información, transformó la voluntad de construir una máquina que reprodujera más rápidamente y con más fiabilidad que un ser humano las funciones de cálculo y análisis en un proyecto de guerra. Von Neumann, introductor más tarde de la idea de programa almacenado, Turing, que consigue construir una máquina descifradora, Norbert Wiener, padre de la cibernética al desarrollar ordenadores prototipos que controlan máquinas de guerra, son algunos de los agentes de estas empresas.
Sin embargo, las máquinas "cognitivas" requirieron algún tiempo a fin de que los materiales y la teoría las convirtieran en máquinas rápidas y fiables. De hecho, el comienzo de la guerra fría provoca un alud de inversiones gubernamentales en la investigación de estos campos y permite conseguir el siguiente gran paso: conformar la idea de guardar un programa en lugar de guardar sólo información en la memoria del ordenador.
Y en este momento de la posguerra se sitúa el nacimiento del acercamiento moderno a la comprensión del cerebro como una máquina de conocimiento. La madurez de muchas disciplinas modernas, como la inteligencia artificial -con sus hijas, la cibernética y la biónica-, la psicología -separada finalmente del conductismo y el psicoanálisis-, la lingüística -que desistió de estudiar la lengua como un objeto independiente del ser humano-, la antropología -que se negó a continuar siendo una ciencia folclórica- y la neurociencia -que tenía ya instrumentos muy potentes para estudiar el cerebro- se pusieron a concebir el cerebro como máquina cognitiva.
De hecho, la fecha clave en este nacimiento se puede situar en septiembre de 1948. Un grupo de investigadores se reúnen en el Cambridge Institute of Technology para organizar una conferencia bautizada con el título de "Mecanismos cerebrales en la conducta", pero que ha pasado a la historia como el Simposio Hixon. Los buscadores provienen de campos de estudio muy diferentes, pero todos tienen la arquitectura y el funcionamiento de la conducta perceptiva e inteligente como objeto de su trabajo.
El primer conferenciante fue John von Neumann, el físico alemán que está considerado como el creador de los ordenadores y un genio de las matemáticas. Von Neumann dibujó en su conferencia de apertura la comparación entre los ordenadores electrónicos y el cerebro, comparación de la cual todavía no nos podemos desprender.
El tercer conferenciante, el psicólogo Karl Lashley, advirtió de que esta semejanza era inexacta, ya que el ordenador es una máquina digital y el cerebro es analógico. Su disertación central se tituló "El problema de la orden serial en la conducta", y fue un ejemplo de giro copernicano dentro de la concepción de la actividad cerebral porque consiguió que su exposición pusiera fin a una tradición secular. Con argumentos claros y sencillos y ejemplos radicales, vació de valor teórico la corriente psicológica de moda en aquel tiempo, el conductismo, y propuso los aspectos centrales que tenían que ocupar la nueva ciencia de la conducta.
El segundo conferenciante, uno de los primeros teóricos computacionales, Warren McCulloch, propuso una hipótesis sobre cómo el cerebro procesa la información estableciendo un paralelismo con lo que llamó "aparatos lógicos". A partir de las ideas expuestas en un artículo que publicó con Walter H. Pitts en 1943, presentó la prueba de que una red constituida por elementos que obedecieran una simple regla de activación con umbral y produjeran una señal binaria de salida podía computar, en teoría, cualquier tipo de función.
Los modelos de Von Neumann, Lashley y McCulloch han impactado no sólo en la evolución posterior de las ciencias computacionales y neurobiológicas, sino incluso la epistemología y la filosofía de la mente de los últimos cincuenta años.
El gran reto fue modelizar el conocimiento. Y el problema más importante para modelizar el conocimiento es el que se conoce como frame problem. El frame problem, también conocido como el problema del sentido común, es el problema de representar el conocimiento en un sistema de manera tal que pueda abarcar lo que cambiará y lo que no cambiará en una situación cuando pasen determinadas cosas. Por ejemplo, si accionamos un interruptor al entrar en una habitación, los humanos sabemos que habitualmente la luz se encenderá y que, entre otros muchas cosas, el techo no caerá ni entrará Montserrat Caballé cantando el Aída de Verdi. Aunque todo eso parece obvio, no es tan obvio cómo identificar y poner esta información en un sistema racionalista tradicional. Primero tenemos que identificar todo el conocimiento que nunca se ha considerado explícitamente, pero que forma parte de cualquier proceso cognitivo. Y, después, eso se tiene que poner en un ordenador sin que ocupe toda la memoria disponible en el mundo, y sin que reduzca el proceso al infinito. El sentido común es difícil de formalizar.
Incluso en conductas en las que el lenguaje parece ser autosuficiente, nos encontramos con que siempre necesitamos un grado de sentido común. Suponemos que Pedro dice a Juan: "He comprado un cachorro a María". Y Juan responde: "María ya tiene un cachorro. Hará que lo devuelvas". Ningún humano tendría dudas de que es el nuevo cachorro el que Pedro tiene que devolver, pero un ordenador racionalista lo encontrará ambiguo. Y es muy difícil encontrar una regla para superar esta situación. Por ejemplo, la regla "devolver siempre el nuevo" no valdría para bombones o galletas.
En este punto es donde la diferencia con los humanos se hace más evidente. Cuando un ser humano sabe más de alguna cosa, más fácilmente y rápidamente encuentra la solución relevante. En cambio, cuanto más sabe un ordenador (cuanto mayor es su base de datos), más tarda a encontrar una solución.
Hay quien piensa que la clave para solucionar este problema radica en el hecho de que los ordenadores racionalistas sólo tienen un tipo de conocimiento, los datos registrados como símbolos, mientras que los humanos tenemos dos tipos de conocimiento, los datos y las habilidades. Los humanos tenemos un conocimiento que sostiene las capacidades como ir en bicicleta, conducir, tocar el piano, y el conocimiento de cosas como "la capital de Francia es París", "el fuego quema", " Navidad es el 25 de diciembre".
El conocimiento de datos se podría adecuar a la concepción racionalista de pensar que el conocimiento puede ser almacenado en forma de representaciones simbólicas. En cambio, el conocimiento de las habilidades no parecería adecuarse a datos explícitos que programen o dirijan las conductas. No parece que un pianista virtuoso interprete una pieza musical consultando datos en una supuesta base de datos. Es cierto que, al principio, cuando se aprenden estas habilidades, los humanos utilizamos un conjunto de instrucciones que se dan en cualquier proceso de enseñanza, como cuando se aprende a conducir y nos dicen que para girar a la derecha se tiene que girar el volante a la derecha, aunque, con el tiempo, estas instrucciones se olvidan.
Pues bien, hay quien dice que nada de lo que cuenta como conocimiento humano se puede estipular de manera racionalista, en forma de datos, sino que gran parte del conocimiento humano corresponde a conocimiento de habilidades. Conocer sería una cierta habilidad de vivir, de adaptarse al medio, en lugar de estar relacionada con la cantidad de información de la cual somos propietarios. El concepto de vida y de adaptación es la clave que llevará hacia el desarrollo de la epistemología naturalista basada en las ciencias cognitivas.
El punto de partida de esta recuperación de la posición naturalista es que los científicos cognitivos empiezan a ser sensibles a la importancia de la biología para la concepción de conocimiento: los sistemas cognitivos necesitan estar sometidos a las mismas restricciones que los seres vivos. De hecho, el núcleo de la ciencia cognitiva naturalista es considerar los sistemas conocedores (biológicos o artificiales) como sistemas vivos, que intentan sobrevivir y adaptarse a sus entornos.
En la visión más radical del acercamiento naturalista, la vida es completamente equivalente a la inteligencia. La inteligencia de un sistema vivo consistiría en mantenerse vivo y reproducirse. Y la complejidad que requiere este objetivo se incrementaría con la complejidad de la forma viva, desde una bacteria hasta el ser humano. Pongamos el ejemplo de una bacteria. Una bacteria vive en un entorno líquido donde el alimento –la glucosa– está presente habitualmente. El nivel de conocimiento necesario consiste simplemente en ser capaz de moverse regularmente hacia grandes concentraciones de glucosa. Eso supone tener sensores que midan el nivel de glucosa y un sistema motor. Este es su nivel de conocimiento. Ahora bien, si nos acercamos a animales más complejos, como un mamífero, su requerimiento de conocimiento aumenta en la misma medida que aumenta la complejidad que representa para esta especie la supervivencia. Un mamífero no respira "glucosa", necesita buscarla en su entorno, además de buscar muchos otros nutrientes imprescindibles. Y eso lo tiene que hacer en un entorno rico en elementos no nutritivos. Por lo tanto, necesita ser capaz de reconocer su alimentación y diferenciarla de otros elementos no relevantes. Eso significa tener una capacidad de categorización y, por lo tanto, de conocimiento muy superior a la de la bacteria.
En su corta historia, la posición naturalista ha atacado muy directamente la asunción básica de la posición racionalista de que la cognición puede ser tratada como un proceso abstracto. La posición naturalista intenta reemplazar esta preponderancia de lo abstracto con un énfasis mucho más importante en la base "corporal" de la cognición. Más concretamente, la idea es que para estudiar los seres cognitivos es necesario que los dejemos interactuar directamente y autónomamente con el mundo. El conocimiento sería una herramienta de los organismos vivos para hacer más eficiente su supervivencia y reproducción, y como herramienta, estaría adaptada a las necesidades de los organismos y sus grupos, en las propiedades físicas y computacionales de sus cerebros y las características de sus entornos.

Resumen

Este módulo ha partido de la premisa de que para tener una teoría del conocimiento adecuada, y para entender términos epistemológicos como justificación, referencia y conocimiento, tenemos que comprender nuestras capacidades perceptivas, de memoria, de razonamiento, de codificación conceptual. Y para que eso sea posible, tenemos que conocer los caminos en los que el cerebro condiciona y produce estas capacidades.
En el primer capítulo hemos repasado los problemas filosóficos que han sido relacionados con el acercamiento naturalista del conocimiento. En primer lugar, se ha tratado el problema de la relación mente-cerebro (cuerpo), examinando las diferentes posiciones históricas y sus implicaciones. El segundo aspecto al que nos hemos referido es el del cerebro como producto evolutivo. Se ha explicado que la perspectiva darwinista aplicada a la epistemología considera que si queremos entender qué y cómo conocemos, no es suficiente crear un modelo idealizado del conocimiento, sino que también tenemos que entender la historia evolutiva y, en la historia, comprender las funciones que en un determinado entorno cumplía nuestro cerebro. Finalmente, se ha tratado la oposición clásica entre conocimiento innato y aprendido, analizando las diversas posiciones y derivaciones modernas del problema.
En el segundo capítulo, se han abordado diferentes aspectos del funcionamiento del cerebro que tienen una importancia crítica en la comprensión del conocimiento humano. En primer lugar, hemos tratado de la percepción desde una perspectiva neurobiológica, para pasar posteriormente a la memoria, acabando con los procesos de razonamiento ante las últimas décadas de investigación neurocientífica sobre el cerebro.
En el tercero y último capítulo, se han presentado las aportaciones de diversos filósofos y científicos que son básicas para entender el acercamiento naturalista moderno al conocimiento, como Willard van Orman Quine y Edward O. Wilson. Además, se ha hecho un repaso histórico de las ideas y aportaciones empíricas que han permitido la formulación de las teorías naturalistas contemporáneas sobre el conocimiento.

Actividades

1. Actividades de lectura
Os proponemos que complementéis el módulo con algunas lecturas:
a) Wilson, E. O. (1999). Consilience. La unidad del conocimiento. Barcelona: Galaxia Gutenberg.
Como ya os hemos explicado en el módulo, en este libro el autor defiende que es posible y necesario superar la división entre ciencias humanas, naturales y sociales. La unidad del conocimiento, la búsqueda de la confluencia de las diferentes ramas del saber, se erige como objetivo fundamental para el futuro de la ciencia.
b) Acarín, Nolasc (2005). El cerebro del rey. Barcelona: RBA.
En este libro se explica cómo los humanos hemos conseguido tener un cerebro tan versátil, cómo influye en nuestro comportamiento la herencia de múltiples formas de vida animal anterior a la nuestra y de qué manera reaccionamos enfrente del estímulo de la naturaleza o de otro humano.
c) Damasio, Antonio R. (2001). El error de Descartes. La emoción, la razón y el cerebro humano. Barcelona: Crítica.
Partiendo de sujetos y pacientes reales, Antonio Damasio nos lleva a comprender cómo se forman las imágenes que percibimos, cómo se depositan nuestros conocimientos, cómo opera la memoria, cómo actúan los mecanismos reguladores de nuestra vida y qué son las emociones y los sentimientos; en definitiva, nos proporciona los conocimientos esenciales sobre el funcionamiento del cerebro.
d) Vilarroya, Óscar (2002). La disolución de la mente. Barcelona: Tusquets.
Se trata de un ensayo en el cual se expone una teoría sobre la arquitectura de la mente y se exploran sus posibles repercusiones psicológicas y filosóficas. Se propone una concepción de experiencia sensible, entendida como el proceso mediante el cual el cerebro recibe, organiza y registra la información que le llega de los sentidos. Se ofrece una teoría que cuestiona planteamientos centrales en psicología, especialmente en el campo de la representación del conocimiento, en filosofía, especialmente en epistemología y en las teorías sobre la relación mente-cerebro, y en lingüística, especialmente en semántica y comunicación.
2. Actividades de comentario de un texto
"La definición canónica del conocimiento científico objetivo que los positivistas lógicos buscaban ávidamente no es un problema filosófico ni se puede llegar, como ellos esperaban, mediante el análisis lógico y semántico. Es una cuestión empírica que sólo se puede contestar mediante un sondeo continuo de la base científica del mismo proceso de pensamiento. Casi con toda seguridad, los procedimientos más fructíferos incluirán el uso de inteligencia artificial, ayudada en su momento por el campo todavía embrionario de la emoción artificial, para simular operaciones mentales complejas. Este sistema de modelización se añadirá a una neurobiología del cerebro que ya está madurando rápidamente, que incluye el barrido de alta resolución de las redes computacionales activas en diversas formas de pensamiento. Avances importantes vendrán también de la biología molecular del proceso de aprendizaje.
Si se pueden definir los procesos biológicos exactos de la formación de conceptos, podremos diseñar métodos superiores de indagación tanto del cerebro como del mundo que lo rodea. En consecuencia, podemos esperar estrechar el grado de conexión entre los acontecimientos y las leyes de la naturaleza y la base física de los procesos del pensamiento humano. ¿Será entonces posible dar el paso final e idear una definición inexpugnable de la verdad objetiva? Quizás no. La mera idea es aventurada. Huele a absolutismo, la peligrosa Medusa tanto de la ciencia como de las humanidades. Es probable que su aceptación prematura sea más paralizante que su negación. Pero entonces, ¿tenemos que estar preparados para rendirnos? "¡Nunca! Es mejor navegar siguiendo un lucero de guía que ir a la deriva a través de un mar sin sentido."
Edward O. Wilson (1999). Consilience. La unidad del conocimiento (pág. 97). Barcelona: Galaxia Gutenberg.
a) Según lo que habéis visto en este módulo, justificad por qué Wilson rechaza en este texto la posibilidad de una definición de conocimiento científico a partir de un análisis lógico-semántico y en cambio sí a partir de un conocimiento empírico.
b) ¿Por qué creéis que Wilson considera que sólo examinando el proceso de pensamiento podremos entender este conocimiento empírico?
c) ¿Por qué creéis que propone la inteligencia artificial como posible ayuda?
d) ¿Creéis que si se pueden definir los procesos biológicos exactos de la formación de conceptos, podremos diseñar métodos superiores de indagación del mundo? Justificad vuestra respuesta.
3. Actividades de reflexión y escritura
a) En el apartado del problema mente-cerebro, hemos expuesto las posiciones más significativas que se han propuesto para solucionarlo. Todas ellas aceptan o rechazan alguna de las tesis siguientes. Examinadlas y, para cada posición, señalad qué tesis acepta y cuáles rechaza:
  • Cualquier sistema material se puede explicar mediante la descripción de sus partes sula interrelación.

  • Las únicas relaciones de causa y efecto se pueden producir dentro de un sistema material.

  • Las personas están hechas de materia física que tiene sólo propiedades físicas.

  • Las personas tienen estados mentales.

  • Los estados mentales no se pueden explicar con descripciones de propiedades o sustancias físicas.

b) En el año 2000 se estrenó una película titulada Memento, dirigida por Christopher Nolan, y basada en un cuento, "Memento mori" ('recuerda que eres mortal', en latín), escrito por su hermano Jonathan. Memento es la historia de Leonard, que sufrió un trauma cerebral que le causó amnesia anterógrada. Leonard es incapaz de almacenar nuevos recuerdos, pero, posee memoria a largo plazo y recuerda como realizar las acciones cotidianas. Para "recordar" los éxitos de su vida crea un sistema usando fotos instantáneas para tener un registro de la gente con la que se relaciona, dónde se aloja y otros elementos básicos para el desarrollo de su vida. Además de las fotografías, también toma nota y se tatúa pistas del asesino de su esposa. Los temas principales de la película son la naturaleza de la memoria, la identidad, el tiempo, la realidad, la manipulación del conocimiento.
Mirad la película o leed el cuento y a continuación:
  • Describid cómo los problemas de la memoria del protagonista provocan los conocimientos equivocados (o su variación).

  • Explicad el papel que tiene el lenguaje en mantener o corromper el conocimiento, y reflexionad sobre si es el mal uso del lenguaje o su naturaleza lo que provoca los problemas de fijación del conocimiento.

  • Dad vuestra opinión, y justificadla, sobre si creéis que lo que le pasa al protagonista es exageración de lo que nos pasa en menor medida a todo el mundo, o si creéis que la memoria normal de los humanos es suficiente para tener un conocimiento correcto del mundo.

Bibliografía

Acarín, Nolasc (2005). El cerebro del rey. Barcelona: RBA.
Damasio, Antonio R. (2001). El error de Descartes. La emoción, la razón y el cerebro humano. Barcelona: Crítica.
Llinas, Rodolfo (2003). El cerebro y el mito del yo. Barcelona: Belacqva Ediciones y Publicaciones.
Mora, Francisco (2005). Cómo funciona el cerebro. Madrid: Alianza.
Morgan Allman, John (2003). El cerebro en evolución. Barcelona: Ariel.
Oyama, S. (2000). Evolution's eye: a systems view of the biology-culture divide. Durham: Duke University Press.
Quine, W. V. (1998). Del estímulo a la ciencia. Barcelona: Ariel.
Rubia, Francisco J. (2000). El cerebro nos engaña. Madrid: Temas de Hoy.
Tobeña, Adolf (2000). Sintonies neuronals. Les golfes del cervell humà. Barcelona: La Magrana.
Vilarroya, Óscar (2002). Ladisolución de la mente. Barcelona: Tusquets.
Wilson, Edward O. (1999). Consilience. La unidad del conocimiento. Barcelona: Galaxia Gutenberg.