16 enero 2015

“Nuestro cerebro nos engaña”… ¿Seguro?


El pasado domingo, como empieza a ser una cita obligada, me atrincheré en mi sofá, tome mi bol de palomitas, le di al botón de encendido de “la caja tonta” y me dispuse a pasar un rato absorto en uno de los mejores programas, desde mi modesto punto de vista, en el panorama televisivo actual: “Órbita Laika”. Este interesantísimo programa de divulgación científica ha traído aire fresco en el pútrido panorama televisivo, siendo uno de los buenos ratos que me reservo a lo largo de la semana. Entre las diferentes secciones del programa el más destacado fue la aparición de mi respetada y admirada @ClaraGrima, ¿Qué curiosidad matemática me tendría reservada hoy? Sin duda y conociendo su trayectoria no me dejaría indiferente, y como siempre me recordaría de nuevo por qué no estudié más matemáticas cuando tuve ocasión. ¡Y así fue! Nos iba a explicar la Anamorfosis utilizando, como suele hacerlo, curiosidades y recursos didácticos de extraordinaria creatividad (http://www.rtve.es/alacarta/videos/orbita-laika/tu-cerebro-engana/2949096/)

Pero hubo un momento algo que me chirrió al introducir una idea que no puedo menos que clasificar como #punsetada: “Nuestro cerebro nos engaña”


Pero antes de explicarme apelo a la actitud crítica y escéptica de la autora y a su sentido del humor. Además vaya por delante: mi mayor respeto y admiración al trabajo de Clara Grima en el campo de la divulgación científica y por su trabajo, ejemplo para muchos de cómo hacer un buen trabajo. Por otro lado entiendo que la divulgación científica a veces exige licencias poéticas para llegar al gran público y hacerse interesante y amena, a cambio de perder en ocasiones cierta precisión y rigurosidad. Por último además soy consciente que la #punsetada no es causada ni original de Clara, sino que ella ha sido víctima de una pseudoexplicación que muchos neurocientificos han (hemos, todos tenemos un pasado) extendido y que se ha ido popularizando.

Afirmar “Nuestro cerebro nos engaña” esconde una de los peores males que entiendo tenemos en ciencia y sobre todo a aquellas que se encargan de estudiar a la especie humana: el dualismo. La concepción dualista del ser humano es casi tan antigua como nuestra cultura, y es especialmente poderosa en el pensamiento judeo-cristiano. Hace unos mil setencientos años, Agustín de Hipona (San Agustín para los Católicos) escribió en su “Ciudad de Dios” (11.26):
“Sin ninguna engañosa representación de imágenes y fantasmas, estoy absolutamente seguro de que yo soy, y que lo sé y me deleito en esto. Con respecto a estas verdades, no tengo temor de los argumentos de los Académicos, que dicen: «¿Y qué sucede si eres engañado?» Porque si soy engañado, es que soy. Porque quien no es, no puede ser engañado; y si soy engañado, por esta misma razón soy”.
Descartes se impregnó de la obra de Agustín de Hipona y fue uno de los primeros filósofos que lo desarrollaron y le dieron forma académica en su famoso dualismo alma-cuerpo, y su extensión en mente-cuerpo que posteriormente fue heredado por la psicología cognitiva, importándola a las neurociencias. Piénsalo; decir: “Nuestro cerebro nos engaña” es asumir que el cuerpo engaña a nuestra mente. Es asumir que una cosa es nuestro cerebro y otro somos “nosotros”. El cerebro te engaña a “ti”, porque “tú” eres distinto de tu cerebro”. Esta idea obviamente no es de Clara Grima, ella solo traslada una idea muy extendida y defendida por buena parte de las neurociencias actuales. Neurocientíficos tan considerados y respetados como Oliver Sack, Ramachandran o Damasio son un buen ejemplo de autores que defienden y se han encargado de extender esta idea. Pero si los vemos con ojos escépticos y críticos, y bajo una mirada científica, esta idea carece de toda lógica. No hay un “algo” dentro de nosotros (alma, mente, conciencia, ello-yo-superyo, etc.) y otra cosa “fuera” (cuerpo, soma, conducta, cerebro, etc). Si así fuera debe ser observado, demostrado y medido, cosa que es del todo imposible. El dualismo es a la psicología y a las neurociencias lo que el geocentrismo es a la astronomía o lo que el vitalismo o el creacionismo es a la biología, una mezcla entre concepciones culturales y errores de percepción.

El lector puede pensar: “Bueno Lorca, es una licencia que se toma la autora, es una forma de hablar, tampoco hay que ser tan cerrado de “mente”, hay que ser algo más flexible y no estar tan encorsetado ni tan estricto, todos sabemos que no son cosas diferentes”. Bien aquellos que penséis así podéis dejar de leer esta entrada, porque lo que viene a continuación carece de interés para vosotros. Los que penséis que quizás merece la pena darle una “pensada” y mantener una actitud escéptica a lo que decimos, podéis ver esta situación como una oportunidad para aprender y reflexionar sobre lo que decimos y a hacemos en neurociencias.

Deberíamos dejar de usar expresiones como “el cerebro provoca….”, “el cerebro produce…”, “el cerebro percibe….”, “el cerebro piensa…”, como si el sistema nervioso tuviera leyes y personalidad propia. “No soy yo, es mi cerebro!”, “Es que mi cerebro me provoca que …”, “Otra vez me ha engañado”, “El cerebro nos juega malas pasadas”. Estas expresiones además de ser falsas explicaciones pseudocientificas o entiéndase #punsetadas, nos meten en líneas explicativas a los fenómenos sin salida. Son una herencia directa de este pensamiento dualista carente de toda base científica. Además al atribuir la causa al cerebro en exclusiva, lo situamos en el foco de la explicación causal, y corremos el riesgo de olvidar otras variables igualmente relevantes en la explicación de las ilusiones perceptivas y muchos otros comportamientos.

Lo interesante de este error conceptual es su posible origen. Es un error de “Juego de Lenguaje”. ¿Porque acabamos diciendo cosas por el estilo? Fue Freixa (2003) quien nos puso la llamada de atención sobre esta falacia heurística. Él vino a denominarlo como la acción de “Cosificar” las acciones. Nosotros hacemos una acción, como por ejemplo percibir un objeto. Pero percibir es una “acción”, dicho de otra forma, un verbo: se percibe. Pero de pronto en un juego de lenguaje y por extensión de los significados que nos permite nuestro rico lenguaje, no hablamos de percibir sino de “percepción”. Ya no es un verbo sino un sustantivo. Ya no es una acción sino un objeto. “La percepción provoca patrones”. “La percepción de nuestro cerebro provoca patrones”. Acabamos de cosificar y provocar un error de inferencia. De esta forma “no pensamos sobre algo”, sino que “tenemos un pensamiento”, no “hablamos sobre algo” sino que “tenemos un lenguaje”, no “atendemos a un objeto” sino que “tenemos una atención”. Imaginaros esta situación en otras acciones: esta mañana me estuve afeitando, por lo que tenemos un “afeitador”; he estado conduciendo por los que tengo un “conductor”, estuve corriendo esta tarde y por ende tengo un “runner dentro de mí”. ¿Pero de verdad tenemos una percepción, una memoria, un lenguaje, un afeitador, un conductor y un runner? Pero ¿dónde? La repuesta está clara: ¡dentro de mí! Bueno, la verdad que decir dentro de mí no tiene mucho sentido. Está en nuestro cerebro. #IroniaModoOn

Llegados a este punto algunos podéis pensar: “Bueno Lorca, vale es un error conceptual pero ¿qué daño puede hacer?, mientras sirva para explicar el fenómeno, tampoco tiene tanta importancia, es una manera de hablar”. Me temo que no puedo compartir esta postura. El hecho de dar causalidad al cerebro como “un único agente de las acciones” provocamos que se dejen fuera otras variables importantes y necesarias para explicar una acción o conducta. Utilizando un axioma matemático: “el cerebro es necesario pero no suficiente” para que se realice una conducta. Siguiendo con el ejemplo que nos presentaba Clara Grima, el acto de percepción visual, como por ejemplo las lineas paralelas, exige una acto de aprendizaje y por extensión tienen una influencia de la cultura. El aprendizaje es fundamental para que creen los patrones perceptivos (por ejemplo Segall, Campbell y Herskovi, 1968). Son extensos y clásicos los trabajos sobre las ilusiones ópticas y de percepción (como por ejemplo las ilusiones de Muller-Lyer) y como se van aprendiendo y bajo qué condiciones. Para que se dé la ilusión de las líneas paralelas no basta con un cerebro, sino que debe aprenderse un patrón para que luego se perciba. ¿Cómo se aprende?, ¿de que variables depende?, ¿cuando y como se aprende ese patrón?, ¿bajo que condiciones?, ¿todos lo aprendemos igual?, ¿Por qué?, ….. Sinceramente, ¡decir que no es apasionante!

De esta manera, el "Dualismo" y la acción de "Cosificar" acciones y conductas son algunos de los errores explicativos más frecuentes en el estudio del Sistema Nervioso y que deberíamos empezar a ser especialmente cuidadosos y rigurosos, sobre todo si queremos avanzar en el estudio tan apasionante del Cerebro. Sin duda cuando nos hacemos bien las preguntas y damos bien los pasos se nos abren caminos de estudio mucho más apasionantes y curiosos, a pesar de perder algún que otro titular impactante.

PD: Muchos no estaréis de acuerdo conmigo, cosa que celebro. 

PD 2:Recordar que si me paro a escribir un post como éste lo hago porque me interesa y me apasiona lo que hacéis, si no fuera de esa forma no hubiera invertido tiempo en hacerlo. Discuto contigo porque me interesa tu opinión :-)

01 enero 2015

Año nuevo, propósitos nuevos: Columbus, el LABPEX y algunas cosas más



Ya ha llovido desde el III Congreso SAVECC, que supuso el final de nuestras merecidas "vacaciones" y el inicio de un curso distinto a todos los demás. Algunos de los que escribimos habitualmente aquí hemos iniciado un nuevo camino de aprendizaje fuera de la Universidad de Huelva y del Laboratorio de Psicología Experimental en el que tanto hemos disfrutado.

En unos meses hemos visto a nuestros compañeros recoger los frutos del trabajo del curso anterior. Alberto Hernández y Pilar Cáceres recogieron el premio Sapere Avde que la Universidad de Huelva entrega a los mejores proyectos de investigación de cada facultad, y Miguel Ángel Maldonado fue premiado con el Proyecto Alumno 10C a las mejores trayectorias universitarias. Otros nos hemos instalado en Córdoba, Sevilla, Italia y hasta en Suiza. Algunos proyectos nacen, como la Asociación para el Tratamiento de los Efectos del Cáncer. A otros que ya están en marcha, nos sumamos.

Pero no nos despedimos proque Columbus no se entiende sin el LABPEX, y si algo nos han enseñado Andrés Lorca y Jesús Gómez es que solo no se puede, pero con amigos sí.

De esta manera seguimos avanzando y este año, además de escribir los pensamientos al azar que publicamos a intervalos muy variables, hemos hecho una lista de nuestros propósitos de año nuevo. Como el que se propone dejar de fumar, ponerse a dieta o apuntarse al gimnasio, pero de verdad.

El primero: escribir una serie sobre "aspectos básicos del análisis de la conducta". A cualquier analista de conducta le resultará familiar que compañeros de profesión y legos en la materia nos miren con cara de no entender nada cuando les hablamos. A nosotros nos pasa. Por eso hemos decidido empezar por lo más básico, explicar a qué nos referimos cuando hablamos de "conducta", qué es el análisis funcional, cuáles son sus términos y cómo abordamos determinados fenómenos psicológicos.

Por otra parte, coincidiendo con que algunos de los que componemos este blog nos dedicamos al Análisis Aplicado de la Conducta en el campo de la educación, nos hemos propuesto desarrollar aquí parte de nuestro trabajo diario. Abordaremos el tópico de la Conducta Verbal y también la tecnología del análisis de la conducta que utilizamos diariamente para enseñar nuevas habilidades.

Seguiremos publicando la investigación que se desarrolla en el LABPEX y en el Máster de Investigación en Trastornos Mentales que desde este curso está en marcha en la Universidad de Huelva. Hablaremos también de la Asociación para los Efectos del Tratamiento del Cancer que acaba de nacer en Sevilla y con la que nos sentimos implicados a distintos niveles.

Todo esto en cuanto a contenidos del blog que, aunque sigamos publicando a intervalos variables y en la medida en la que nuestro trabajo nos lo permita, esperamos que se conviertan en contenidos fijos. Como nada de esto está preparado y escribimos y publicamos en riguroso directo, como siempre, estamos abiertos a sugerencias y colaboraciones que podéis enviar a través del correo blogcolumbus@gmail.com o directamente en Twitter y Facebook.

Otras ideas nos rondan la cabeza y, si con todo esto nos queda tiempo, pronto podremos definir nuevos objetivos. Mientras tanto, ¡a disfrutar del nuevo año!  

10 septiembre 2014

III Congreso SAVECC


III Congreso SAVECC. Huelva, 18-20 septiembre.

Los días 18, 19 y 20 de septiembre se celebra en la Universidad de Huelva el III Congreso de la Sociedad para el Avance del Estudio Científico del Comportamiento (SAVECC), que tiene como temática general el análisis funcional del comportamiento en sus facetas básica y aplicada. El programa previsto y otra información relevante se puede consultar en la página web del congreso

Desde la Universidad de Huelva, en colaboración con otras instituciones como la Universidad de Sevilla o el Centro Al-Mudarïs, se presentan numerosas contribuciones que abarcan desde la investigación en tareas de evaluación atencional y competencia entre criterios de respuesta en tests de inteligencia, sistemas BCI y de realidad virtual y análisis del patron de respuesta visual en tareas de razonamiento analógico, hasta la investigación en conducta verbal y clases de equivalencias en niños y ancianos o terapia de aceptación y compromiso en grupos de mujeres con fibromialgia.

Además, el día 17 tendrán lugar los talleres específicos "Tecnologías aplicadas a la intervención psicológica en Trastornos del Espectro Autista", "El análisis funcional de conducta en la experiencia clínica y social" y "OpenSesame: Software libre para diseño de experimentos y tareas de evaluación", este último dirigido por nuestro compañero Alberto Hernández Sande.

Esperamos con ganas el momento de presentar nuestro trabajo, y desde aquí os animamos a paticipar en las distintas jornadas del congreso.


23 julio 2014

La cognición de los huecos


En múltiples ocasiones, a lo largo de todo el desarrollo del conocimiento científico, se ha recurrido a dios para explicar los sucesos que no se alcanzaban a comprender. Es lo que se denomina “dios de los huecos”. Incluso Isaac Newton, a pesar de ser considerado como uno de los científicos más brillantes de la Historia por sus aportaciones, recurre a un dios en los límites de su conocimiento al no poder explicar el movimiento de los cometas y los planetas en continúa interacción.




Las principales diferencias que se perciben rápidamente en los científicos a lo largo de la Historia es el momento de la explicación en que dios es convocado. En una encuesta llevada a cabo por el psicólogo James H. Leuba en 1914 se calculó que sólo alrededor de un 58% de los científicos estadounidenses no creían o dudaban de la existencia de un dios. Sin embargo, entre los 400, pertenecientes a la National Academy of Science, el porcentaje de los que no creían o dudaban de su existencia aumentaba a un 70%. En 1998, repitiendo esta medición, el porcentaje era ya de 93.

Es evidente que el progreso científico se ha acelerado en las últimas décadas, especialmente durante el desarrollo de las dos Guerras Mundiales. Este progreso podría estar relacionado con el creciente porcentaje de científicos que ya no recurren a un dios para explicar los vacíos existentes en las teorías. Sin embargo, ¿es posible que haya surgido un nuevo “dios de los huecos” en las disciplinas científicas?

Para intentar responder a esta pregunta hagamos un breve recorrido sobre uno de los conceptos que sigue influyendo fuertemente en la psicología: el concepto de mente. Elegir un principio para una historia nunca es fácil, y siempre va a conllevar pérdidas de información importantes, pero espero que sea suficiente para encender la llama de la curiosidad.

Estamos en el siglo XVII, y un influyente francés estaba terminando de escribir su famosa obra La descripción del cuerpo humano en su última casa en Egmond-Binnen, Países Bajos.  En la obra reflejaba su convencimiento del funcionamiento del cuerpo como una máquina, encajando así las teorías de Galileo y sus métodos. Sin embargo, siendo un hombre religioso, también poseía la convicción de que lo mental no podía ser abordado como una variedad más compleja de lo mecánico. La mente no era algo físico, ni se podía ubicar en el espacio. Tampoco se podía observar, era algo interno. ¿Qué era la mente para él?

René Descartes supuso que mente y alma eran más o menos la misma cosa. Estaba intentando proporcionar una explicación racional sobre lo que para él era un asunto importante: la inmortalidad del alma. Descartes declaró que una de sus intenciones al diferenciar la mente del cuerpo era para refutar a la “gente no religiosa que sólo tienen fe en las matemáticas y no cree en la inmortalidad del alma sin una demostración matemática”.

En sus correspondencias con la Princesa Isabel de Bohemia intentaría describir con más precisión las características y funcionamiento de esta relación entre la mente y el cuerpo, dando como resultado la realización un año más tarde de su obra Las pasiones del alma.



“Aunque el alma está unida a todo el cuerpo, hay una parte específica en el que ejecuta sus funciones más que en cualquier otro. Se piensa que esta zona es el cerebro por su relación con los órganos sensoriales, o el corazón, porque sentimos que es donde están nuestras pasiones. Pero al mirar cuidadosamente creo que puedo ver claramente que la parte del cuerpo en la cual el alma hace su trabajo más directamente es una pequeña glándula dentro del cerebro. El menor movimiento puede alterar el curso de los espíritus que cruzan por el cerebro. [...] Es conocido que todos los movimientos de los músculos así como todas las sensaciones, dependen de los nervios, los cuales son pequeños hilos o tubos provenientes del cerebro y que contienen un aire que llamo “espíritus animales”. El cerebro también contiene estos espíritus. [...] No hay nada intrínsecamente especial en estos espíritus; son simples cuerpos, como cualquier otro excepto por la condición de ser extremadamente pequeños y moverse muy rápido. Nunca se paran en ningún sitio; tan pronto como entran en las cavidades del cerebro, otros salen a través de sus poros.”  -  Las pasiones del alma (1649).

Descartes sugirió que los “espíritus anímales” interaccionaban con el cuerpo a través de la glándula pineal.  Sin embargo, ¿cómo el alma inmaterial interacciona con la glándula pineal? Algunos de sus discípulos como Nicholas Malebranche propusieron una explicación diferente: todas las interacciones entre el cuerpo y la mente requerían la intervención directa de Dios.

Ilustración de René Descartes. Los inputs pasan
por los órganos sensoriales a la glándula pineal del
cerebro, y de ahí al espíritu inmaterial.
Al igual que las ideas de Ptolomeo (100 – 170) y su explicación de un Universo geocéntrico perduraron hasta los descubrimientos de Galileo (1610), las ideas de Descartes continuarían perdurando en la sociedad.

Ha pasado un siglo desde entonces, y un médico alemán teorizaba acerca de transferencias energéticas que debían ocurrir entre todos los objetos de forma natural. Es lo que denominó “magnetismo animal”. Franz Anton Mesmer, a través de sus años de tratamiento con pacientes, supuso que la salud, del cuerpo y de la mente, estarían relacionados con algún tipo de “conexión cósmica”. El procedimiento general de tratamiento con sus pacientes incluía la imposición de manos y la disposición de una cubeta central en la que se sumergían imanes y otros componentes como limaduras de hierro y vidrio molido. Tras varios intentos de demostrar sus principios, abandonó Viena debido a las humillantes demostraciones sin éxito delante de varios respetados médicos. Su estancia en París sin embargo resultó ser lucrativa, en parte debido a su fuerte creencia en la importancia del “magnetismo animal”, y terminó tratando pacientes de clases sociales altas.

La influencia que ejerció en la sociedad parisina seguiría siendo evidente medio siglo después, con la llegada de Sigmund Freud, quien conoció en su estancia en la capital francesa un cuadro de síntomas para el que no se tenía explicación biológica: la histeria. Según Charcot las histéricas eran “pobres desgraciadas sacadas de los considerados servicios de incurables”.  Las mujeres histéricas eran percibidas como simuladoras de síntomas y, por lo tanto, de una enfermedad no existente. Al dar importancia a su tratamiento e inducir síntomas histéricos a través de la hipnosis, se concibió como un problema mental que la medicina tradicional no podía explicar: como no era biológico, debía responder a algo interno, a procesos mentales.

“Debemos considerar si es justificable suponer que la histeria es producida de una forma análoga en otros pacientes, y si el proceso es similar en el que hay una condición distinta y organizada. Debo adelantar en apoyo de este punto de vista el hecho de que en el presente caso, la historia del desarrollo de la enfermedad habría quedado completamente desconocida al paciente y al médico de no haber sido por la peculiaridad de recordar durante la hipnosis […]. Mientras ella estaba despierta afirmó no saber nada de todo esto, por lo que es imposible llegar a la causa en otros casos de un examen mientras el paciente está despierto, ya que no pueden dar ninguna información. […] Cuando la paciente se acostó en su cama, y su consciencia estaba continuamente oscilando entre su estado normal y el secundario, los síntomas histéricos se volvieron manifiestos.”  - Caso Anna O., Estudios sobre la histeria (1895).

Jean Martín Charcor induciendo hipnosis usando una linterna mágica.

Un nuevo salto nos lleva a un terreno mucho más reciente. Poco después de ser testigos de los horrores de la II Guerra Mundial nace una nueva disciplina de la psicología basada en el estudio de los procesos mentales. 

La psicología cognitivista fue el resultado de una reacción ante el conductismo y el método introspectivo de Wundt, aceptando dos premisas: 1. El estudio debe realizarse mediante el método científico; y 2. Existen estados y procesos mentales internos.

“Quiero comenzar adoptando como punto de partida la Revolución Cognitiva. El objetivo de esta revolución era recuperar la mente en las ciencias humanas después de un prolongado y frío invierno de objetivismo.  […] Algunos críticos sostienen incluso, quizá injustamente, que la nueva ciencia cognitiva, la criatura nacida de aquella revolución, ha conseguido sus éxitos técnicos al precio de deshumanizar el concepto mismo de mente que había intentado reinstaurar en la psicología. […] Su meta [refiriéndose a la Revolución Cognitiva] era instar a la psicología a unir fuerzas con sus disciplinas hermanas de las humanidades y las ciencias sociales, de carácter interpretativo.”  - Actos de significado, más allá de la revolución cognitiva (1990).

Jerome Bruner está considerado como uno de los padres del cognitivismo. Participó en la II Guerra Mundial, trabajando en el departamento de psicología del ejército. Sería entonces y a partir de sus experiencias cuando recurriría y le daría importancia a las percepciones, y la influencia de los valores y las necesidades, encontrando ciertos símiles con Viktor Frankl y su libro El hombre en busca de sentido, quien vivió desde dentro el terror de la guerra en los campos de concentración. Se hace patente la existencia de una necesidad por encontrar explicaciones más “humanas” después del horror incomprensible que vivió la sociedad. Impulsado por esta necesidad escribe dos libros (Hacia una teoría animal, 1972; Acción, pensamiento y lenguaje de los animales, 1984) en los que intenta relacionar la existencia de una mente también en los animales.


¿Dios como objeto de estudio?


Aunque me haya dejado a muchos autores por el camino sin mencionar o revisar, la extensión hubiera dado para editar uno o varios libros. Teniendo la intención y objetivo de reflexionar un poco sobre estos conceptos debo parar en algún punto.

Como se explicaba al inicio, se puede comprender y verificar la recurrencia de un dios en los límites de un conocimiento. Ha ocurrido en las ciencias más mecanicistas como la física, pero a pesar de haberse recurrido a ese dios personal, dios no se ha convertido en el centro mismo del estudio. Los físicos no han teorizado acerca de la composición de dios, o de cómo se le podrían aplicar las leyes naturales. Dios es un recurso que se ha utilizado para tapar huecos inexplicables, no el objeto mismo de estudio.

Con lo aquí expuesto, ¿pensáis que la mente es un recurso o el objeto de estudio? ¿Existen las enfermedades mentales? ¿Están suficientemente probados y definidos los procesos mentales? ¿Cuáles son las evidencias empíricas? ¿Cuál sería la diferencia o diferencias (si las hubiera) entre un proceso mental y un proceso conductual? ¿Y entre un proceso mental y un proceso biológico?

Os invito a iniciar un debate en el foro después de la atenta lectura de esta entrada.

01 junio 2014

“Brain Machinery" e inteligencia: Test de Turing al cerebro


Antes de nada, debo advertir que este artículo lleva truco, pero deberías leer hasta el final la entrada para poder verlo y entenderlo.

Como muchos sabréis Turing (creador de la primera computadora, padre de la Inteligencia Artificial y uno de las mentes más privilegiadas de la historia) publicó en 1950 uno de los, que quizás sea, más famosos artículos científicos: “Computing machinery and intelligence”. Lo que quizás a algunos se os escape es que dicho artículo se publicó en la que fue la primera revista científica psicológica de la historia: “The Mind”. En este artículo Turing propuso un test para poder demostrar la posible “inteligencia” de un sistema artificial y la que sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista que reza “si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente”. La prueba consiste en el siguiente desafío: un juez debería comparar la repuestas de dos sistemas (hombre vs maquina) y descubrir cuál era el ser humano y cuál es la máquina. Si el juicio del juez (o jueces) era engañado por la maquina entonces el sistema artificial era “inteligente” al menos tanto como el ser humano. Esta prueba se viene realizando desde 1990 en un concurso anual (el Premio Loebner) donde cuatro jueces humanos se enfrentan a dos pantallas de ordenador, una bajo control de un ordenador y otra bajo control humano. El juez plantea preguntas a las dos pantallas y recibe respuestas y tan solo en el año 2010 y 20012 Bruce Wilcox fue capaz de ganar en dos ocasiones los 100.000 dólares al pasar el test.





La cuestión de traer el Test de Turing aquí no es sólo reconocer la perspicacia de su propuesta, sino tratar de aplicarlo a un supuesto. El supuesto que propongo trata de poner a prueba dos paradigmas encontrados y diferenciales para explicar el comportamiento de un sistema inteligente. El Supuesto que lanzo es el siguiente:
“Dado dos sistemas neuronales artificiales, uno de ellos basados en los modelos cognitivos (NeuroCog) y otro desarrollado bajo las premisas Conductistas (NeuroComp) ¿Cuál pasaría la prueba de Turing donde el juez fuera una computadora? Lo diré de otra manera. Si pudiéramos crear un sistema neuronal artificialmente ¿cuál sería la mejor manera de “programarlo” para engañar a una maquina?


Interfaz "NeuroCog"


Siguiendo las premisas cognitivistas, el sistema “Interfaz Neuronal” que estaremos programando debería tener capacidad de volición, es decir “voluntad” e “Intencionalidad”. Su comportamiento (sus respuestas) respondería a procesos controlados internamente por el sistema a través de diferentes funciones inaccesibles por el programador. Es decir sería un sistema “teleológico” donde la repuesta sería causada por el sistema. La conducta sería dirigida por el sistema de manera causal y unidireccional (el Interfaz causa la repuestas) a partir de la información que posee y que gestiona en función del objetivo que se le plantea y evaluando las posibles repuestas a partir de esa información pre-programada. De manera que las respuestas son “seleccionadas” comparando los resultados de su respuesta con el “plan” que previamente tendría pre-diseñado. De esta manera, la memoria (tanto de contenidos como de procesamiento) sería una de sus “funciones” principales, dado que cuanto más cantidad de datos (Información) posea por un lado y sea capaz de procesar por otro, más potente sería. La memoria del Interfaz Neuronal dotaría al sistema de “potencia de análisis”, donde si los recursos son ilimitados el sistema daría repuesta ilimitadas. Cada error de respuesta serían sesgos que se producirían en el sistema, que se mantendrían a lo largo de la línea de programación, de manera que la repuesta final sería la interacción entre la información que posee el sistema y suplementada con los sesgos de repuesta que tuviera pre-programado. Por tanto el programador debería estar preocupado, no tanto por la respuestas del Interfaz Neurocog, sino por la información que posee y de cómo el manejo de dicha información debe ser procesada para obtener la respuesta más ventajosa.

Por otro lado dicho Interfaz Neurocog, debería estar montado a partir de diferentes módulos diferenciados e hiper-especializados para cada parte de la tarea que tuvieran que desarrollar. El Interfaz estaría compuesto por módulos universales (valdrían para cualquier Interfaz que quisiéramos montar) doblemente disociados e hiperespecializados, organizados en un sistema jerarquizado temporalmente y claramente localizados en el sistema neuronal que configuráramos. De esta manera cuando la información llegara al sistema un primer módulo se encargaría de procesar la “Información” y derivarla a su módulo correspondiente. Pero además, todo ello estaría gobernado y dirigido por un módulo general que re-evaluaría cada proceso realizado y filtrando, inhibiendo o activando tanto a los diferentes módulos implicados como a las cadenas de información que debían ser procesadas.





Estas ideas fueron aplicadas en algunas películas de ciencia ficción como es el caso de “El hombre bicentenario” (Chris Columbus, 199), “Yo, Robot” ( Alex Proyas, 2004) o “Eva” (Kike Maíllo, 2011). Por tanto se podría resumir que las características de este sistema NeuroCog debería asumir las siguientes premisas:
  1. Asumir causalidad y unidireccionalidad en la emisión de la respuesta: el sistema Interfaz NeuroCog es el centro y origen del comportamiento y repuestas que dé el sistema. Por tanto la repuesta emergería del sistema programado en respuesta a la exigencia realizada por los jueces.
  2. Debe asumir el preinformismo y el esencialismo del sistema, donde las preprogramaciones, sesgos e información que tenga preestablecido determinará las posibles repuestas que emita.
  3. Los procedimientos de selección de repuestas son realizados por el propio sistema, reevaluando sus resultados, poniéndolos en relación a su “plan” original, evaluando las diferencias entre resultados obtenidos vs resultados esperados y re-elaborando una nueva respuesta a partir de dichas diferencias. 
  4. Derivada de la anterior, asumiría igualmente que partes concretas del sistema son el origen de la repuesta, por lo que no es el sistema programado en su conjunto los asociados a cada repuestas, sino que cada parte de la respuesta esta modularmente programada, al menos una encargada de procesar, otro de elaborar y procesar la información, otro modulo encargado de relacionar la información con la existente, otro encargado de producir la respuesta y un último modulo encargado de evaluar los resultados.  
  5. Asume la volición e intención al sistema, es decir, teleología del comportamiento donde la repuesta del Interfaz va dirigida y mediatizada por el objetivo que se le marque. 
  6. Por ende, de lo anterior asume que los procesamientos y análisis que haga el sistema de manera “interna” son de naturaleza y función diferente a la que realizará públicamente, por tanto dicho procesamiento (inaccesible para el programador) será de naturaleza diferente a la que es observable por el programador.
  7. Por último asumiríamos que ciertas funciones propiamente humanas (como la conciencia o las emociones) son ajenas a un sistema artificial. De hecho estas funciones en el Interfaz no surgen por una programación ad hoc realizada por el programador, sino que aparecería por una combinación aleatoria de la información manejada por el sistema. La conciencia, voluntad o emociones en el sistema no pueden ser programadas intencionalmente por el ingeniero, sino que surge por variaciones en la programación azarosas que desarrollarían esta cualidad en el sistema.
Este modelo se ha utilizado, por ejemplo, en el sistema SIRIS que vienen en las aplicaciones de los nuevos iPhone o en los nuevos navegadores y localización por GPS (como el TomTom) ¿Podríamos decir que son sistemas inteligentes? ¿Crees que el TomTom puede considerarse un sistema inteligente?


Interfaz “NeuroCom”


Otra manera de programar a nuestro sistema Interfaz Neuronal sería a partir de diferentes componentes más simples. Sería un Interfaz con una serie de módulos de programas básicos de interacción. Estos “scripts” básicos preprogramados deben ser flexibles, permitiendo que se pudieran ir implementando a medida que el sistema evolucione. La evolución de los scripts solo se producirían si existieran nuevas y variadas interacciones, por lo que este conjunto de scripts iniciales no deberían cambiar si la exigencia del medio no variara y se mantuviera constante, permitiendo que el sistema sobreviviera a él produciendo un mínimo número de respuestas. Pero estos scripts básicos deben ser susceptibles de modificación, es decir, que si la repuesta no fuera adecuada a las exigencias del medio, el propio script fuera variando hasta conseguir una repuesta “aceptable”, es decir si cumplen un criterio determinado. El sistema NeuroCom partiría de un mínimo conjunto de scripts que irían variando inicialmente al azar, y siendo seleccionadas por las consecuencias obtenidas. El principio básico es aumentar la eficiencia del sistema (máxima respuestas variada con el menor consumo de recursos). De esta forma el plan de desarrollo no está preestablecido por el programa, sino que son las consecuencias obtenidas las que irían seleccionando las variaciones más “adapatativas”. Dicho de otro modo, el sistema es teleonómico (y no teleológico). De esta forma no habría diferentes partes o módulos hiper-especializados (quitando aquellos scripts programados inicialmente) sino que el conjunto del sistema es el que interactuaría, provocando en su conjunto un continuo de respuestas y variaciones de las mismas que son seleccionadas por las consecuencias contiguas provocadas contingentemente. Por ende el fenómeno base en el que se fundamenta el Interfaz NeuroComp es el Aprendizaje (no la memoria), de manera que el sistema más “inteligente” no es el que posea mayor capacidad de información o más capacidad de procesamiento sino el que provoque más variaciones de respuestas permitiendo así seleccionar aquella más aceptable (adaptativa). De manera que sistema no evalúa en base a las respuestas acertadas (cumplidoras del criterio) sino también sobre los errores cometidos (no cumplidoras del criterio exigido), de manera que a medida que el sistema se va desarrollando la probabilidad de emisión de ciertas repuestas vaya aumentando el peso sobre el resto de posibles respuestas.

Algunas películas de ciencia ficción se han basado en el este sistema, véase por ejemplo “ El doctor Frankenstein “ (dirigida por James Whale, 1931), A.I. Inteligencia Artificial (Steven Spielberg, 2001) o “The Machine” (Caradog W. James, 2014) .





De acuerdo con estas premisas se han hecho modelos de aplicación de inteligencia artificial como son la “Computation Intelligence Car Evolution Using Box2D Physics (v3.2)” o el “Eureqa, the robot scientist”. Estos sistemas aún están poco desarrollados pero son sin duda claramente prometedores. Un investigador del MIT (Deb Toy) precisamente aplica estos principios al aprendizaje robótico.

Por tanto se podría resumir que las características de este sistema NeuroCom debería asumir las siguientes premisas:
  1. Asumiría que la conducta es el producto de la relación del sistema con el ambiente que se haya programado para su desarrollo y la experiencia de selección de posibles respuestas de la que se vaya asumiendo por el Interfaz producto de la experiencia previa. De esta forma el sistema no sería la causa de la conducta, sino que la respuesta del sistema NeuroCom es el producto de la interacción del sistema con el entorno programado y su experiencia previa. La respuesta así seria relacional no causal, dicho de otra manera, funcional no asociativa. 
  2. No asume preinformismo, ni esencialismo, sino experiencia. Es cierto que el sistema operativo básico debe poseer una serie de scripts básicos, pero deben ser aquellos que con la menor cantidad de scripts seleccionados magnifiquen las variaciones de respuestas. Además toda conducta que funcionalmente haya sido valida, sería conservada para el futuro y marcando posibles variaciones de sesgo en el futuro.
  3. Por tanto los sistemas no podrían ser reproducibles al 100%, es decir, no existirían dos sistemas completamente iguales, sino que muy al contrario, cada sistema operativo NeuroCom tendrían variaciones sustanciales con el tiempo, dado que cada uno de ellos tendrían experiencias diferentes y variaciones conductuales diferenciales.
  4. Los procedimientos de selección de repuestas son realizados no por el propio sistema sino por las contingencias resultantes de emitir cada una de las respuestas. De esta forma, una repuesta asumiría un peso diferencial para el futuro dependiendo de las consecuencias obtenidas por el propio sistema, conservando o descartándola para su emisión en el futuro. 
  5. Por tanto el Interfaz NeuroCom no se encontraría dividido en diferentes módulos, sino que el propio sistema en su conjunto es el que interacciona, habiendo equipotencialidad de cualquier parte del sistema. 
  6. Asume pues la carencia completa de volición e intención, siendo elementos no requeridos por el sistema para su funcionamiento ni para explicar su funcionamiento, es decir es un modelo teleonómico donde la repuesta del Interfaz está controlado por la consecuencia, la cual selecciona la variación de conducta más eficiente (mayor resultado con el menor consumo de recursos). 
  7. Por ende, de todo lo anterior asume que los procesamientos y análisis que haga el sistema de manera “interna” son de la misma naturaleza y función a la que realizaría públicamente, dado que el procesamiento “interno”  (inaccesible para el programador) surge de la producción de la repuesta observada.
  8. Por último asumiríamos que ciertas funciones propiamente humanas (como la conciencia o las emociones) no son ajenas a un sistema artificial sino resultado de la propia evolución del sistema. De hecho, estas conductas (que no funciones) en el Interfaz no surgen por una programación ad hoc o por una combinación aleatoria de la información manejada por el sistema, sino que aparecería cuando el Interfaz haya adquirido la respuestas necesarias para que se desarrollen (prerrequisitos de repuesta que debe ser adquirido en el proceso de aprendizaje del propio sistema). La conciencia, voluntad o emociones en el sistema no serían programadas intencionalmente por el ingeniero, sino que surgirían  por variaciones en las repuestas del sistema, pero no azarosamente sino al cumplir una serie de requisitos previamente establecidos.


Nota final


¿Bajo estas premisas cual creéis que sería más eficaz a la hora de crear un sistema artificial? ¿Con cuál de los sistemas crearíais un Interfaz de Inteligencia Artificial más eficaz, eficiente y efectivo?

Ya os advertí que esta entrada tiene truco. Si aún os quedan ganas, releed de nuevo el artticulo, cambiad las palabras Sistema o Interfaz por "cerebro" y entenderéis como funcionaria el hominido Sapiens Sapiens (es decir, tu), y como la naturaleza te programa.

Jose Andrés Lorca