23 julio 2014

La cognición de los huecos


En múltiples ocasiones, a lo largo de todo el desarrollo del conocimiento científico, se ha recurrido a dios para explicar los sucesos que no se alcanzaban a comprender. Es lo que se denomina “dios de los huecos”. Incluso Isaac Newton, a pesar de ser considerado como uno de los científicos más brillantes de la Historia por sus aportaciones, recurre a un dios en los límites de su conocimiento al no poder explicar el movimiento de los cometas y los planetas en continúa interacción.


Las principales diferencias que se perciben rápidamente en los científicos a lo largo de la Historia es el momento de la explicación en que dios es convocado. En una encuesta llevada a cabo por el psicólogo James H. Leuba en 1914 se calculó que sólo alrededor de un 58% de los científicos estadounidenses no creían o dudaban de la existencia de un dios. Sin embargo, entre los 400, pertenecientes a la National Academy of Science, el porcentaje de los que no creían o dudaban de su existencia aumentaba a un 70%. En 1998, repitiendo esta medición, el porcentaje era ya de 93.

Es evidente que el progreso científico se ha acelerado en las últimas décadas, especialmente durante el desarrollo de las dos Guerras Mundiales. Este progreso podría estar relacionado con el creciente porcentaje de científicos que ya no recurren a un dios para explicar los vacíos existentes en las teorías. Sin embargo, ¿es posible que haya surgido un nuevo “dios de los huecos” en las disciplinas científicas?

Para intentar responder a esta pregunta hagamos un breve recorrido sobre uno de los conceptos que sigue influyendo fuertemente en la psicología: el concepto de mente. Elegir un principio para una historia nunca es fácil, y siempre va a conllevar pérdidas de información importantes, pero espero que sea suficiente para encender la llama de la curiosidad.

Estamos en el siglo XVII, y un influyente francés estaba terminando de escribir su famosa obra La descripción del cuerpo humano en su última casa en Egmond-Binnen, Países Bajos.  En la obra reflejaba su convencimiento del funcionamiento del cuerpo como una máquina, encajando así las teorías de Galileo y sus métodos. Sin embargo, siendo un hombre religioso, también poseía la convicción de que lo mental no podía ser abordado como una variedad más compleja de lo mecánico. La mente no era algo físico, ni se podía ubicar en el espacio. Tampoco se podía observar, era algo interno. ¿Qué era la mente para él?

René Descartes supuso que mente y alma eran más o menos la misma cosa. Estaba intentando proporcionar una explicación racional sobre lo que para él era un asunto importante: la inmortalidad del alma. Descartes declaró que una de sus intenciones al diferenciar la mente del cuerpo era para refutar a la “gente no religiosa que sólo tienen fe en las matemáticas y no cree en la inmortalidad del alma sin una demostración matemática”.

En sus correspondencias con la Princesa Isabel de Bohemia intentaría describir con más precisión las características y funcionamiento de esta relación entre la mente y el cuerpo, dando como resultado la realización un año más tarde de su obra Las pasiones del alma.

“Aunque el alma está unida a todo el cuerpo, hay una parte específica en el que ejecuta sus funciones más que en cualquier otro. Se piensa que esta zona es el cerebro por su relación con los órganos sensoriales, o el corazón, porque sentimos que es donde están nuestras pasiones. Pero al mirar cuidadosamente creo que puedo ver claramente que la parte del cuerpo en la cual el alma hace su trabajo más directamente es una pequeña glándula dentro del cerebro. El menor movimiento puede alterar el curso de los espíritus que cruzan por el cerebro. [...] Es conocido que todos los movimientos de los músculos así como todas las sensaciones, dependen de los nervios, los cuales son pequeños hilos o tubos provenientes del cerebro y que contienen un aire que llamo “espíritus animales”. El cerebro también contiene estos espíritus. [...] No hay nada intrínsecamente especial en estos espíritus; son simples cuerpos, como cualquier otro excepto por la condición de ser extremadamente pequeños y moverse muy rápido. Nunca se paran en ningún sitio; tan pronto como entran en las cavidades del cerebro, otros salen a través de sus poros.”
-  Las pasiones del alma (1649).


Descartes sugirió que los “espíritus anímales” interaccionaban con el cuerpo a través de la glándula pineal.  Sin embargo, ¿cómo el alma inmaterial interacciona con la glándula pineal? Algunos de sus discípulos como Nicholas Malebranche propusieron una explicación diferente: todas las interacciones entre el cuerpo y la mente requerían la intervención directa de Dios.
Ilustración de René Descartes. Los inputs pasan
por los órganos sensoriales a la glándula pineal del
cerebro, y de ahí al espíritu inmaterial.
Al igual que las ideas de Ptolomeo (100 – 170) y su explicación de un Universo geocéntrico perduraron hasta los descubrimientos de Galileo (1610), las ideas de Descartes continuarían perdurando en la sociedad.

Ha pasado un siglo desde entonces, y un médico alemán teorizaba acerca de transferencias energéticas que debían ocurrir entre todos los objetos de forma natural. Es lo que denominó “magnetismo animal”. Franz Anton Mesmer, a través de sus años de tratamiento con pacientes, supuso que la salud, del cuerpo y de la mente, estarían relacionados con algún tipo de “conexión cósmica”. El procedimiento general de tratamiento con sus pacientes incluía la imposición de manos y la disposición de una cubeta central en la que se sumergían imanes y otros componentes como limaduras de hierro y vidrio molido. Tras varios intentos de demostrar sus principios, abandonó Viena debido a las humillantes demostraciones sin éxito delante de varios respetados médicos. Su estancia en París sin embargo resultó ser lucrativa, en parte debido a su fuerte creencia en la importancia del “magnetismo animal”, y terminó tratando pacientes de clases sociales altas.


La influencia que ejerció en la sociedad parisina seguiría siendo evidente medio siglo después, con la llegada de Sigmund Freud, quien conoció en su estancia en la capital francesa un cuadro de síntomas para el que no se tenía explicación biológica: la histeria. Según Charcot las histéricas eran “pobres desgraciadas sacadas de los considerados servicios de incurables”.  Las mujeres histéricas eran percibidas como simuladoras de síntomas y, por lo tanto, de una enfermedad no existente. Al dar importancia a su tratamiento e inducir síntomas histéricos a través de la hipnosis, se concibió como un problema mental que la medicina tradicional no podía explicar: como no era biológico, debía responder a algo interno, a procesos mentales.

“Debemos considerar si es justificable suponer que la histeria es producida de una forma análoga en otros pacientes, y si el proceso es similar en el que hay una condición distinta y organizada. Debo adelantar en apoyo de este punto de vista el hecho de que en el presente caso, la historia del desarrollo de la enfermedad habría quedado completamente desconocida al paciente y al médico de no haber sido por la peculiaridad de recordar durante la hipnosis […]. Mientras ella estaba despierta afirmó no saber nada de todo esto, por lo que es imposible llegar a la causa en otros casos de un examen mientras el paciente está despierto, ya que no pueden dar ninguna información. […] Cuando la paciente se acostó en su cama, y su consciencia estaba continuamente oscilando entre su estado normal y el secundario, los síntomas histéricos se volvieron manifiestos.”
- Caso Anna O., Estudios sobre la histeria (1895).

Jean Martin Charcot induciendo hipnosis usando una linterna mágica.
Un nuevo salto nos lleva a un terreno mucho más reciente. Poco después de ser testigos de los horrores de la II Guerra Mundial nace una nueva disciplina de la psicología basada en el estudio de los procesos mentales. 

La psicología cognitivista fue el resultado de una reacción ante el conductismo y el método introspectivo de Wundt, aceptando dos premisas: 1. El estudio debe realizarse mediante el método científico; y 2. Existen estados y procesos mentales internos.

“Quiero comenzar adoptando como punto de partida la Revolución Cognitiva. El objetivo de esta revolución era recuperar la mente en las ciencias humanas después de un prolongado y frío invierno de objetivismo.  […] Algunos críticos sostienen incluso, quizá injustamente, que la nueva ciencia cognitiva, la criatura nacida de aquella revolución, ha conseguido sus éxitos técnicos al precio de deshumanizar el concepto mismo de mente que había intentado reinstaurar en la psicología. […] Su meta [refiriéndose a la Revolución Cognitiva] era instar a la psicología a unir fuerzas con sus disciplinas hermanas de las humanidades y las ciencias sociales, de carácter interpretativo.”
- Actos de significado, más allá de la revolución cognitiva (1990).


Jerome Bruner está considerado como uno de los padres del cognitivismo. Participó en la II Guerra Mundial, trabajando en el departamento de psicología del ejército. Sería entonces y a partir de sus experiencias cuando recurriría y le daría importancia a las percepciones, y la influencia de los valores y las necesidades, encontrando ciertos símiles con Viktor Frankl y su libro El hombre en busca de sentido, quien vivió desde dentro el terror de la guerra en los campos de concentración. Se hace patente la existencia de una necesidad por encontrar explicaciones más “humanas” después del horror incomprensible que vivió la sociedad. Impulsado por esta necesidad escribe dos libros (Hacia una teoría animal, 1972; Acción, pensamiento y lenguaje de los animales, 1984) en los que intenta relacionar la existencia de una mente también en los animales.

¿Dios como objeto de estudio?

Aunque me haya dejado a muchos autores por el camino sin mencionar o revisar, la extensión hubiera dado para editar uno o varios libros. Teniendo la intención y objetivo de reflexionar un poco sobre estos conceptos debo parar en algún punto. 

Como se explicaba al inicio, se puede comprender y verificar la recurrencia de un dios en los límites de un conocimiento. Ha ocurrido en las ciencias más mecanicistas como la física, pero a pesar de haberse recurrido a ese dios personal,  dios no se ha convertido en el centro mismo del estudio. Los físicos no han teorizado acerca de la composición de dios, o de cómo se le podrían aplicar las leyes naturales. Dios es un recurso que se ha utilizado para tapar huecos inexplicables, no el objeto mismo de estudio.

Con lo aquí expuesto, ¿pensáis que la mente es un recurso o el objeto de estudio? ¿Existen las enfermedades mentales? ¿Están suficientemente probados y definidos los procesos mentales? ¿Cuáles son las evidencias empíricas?  ¿Cuál sería la diferencia o diferencias (si las hubiera) entre un proceso mental y un proceso conductual? ¿Y entre un proceso mental y un proceso biológico? 

Os invito a iniciar un debate en el foro después de la atenta lectura de esta entrada.

PINCHA AQUÍ PARA IR AL DEBATE

01 junio 2014

“Brain Machinery" e inteligencia: Test de Turing al cerebro


Antes de nada, debo advertir que este artículo lleva truco, pero deberías leer hasta el final la entrada para poder verlo y entenderlo.

Como muchos sabréis Turing (creador de la primera computadora, padre de la Inteligencia Artificial y uno de las mentes más privilegiadas de la historia) publicó en 1950 uno de los, que quizás sea, más famosos artículos científicos: “Computing machinery and intelligence”. Lo que quizás a algunos se os escape es que dicho artículo se publicó en la que fue la primera revista científica psicológica de la historia: “The Mind”. En este artículo Turing propuso un test para poder demostrar la posible “inteligencia” de un sistema artificial y la que sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista que reza “si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente”. La prueba consiste en el siguiente desafío: un juez debería comparar la repuestas de dos sistemas (hombre vs maquina) y descubrir cuál era el ser humano y cuál es la máquina. Si el juicio del juez (o jueces) era engañado por la maquina entonces el sistema artificial era “inteligente” al menos tanto como el ser humano. Esta prueba se viene realizando desde 1990 en un concurso anual (el Premio Loebner) donde cuatro jueces humanos se enfrentan a dos pantallas de ordenador, una bajo control de un ordenador y otra bajo control humano. El juez plantea preguntas a las dos pantallas y recibe respuestas y tan solo en el año 2010 y 20012 Bruce Wilcox fue capaz de ganar en dos ocasiones los 100.000 dólares al pasar el test.





La cuestión de traer el Test de Turing aquí no es sólo reconocer la perspicacia de su propuesta, sino tratar de aplicarlo a un supuesto. El supuesto que propongo trata de poner a prueba dos paradigmas encontrados y diferenciales para explicar el comportamiento de un sistema inteligente. El Supuesto que lanzo es el siguiente:
“Dado dos sistemas neuronales artificiales, uno de ellos basados en los modelos cognitivos (NeuroCog) y otro desarrollado bajo las premisas Conductistas (NeuroComp) ¿Cuál pasaría la prueba de Turing donde el juez fuera una computadora? Lo diré de otra manera. Si pudiéramos crear un sistema neuronal artificialmente ¿cuál sería la mejor manera de “programarlo” para engañar a una maquina?


1. Interfaz "NeuroCog"

Siguiendo las premisas cognitivistas, el sistema “Interfaz Neuronal” que estaremos programando debería tener capacidad de volición, es decir “voluntad” e “Intencionalidad”. Su comportamiento (sus respuestas) respondería a procesos controlados internamente por el sistema a través de diferentes funciones inaccesibles por el programador. Es decir sería un sistema “teleológico” donde la repuesta sería causada por el sistema. La conducta sería dirigida por el sistema de manera causal y unidireccional (el Interfaz causa la repuestas) a partir de la información que posee y que gestiona en función del objetivo que se le plantea y evaluando las posibles repuestas a partir de esa información pre-programada. De manera que las respuestas son “seleccionadas” comparando los resultados de su respuesta con el “plan” que previamente tendría pre-diseñado. De esta manera, la memoria (tanto de contenidos como de procesamiento) sería una de sus “funciones” principales, dado que cuanto más cantidad de datos (Información) posea por un lado y sea capaz de procesar por otro, más potente sería. La memoria del Interfaz Neuronal dotaría al sistema de “potencia de análisis”, donde si los recursos son ilimitados el sistema daría repuesta ilimitadas. Cada error de respuesta serían sesgos que se producirían en el sistema, que se mantendrían a lo largo de la línea de programación, de manera que la repuesta final sería la interacción entre la información que posee el sistema y suplementada con los sesgos de repuesta que tuviera pre-programado. Por tanto el programador debería estar preocupado, no tanto por la respuestas del Interfaz Neurocog, sino por la información que posee y de cómo el manejo de dicha información debe ser procesada para obtener la respuesta más ventajosa.

Por otro lado dicho Interfaz Neurocog, debería estar montado a partir de diferentes módulos diferenciados e hiper-especializados para cada parte de la tarea que tuvieran que desarrollar. El Interfaz estaría compuesto por módulos universales (valdrían para cualquier Interfaz que quisiéramos montar) doblemente disociados e hiperespecializados, organizados en un sistema jerarquizado temporalmente y claramente localizados en el sistema neuronal que configuráramos. De esta manera cuando la información llegara al sistema un primer módulo se encargaría de procesar la “Información” y derivarla a su módulo correspondiente. Pero además, todo ello estaría gobernado y dirigido por un módulo general que re-evaluaría cada proceso realizado y filtrando, inhibiendo o activando tanto a los diferentes módulos implicados como a las cadenas de información que debían ser procesadas.





Estas ideas fueron aplicadas en algunas películas de ciencia ficción como es el caso de “El hombre bicentenario” (Chris Columbus, 199), “Yo, Robot” ( Alex Proyas, 2004) o “Eva” (Kike Maíllo, 2011). Por tanto se podría resumir que las características de este sistema NeuroCog debería asumir las siguientes premisas:
  1. Asumir causalidad y unidireccionalidad en la emisión de la respuesta: el sistema Interfaz NeuroCog es el centro y origen del comportamiento y repuestas que dé el sistema. Por tanto la repuesta emergería del sistema programado en respuesta a la exigencia realizada por los jueces.
  2. Debe asumir el preinformismo y el esencialismo del sistema, donde las preprogramaciones, sesgos e información que tenga preestablecido determinará las posibles repuestas que emita.
  3. Los procedimientos de selección de repuestas son realizados por el propio sistema, reevaluando sus resultados, poniéndolos en relación a su “plan” original, evaluando las diferencias entre resultados obtenidos vs resultados esperados y re-elaborando una nueva respuesta a partir de dichas diferencias. 
  4. Derivada de la anterior, asumiría igualmente que partes concretas del sistema son el origen de la repuesta, por lo que no es el sistema programado en su conjunto los asociados a cada repuestas, sino que cada parte de la respuesta esta modularmente programada, al menos una encargada de procesar, otro de elaborar y procesar la información, otro modulo encargado de relacionar la información con la existente, otro encargado de producir la respuesta y un último modulo encargado de evaluar los resultados.  
  5. Asume la volición e intención al sistema, es decir, teleología del comportamiento donde la repuesta del Interfaz va dirigida y mediatizada por el objetivo que se le marque. 
  6. Por ende, de lo anterior asume que los procesamientos y análisis que haga el sistema de manera “interna” son de naturaleza y función diferente a la que realizará públicamente, por tanto dicho procesamiento (inaccesible para el programador) será de naturaleza diferente a la que es observable por el programador.
  7. Por último asumiríamos que ciertas funciones propiamente humanas (como la conciencia o las emociones) son ajenas a un sistema artificial. De hecho estas funciones en el Interfaz no surgen por una programación ad hoc realizada por el programador, sino que aparecería por una combinación aleatoria de la información manejada por el sistema. La conciencia, voluntad o emociones en el sistema no pueden ser programadas intencionalmente por el ingeniero, sino que surge por variaciones en la programación azarosas que desarrollarían esta cualidad en el sistema.
Este modelo se ha utilizado, por ejemplo, en el sistema SIRIS que vienen en las aplicaciones de los nuevos iPhone o en los nuevos navegadores y localización por GPS (como el TomTom) ¿Podríamos decir que son sistemas inteligentes? ¿Crees que el TomTom puede considerarse un sistema inteligente?


2. Interfaz “NeuroCom”

Otra manera de programar a nuestro sistema Interfaz Neuronal sería a partir de diferentes componentes más simples. Sería un Interfaz con una serie de módulos de programas básicos de interacción. Estos “scripts” básicos preprogramados deben ser flexibles, permitiendo que se pudieran ir implementando a medida que el sistema evolucione. La evolución de los scripts solo se producirían si existieran nuevas y variadas interacciones, por lo que este conjunto de scripts iniciales no deberían cambiar si la exigencia del medio no variara y se mantuviera constante, permitiendo que el sistema sobreviviera a él produciendo un mínimo número de respuestas. Pero estos scripts básicos deben ser susceptibles de modificación, es decir, que si la repuesta no fuera adecuada a las exigencias del medio, el propio script fuera variando hasta conseguir una repuesta “aceptable”, es decir si cumplen un criterio determinado. El sistema NeuroCom partiría de un mínimo conjunto de scripts que irían variando inicialmente al azar, y siendo seleccionadas por las consecuencias obtenidas. El principio básico es aumentar la eficiencia del sistema (máxima respuestas variada con el menor consumo de recursos). De esta forma el plan de desarrollo no está preestablecido por el programa, sino que son las consecuencias obtenidas las que irían seleccionando las variaciones más “adapatativas”. Dicho de otro modo, el sistema es teleonómico (y no teleológico). De esta forma no habría diferentes partes o módulos hiper-especializados (quitando aquellos scripts programados inicialmente) sino que el conjunto del sistema es el que interactuaría, provocando en su conjunto un continuo de respuestas y variaciones de las mismas que son seleccionadas por las consecuencias contiguas provocadas contingentemente. Por ende el fenómeno base en el que se fundamenta el Interfaz NeuroComp es el Aprendizaje (no la memoria), de manera que el sistema más “inteligente” no es el que posea mayor capacidad de información o más capacidad de procesamiento sino el que provoque más variaciones de respuestas permitiendo así seleccionar aquella más aceptable (adaptativa). De manera que sistema no evalúa en base a las respuestas acertadas (cumplidoras del criterio) sino también sobre los errores cometidos (no cumplidoras del criterio exigido), de manera que a medida que el sistema se va desarrollando la probabilidad de emisión de ciertas repuestas vaya aumentando el peso sobre el resto de posibles respuestas.

Algunas películas de ciencia ficción se han basado en el este sistema, véase por ejemplo “ El doctor Frankenstein “ (dirigida por James Whale, 1931), A.I. Inteligencia Artificial (Steven Spielberg, 2001) o “The Machine” (Caradog W. James, 2014) .





De acuerdo con estas premisas se han hecho modelos de aplicación de inteligencia artificial como son la “Computation Intelligence Car Evolution Using Box2D Physics (v3.2)” o el “Eureqa, the robot scientist”. Estos sistemas aún están poco desarrollados pero son sin duda claramente prometedores. Un investigador del MIT (Deb Toy) precisamente aplica estos principios al aprendizaje robótico.

Por tanto se podría resumir que las características de este sistema NeuroCom debería asumir las siguientes premisas:
  1. Asumiría que la conducta es el producto de la relación del sistema con el ambiente que se haya programado para su desarrollo y la experiencia de selección de posibles respuestas de la que se vaya asumiendo por el Interfaz producto de la experiencia previa. De esta forma el sistema no sería la causa de la conducta, sino que la respuesta del sistema NeuroCom es el producto de la interacción del sistema con el entorno programado y su experiencia previa. La respuesta así seria relacional no causal, dicho de otra manera, funcional no asociativa. 
  2. No asume preinformismo, ni esencialismo, sino experiencia. Es cierto que el sistema operativo básico debe poseer una serie de scripts básicos, pero deben ser aquellos que con la menor cantidad de scripts seleccionados magnifiquen las variaciones de respuestas. Además toda conducta que funcionalmente haya sido valida, sería conservada para el futuro y marcando posibles variaciones de sesgo en el futuro.
  3. Por tanto los sistemas no podrían ser reproducibles al 100%, es decir, no existirían dos sistemas completamente iguales, sino que muy al contrario, cada sistema operativo NeuroCom tendrían variaciones sustanciales con el tiempo, dado que cada uno de ellos tendrían experiencias diferentes y variaciones conductuales diferenciales.
  4. Los procedimientos de selección de repuestas son realizados no por el propio sistema sino por las contingencias resultantes de emitir cada una de las respuestas. De esta forma, una repuesta asumiría un peso diferencial para el futuro dependiendo de las consecuencias obtenidas por el propio sistema, conservando o descartándola para su emisión en el futuro. 
  5. Por tanto el Interfaz NeuroCom no se encontraría dividido en diferentes módulos, sino que el propio sistema en su conjunto es el que interacciona, habiendo equipotencialidad de cualquier parte del sistema. 
  6. Asume pues la carencia completa de volición e intención, siendo elementos no requeridos por el sistema para su funcionamiento ni para explicar su funcionamiento, es decir es un modelo teleonómico donde la repuesta del Interfaz está controlado por la consecuencia, la cual selecciona la variación de conducta más eficiente (mayor resultado con el menor consumo de recursos). 
  7. Por ende, de todo lo anterior asume que los procesamientos y análisis que haga el sistema de manera “interna” son de la misma naturaleza y función a la que realizaría públicamente, dado que el procesamiento “interno”  (inaccesible para el programador) surge de la producción de la repuesta observada.
  8. Por último asumiríamos que ciertas funciones propiamente humanas (como la conciencia o las emociones) no son ajenas a un sistema artificial sino resultado de la propia evolución del sistema. De hecho, estas conductas (que no funciones) en el Interfaz no surgen por una programación ad hoc o por una combinación aleatoria de la información manejada por el sistema, sino que aparecería cuando el Interfaz haya adquirido la respuestas necesarias para que se desarrollen (prerrequisitos de repuesta que debe ser adquirido en el proceso de aprendizaje del propio sistema). La conciencia, voluntad o emociones en el sistema no serían programadas intencionalmente por el ingeniero, sino que surgirían  por variaciones en las repuestas del sistema, pero no azarosamente sino al cumplir una serie de requisitos previamente establecidos.


Nota final

¿Bajo estas premisas cual creéis que sería más eficaz a la hora de crear un sistema artificial? ¿Con cuál de los sistemas crearíais un Interfaz de Inteligencia Artificial más eficaz, eficiente y efectivo?

Ya os advertí que esta entrada tiene truco. Si aún os quedan ganas, releed de nuevo el artticulo, cambiad las palabras Sistema o Interfaz por "cerebro" y entenderéis como funcionaria el hominido Sapiens Sapiens (es decir, tu), y como la naturaleza te programa.

Jose Andrés Lorca 


13 mayo 2014

De la conducta privada a la conducta pública


Desde su comercialización en el 2010, el “Emotiv EPOC”, de la empresa australiana Emotiv Systems, ha dado mucho que hablar, y es que, este dispositivo que funciona como un electroencefalograma con dieciséis electrodos y dos giroscopios, es capaz, según sus diseñadores, de captar tanto patrones cerebrales propios, como las señales de los músculos faciales y movimientos espaciales de la cabeza.

Con la presentación al público en la Game Developers Conference del 2008, el dispositivo logró captar la atención de los medios con sus capacidades de interacción, pero también captó el interés de investigadores que veían del Emotiv EPOC un recurso de bajo coste que podría sustituir otros electroencefalogramas de consumo.

El aparato interacciona con otros dispositivos mediante un paquete de programas e interfaces informáticas, proporcionadas por la propia compañía, que interpretan la información registrada mediante algoritmos. Son cuatro interfaces en total:
  • Cognitivo (cognitive suite): consiste en el control de movimiento de un cubo en seis direcciones y seis rotaciones, además de otro de visualización (desaparecer). Para que estos movimientos se produzcan, se requiere un entrenamiento previo y la grabación de un patrón de ondas. Dicho de otro modo, la interfaz permitiría, en teoría, relacionar un patrón con una orden o comando (por ejemplo, establecer que el comando “levantar el cubo” se active cuando uno piensa en “ovejas”). Cada movimiento del cubo puede ser traducido también en una presión de tecla, lo que permitiría interactuar, por ejemplo, en una simulación y acelerar un coche con el registro de ondas que se haya grabado previamente.
  • Emocional (affective suite): “excitación”, “compromiso/aburrimiento”, “meditación” y “frustración” son las emociones que registra e interpreta. Sin embargo, los nombres no logran reflejar cuáles son las emociones que realmente está detectando (la utilización del término meditación no puede ser más confusa).
  • Expresiones faciales (expressiv suite): leyendo la actividad de los músculos faciales es capaz de interpretar y reproducir en una interfaz a modo de avatar robótico los movimientos de cejas, ojos y boca.
  • Rotación de la cabeza (head rotation): permite leer mediante los dos giroscopios la rotación de la cabeza. La interfaz permite traducirlo en un control directo del puntero del ratón.

Diversos artículos han sido publicados en torno a este dispositivo, bien centrándose en el propio dispositivo en sí, bien utilizándolo como herramienta, y es que sus posibles aplicaciones atraen por igual a desarrolladores, investigadores y al público en general.

En un artículo del 2010 (Ekanayake H.) se comprobó que el dispositivo es capaz de captar la onda P300, aunque su uso no es recomendable para tareas clínicas, ya que la fiabilidad de la medida no es la recomendada para dicho uso.

Otras investigaciones han explorado las capacidades de aplicación en el diseño de juegos interactivos (M. Pröll, 2012) o el reconocimiento de emociones (T. Huang et al., 2012).

A raíz de toda esta información, surgen diversas dudas y cuestiones. ¿Realmente es capaz de captar un patrón de ondas e interactuar con la interfaz de forma fiable y consistente? ¿Capta algo más que la P300 en la grabación de ondas y, por tanto, hay otras variables interfiriendo de algún modo con la interfaz? El dispositivo debería discriminar con cierto grado de precisión los patrones cerebrales y las expresiones, siendo su manejo estable, y por lo tanto, viable. ¿Cuál es, por tanto, su utilidad? Muchas son las cuestiones que se nos plantean referentes al Emotiv EPOC, por lo que intentaremos dar respuesta a algunas de ellas.

Referente al componente afectivo, la distinción realizada sobre las emociones deja bastante que desear, ya que términos como frustración, meditación o compromiso presentan unas definiciones poco operativas, impidiendo obtener resultados congruentes que nos faciliten la obtención de conclusiones.


Aparato experimental

Cayetano Delgado Quintero
Alberto Hernández Sande


---
Bibliografía

Ekanayake H. (2010). P300 and Emotiv EPOC: Does Emotiv EPOC capture real EEG?

http://emotiv.com/developer/SDK/UserManual.pdf (consultado a 18 de marzo de 2014)

M. Pröll (2012). Using a low-cost gyro and eeg-based input device in interactive game design. Graz University of Technology.

T. Huang et al (2012). Emotion recognition using the Emotiv EPOC device. ICONIP 2012, Part V, LNCS 7667, pp. 394–399.


10 abril 2014

Diseño de caso único. Laberinto Hampton Court


Una de las características principales de los diseños N=1 es que permite la replicación a lo largo de un periodo tan prolongado de tiempo como precise el investigador.

En estas replicaciones, es posible manipular la Variable Independiente (o VI) cuantas veces sea necesario, es decir, ausencia o presencia de la misma. De esa forma se podrá comprobar empíricamente como cambia la Variable Dependiente (o VD) en presencia o ausencia de la VI.

Otro aspecto a destacar de esta metodología es que se puede obtener una relación causal entre ambas variables, siempre que se tenga un nivel alto de control de Variables Extrañas (validez interna en el experimento).

El objetivo de este experimento es comprobar la relación de tipo causal que pueda existir entre la variable independiente (presencia o ausencia de refuerzo) y la dependiente (tiempo de respuesta en recorrer el laberinto).


Método

El sujeto experimental fue un hámster, de 1 año y 4 meses de edad. Se utilizó este tipo de roedor ya que era el que estaba disponible en el momento de realizar el protocolo. El sujeto no estaba deprivado de comida, aunque esta siempre se administraba después de cada sesión, a la misma hora del día y la misma cantidad.

El instrumento utilizado fue una reproducción a escala del Laberinto Hampton Court (Figura 1), que se elaboró para tal actividad.

Figura 1. Aparato y sujeto experimental
El procedimiento en este experimento fue el siguiente; Para determinar el tipo de refuerzo a utilizar, es decir un estímulo que aumenta la probabilidad de la operante, se realizó un procedimiento que consistía en poner cuatro tipos de refuerzo distintos en cada esquina de la caja de meta del laberinto, (pan, lechuga, alpiste y oblea). Se iba rotando en el sentido de las agujas del reloj cada reforzador (todos los reforzadores pasaron por todas las esquinas 15 veces), para controlar los posibles efectos de variables extrañas como la preferencia por alguna esquina. Se tomaron medidas del número de veces que el hámster eligió un refuerzo y en que esquina estaba. A partir de esta prueba se determinó el uso de pan como refuerzo, siguiendo el Principio de Premack.

Los diseños de N=1 se pueden realizar de varias maneras. En este caso, se ha utilizado un diseño de reversión, (la conducta puede regresar al nivel de línea base después de la intervención) e intra-serie (se registra la conducta en un solo individuo, y la efectividad de la intervención se valora mediante la comparación entre las sucesivas fases de esa serie). Ver Barlow y Hersen (1988).

El diseño utilizado (A-B-A) en el experimento consistió en:
  • Fase A: Registro de la VD, en este caso Tiempo de Respuesta (TR) en minutos y segundos invertidos en recorrer el laberinto. En la caja de meta se encontraba el reforzador (pan). Se tomaron medidas repetidas de la VD hasta lograr la estabilidad y establecer la línea base. El criterio de estabilidad no fue establecido a priori sino que se evaluó a través del análisis visual de los resultados.
  • Fase B: Intervención o tratamiento (retirada del refuerzo) o fase de extinción. Se volvieron a recoger medidas repetidas de la VD durante la introducción de la VI, para saber si se habían producido cambios, y compararlas con la línea base de la Fase A.
  • Fase A: Se volvió a administrar el refuerzo y se estabilizó la conducta (línea base), para asegurar que el refuerzo tenía el control sobre la conducta.

Se han realizado 100 ensayos de los cuales 30 han sido realizados en la fase A de reforzamiento, 35 en la fase B de extinción (ausencia de refuerzo) y otros 35 en la fase A de nuevo con reforzamiento. 

Todos los ensayos se daban por terminados si el hámster llegaba al centro del laberinto o una vez pasados 6 minutos no llegaba a la caja de meta. Una vez allí, el hámster permanecía en ella 30 segundos (para que consumiera el reforzador, y que el hecho de sacarlo del laberinto no supusiera un castigo).

Además, se estableció un intervalo entre ensayos (o ITI) de 3 minutos, para controlar posibles variables extrañas como que el hámster se guardara la comida en la boca, para así darle tiempo a comer antes de comenzar con el siguiente ensayo.


Resultados

Como puede verse en la Figura 2, a lo largo de los ensayos en la fase A los TR disminuyen considerablemente (administrando el refuerzo).En los primeros 10 ensayos tarda aproximadamente 2’30”, mientras que en los últimos 10 sólo tarda unos 30 segundos. Es decir, tarda aproximadamente 5 veces menos al final de la fase. 

En la fase B o extinción los TR tienden a aumentar de nuevo, siendo los tiempos iniciales de aproximadamente 30” y al finalizar esta fase de aproximadamente 4’30’’ (es decir, tarda 9 veces más). 

Al terminar con la Fase de extinción, se volvió a someter al hámster a la línea base o fase A. De nuevo se puede observar que los TR disminuyen, haciéndolo además, con bastante rapidez como es propio después de una fase de extinción. La diferencia de tiempos es mayor en esta fase que en la primera, ya que existen una diferencia de aproximadamente 4 minutos entre el inicio y el final de esta fase (es decir, tarda 9 veces menos).


Figura 2. Tiempo hasta la meta en presencia y ausencia de refuerzo.




Vídeo: Ensayo número 79



Discusión

Con este tipo de diseños de N=1 se puede detectar la causalidad como en cualquier diseño experimental, ya que permite elaborar análisis funcionales del comportamiento. En este caso, se demuestra que la presencia del reforzador influyó notablemente sobre la conducta del sujeto. Estos diseños permiten aplicar de forma flexible cualquier nivel de la VI en la fase del experimento que más convenga, o donde los datos previamente obtenidos indiquen. Por otro lado, los diseños de caso único permiten tener un alto grado de control de variables extrañas. 

De este modo, manipulando los niveles de la VI (presencia o ausencia de refuerzo) se pueden observar los diferentes valores obtenidos en la VD, lo cual indica una relación funcional entre VI-VD. Todo ello posibilita identificar las variables de las que la conducta es función, además de proporcionar una alta validez interna. 

Sin embargo, al realizar este experimento con un solo sujeto, la validez interna de este estudio es limitada. Esto podría mejorarse si se replicara este tipo de experimentos con tres o más sujetos, tal y como señalan Logan, Hickman, Harris y Heriza (2008). Estos autores clasifican en 5 niveles de evidencia los diseños de N=1, según el número de sujetos en los que se replica el estudio, la aleatorización o no de los mismos y el tipo de implementación de las fases del experimento.
  



Miguel Ángel Maldonado Herves
Mª Pilar Cáceres Pachón
Jesús Gómez Bujedo


----
Referencias

Barlow, D. y Hersen, M. (1988). Diseños experimentales de caso único. Barcelona: Ediciones Martínez Roca, S. A.

Logan, L., Hickman, R., Harris, S., & Heriza, C. (2008). Single-subject research design: recommendations for levels of evidence and quality rating. Developmental Medicine & Child Neurology, 50, 99-103.



31 marzo 2014

Derivación de relaciones de equivalencia en ancianos con y sin deterioro cognitivo


Se suele utilizar con frecuencia el procedimiento de clases de equivalencia para estudiar las relaciones que establecen las personas entre estímulos que inicialmente eran arbitrarios. Cómo se produce este aprendizaje y de qué manera influye en el comportamiento de las personas, sobre todo en el lenguaje, cobra bastante interés. Esto se debe a que es un tipo de conducta novedosa que implica, generalmente, reglas verbales, y de la que se derivan otras conductas no entrenadas previamente.

Las relaciones de equivalencia se definen mediante estímulos que aparentemente no guardan relación entre sí, y que cuando se crea una relación entre ellos es totalmente arbitraria. Lo curioso de este tipo de aprendizaje es que al entrenar soló una relación (AB o BC), se derivan otras no entrenadas previamente (Sidman, 1982). La relaciones que emergen (derivan) de las directamente entrenadas son simetría (BA y CB), transitividad (AC) y equivalencia (AC).

Como puede verse en el siguiente esquema, las líneas continuas indican las relaciones directamente entrenadas, y las líneas discontinuas muestran aquellas relaciones que se derivan del aprendizaje anterior. Es decir, se quiere enseñar a un niño que “uno” es “1”, y que “1” es “one” (relaciones entrenadas). Lo que ocurre a continuación es que se deriva que “1” es “uno”, que “one” es “1”, que “uno” es “one” y que “one” es “uno” (relaciones no entrenadas).



Aunque este tipo de relaciones han sido bastante estudiadas en niños y adultos, poco se sabe acerca de ellas en las personas mayores. En un estudio de Pérez-González y Moreno-Sierra (1999), se comprobó que las personas mayores (con edades comprendidas entre los 66 y 74 años), también aprenden las discriminaciones condicionales sólo que a un ritmo más lento (necesitan más ensayos), si se les compara con los jóvenes. Es decir, una persona adulta necesitó entre 27 y 45 ensayos (hasta conseguir el criterio), y los ancianos entre 123 y 284 ensayos.

Por otro lado, también se han realizado estudios con personas diagnosticadas con Alzheimer en grado severo utilizando el procedimiento de relaciones de equivalencia (ej. Steingrimsdottir y Arntzen, 2011). Se comprobó que estas personas sí aprendían, pero sólo las relaciones directamente entrenadas. En la prueba no consiguieron derivar las nuevas relaciones a partir de las que habían aprendido. En el resto de ellas (fases de prueba), los participantes no consiguieron aprenderlas. En el ejemplo explicado anteriormente, los sujetos no aprendían que “1” es “uno”, ni que “one” es “1”, ni que “uno” es “one” y ni que “one” es “uno”.

Cabe destacar una investigación (Gallagher y Keenan, 2009) que se realizó utilizando el procedimiento de las relaciones de equivalencia, pero midiendo el deterioro cognitivo con el Mini Mental Status Examination (MMSE). Este tipo de pruebas se utiliza para realizar una evaluación rápida del estado de los procesos cognitivos de las personas. El MMSE consta de 11 preguntas, con un total de 30 puntos. Esta prueba indica deterioro cognitivo a partir de 24 puntos o menos. El estudio realizado por Gallagher y Keenan mostró que las personas que puntuaban 27 o más en el MMSE resolvían las relaciones de equivalencia sin problemas. Pero quienes puntuaban por debajo de 27, no conseguían derivar estas relaciones.

Por lo tanto, la pregunta que surge ahora es: ¿qué ocurre entre las puntuaciones 27 y 24 del MMSE, que esta prueba no es sensible, y sin embargo las relaciones de equivalencia si? Pero, ¿qué es lo que registra?

A raíz de estas cuestiones, se planteó realizar una investigación para intentar averiguar qué ocurre. Se pretende comparar a personas mayores de 65 años sin deterioro cognitivo (24 o más en MMSE) y personas con deterioro cognitivo (24 o menos en MMSE), en una tarea de aprendizaje utilizando el procedimiento de relaciones de equivalencia.


Pilar Cáceres Pachón
pipicp89@gmail.com

--------
Referencias

Gallagher, S. y Keenan, M. (2009). Stimulus equivalence and the Mini Mental Status Examination in the elderly. Europeanjournal of behavioranalysis. 10(2), 159-165.

Pérez-González, L. y Moreno-Sierra, V. (1999).Equivalence class formation in elderly persons. Psicothema. 11(2), 325-336

Sidman, M. & Tailby, W. (1982). Conditional discrimination vs. matching to sample: An expansion of the testing paradigm. Journal of the Experimental Analysis of Behavior, 37, 5-22.

Steingrimsdottir, H. y Arntzen, E.(2011). Using conditional discrimination procedures to study rememberingIn an alzheimers patient. Behavioral Interventions, 26, 179-192.