2 de octubre de 2016

Arrojan más luz sobre la función del calcio en el aprendizaje y la memoria

Descubren en moscas de la fruta que el calcio mitocondrial contribuye al desarrollo de la memoria.

Cell Reports

El calcio puede contribuir al desarrollo del cerebro y de la cognición, según han descubierto en moscas de la fruta. [iStock/ Susie3Ford]
Se sabe que el calcio desempeña una función importante para nuestros huesos y dientes, pero su papel para las neuronas —en particular, su efecto en los procesos de aprendizaje y memoria— es menos conocido.

Investigadores del Instituto de investigación Scripps (TSRI, por sus siglas en inglés) acaban de hallar nuevos indicios que demuestran cómo el calcio influye en las mitocondrias (la fuente de energía de las células) y puede contribuir al desarrollo del cerebro y de la cognición. El equipo descubrió en moscas de la fruta (Drosophila melanogaster) que el bloqueo de un canal por el que llega el calcio a la mitocondria, llamado uniportador mitocondrial de calcio, causa un deterioro de la memoria, aunque no altera la capacidad de aprendizaje.

«Al eliminar la actividad del uniportador, observamos que las moscas presentaban déficits de memoria», indica Ron Davis, autor del estudio y director del departamento de neurociencia del TSRI. «Pero nos sorprendió que todavía eran capaces de aprender, aunque fuera solo con un recuerdo fugaz. Pensábamos que no serían capaces de aprender en absoluto», agrega.

Desarrollo de la memoria

La proteína del uniportador mitocondrial de calcio, identificada por primera vez en 2011, permite que los iones de calcio se muevan desde el interior de la célula a la mitocondria. Esta se halla regulada por otras proteínas (MICU1, MICU2 y EMRE). Los pacientes humanos con mutaciones en MICU1 pueden presentar problemas de aprendizaje, señala Davis.

«La conclusión novedosa de este estudio es que la entrada de calcio mitocondrial durante el desarrollo resulta necesaria para establecer la competencia neuronal que contribuye a la memoria adulta», informa Ilaria Drago, investigadora principal del trabajo.

El equipo halló que la inhibición de la función del uniportador mitocondrial de calcio conducía a una disminución en el contenido de las vesículas sinápticas (sacos minúsculos dentro de la célula donde se almacenan varios neurotransmisores) y a un aumento en la longitud de los axones (los filamentos delgados de las neuronas).

Con todo, los autores adivierten que si bien detectaron problemas estructurales, todavía se desconoce su función concreta en el desarrollo neuronal. «El descubrimiento de que el complejo de uniportador mitocondrial de calcio desempeña una función de desarrollo en la regulación de la memoria en moscas adultas resulta intrigante y merece una exploración más profunda», apunta Davis.

Más información en Cell Reports

Fuente: Instituto de Investigación Scripps

Tomado de: http://www.investigacionyciencia.es/noticias/arrojan-ms-luz-sobre-la-funcin-del-calcio-en-el-aprendizaje-y-la-memoria-14497?utm_source=boletin&utm_medium=email&utm_campaign=Del+3+al+9+de+septiembre+2016

29 de agosto de 2016

Así trata el cerebro la física

© ISTOCKPHOTO/CHATCHAISURAKRAM
Para aprender ciencia, nuestro cerebro readapta redes neuronales encargadas de procesar información cotidiana.

Cepelewicz, Jordana


Los primeros Homo sapiens no sabían nada de la teoría de la relatividad general de Einstein. Sin embargo, hoy se espera que cualquier estudiante de física entienda al menos sus principios básicos. «¿Cómo es posible que nuestros "antiguos" cerebros aprendan nuevas ciencias y representen conceptos abstractos?», se pregunta Marcel Just, neurocientífico de la Universidad Carnegie Mellon. En un trabajo cuyos resultados aparecieron publicados en junio en Psychological Science, Just y su colaborador Robert Mason hallaron que, al pensar en conceptos físicos, el cerebro pone en marcha patrones de activación cerebral correspondientes a capacidades neuronales cotidianas, como procesar el ritmo o la estructura de una frase. Es decir, dichos patrones se readaptan para aprender conceptos científicos abstractos.

Just y Mason tomaron imágenes cerebrales de nueve estudiantes avanzados de física e ingeniería mientras se centraban en 30 conceptos físicos, como momento, entropía o corriente eléctrica. Después, introdujeron los datos en un programa informático de aprendizaje automatizado, el cual logró predecir en qué estaban pensando los sujetos a partir de su actividad cerebral. Eso fue posible porque los patrones neuronales que intervenían al considerar un concepto determinado (la gravedad, por ejemplo) eran los mismos en todos los participantes. «Cada uno aprende física en aulas diferentes, con profesores distintos y a su propio ritmo», observa Mason. «Así que no deja de resultar sorprendente que, en todos los estudiantes, se hayan desarrollado las mismas regiones cerebrales para entender un concepto físico.»

Los investigadores compararon los escáneres de su estudio con investigaciones previas que habían asociado ciertas actividades neuronales a procesos mentales concretos. Vieron que, ante los conceptos científicos de frecuencia o longitud de onda, se activaban las mismas regiones que al contemplar bailarines, escuchar música u oír una pauta rítmica, como el galope de un caballo; probablemente, porque todos esos casos implican percibir algún tipo de periodicidad. Por otro lado, cuando los estudiantes se enfrentaban a ecuaciones matemáticas, las zonas afectadas eran las que de ordinario se encargan de procesar las frases. Los resultados dan a entender que algunas estructuras neuronales genéricas se readaptan para ocuparse de nociones científicas complejas. «Por tanto, aunque algunos de esos conceptos solo se hayan formalizado en los últimos dos siglos, nuestro cerebro ya estaba hecho para vérselas con ellos», señala Just.

Mason cree que tales hallazgos podrían contribuir algún día a determinar qué lecciones deben enseñarse juntas para facilitar su comprensión. Ahora, Just y él tienen pensado continuar sus investigaciones con otras ciencias de las que nuestros antepasados sabían poco, como la genética y la informática.

Tomado de: http://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/numero/479/as-trata-el-cerebro-la-fsica-14399?utm_source=boletin&utm_medium=email&utm_campaign=Psicolog%C3%ADa+y+neurociencias+-+Agosto+%284%29

25 de agosto de 2016

¿Podemos aprender a olvidar?

THOMAS FUCHS
Los neurocientíficos comienzan a entender cómo controla el cerebro su propio centro de la memoria.
Gholipour, Bahar

Tras un acto reflejo para agarrar la sartén que cae del fogón, uno es capaz de retirar la mano en el último momento para evitar quemaduras. Esto es así porque el control ejecutivo del cerebro puede intervenir para frenar una cadena de órdenes automáticas. Nuevos datos indican que lo mismo puede suceder en el reflejo de la memoria y que el cerebro puede detener la recuperación espontánea de recuerdos potencialmente dolorosos.

Dentro del cerebro, los recuerdos se asientan en una red de información interconectada. Como resultado, un recuerdo puede desencadenar otro, haciéndolo emerger a la superficie sin ningún esfuerzo consciente. «Cuando rememoramos un suceso u objeto, la respuesta automática de la mente es ayudarnos presentándonos todo aquello que se asocia con él», comenta Michael Anderson, neurocientífico de la Universidad de Cambridge. «Pero a veces recordamos cosas en las que preferiríamos no pensar.»

Sin embargo, los humanos no estamos indefensos ante este proceso. Los estudios de imagen previos sugieren que las áreas frontales del cerebro pueden disminuir la actividad del hipocampo, una estructura crucial para la memoria, y, por tanto, pueden suprimir la recuperación de los recuerdos. En un esfuerzo por ahondar en la cuestión, Anderson y sus colaboradores investigaron recientemente lo que sucede después de suprimir el hipocampo. Pidieron a 381 estudiantes universitarios que aprendieran pares de palabras vagamente relacionadas. Más tarde, se les mostró una palabra y se les pidió que recordaran la otra; o que hicieran lo contrario y, de forma activa, no pensaran en la otra palabra. A veces, entre estas tareas se les presentaba imágenes inusuales, como un pavo real en un aparcamiento.

Como se describe en Nature Communications, los investigadores hallaron que la capacidad de los participantes para evocar más tarde los pavos reales y otras imágenes absurdas fue un 40 por ciento inferior si habían sido instruidos para suprimir el recuerdo de las palabras antes o después de ver las imágenes, en comparación con los ensayos en los que se les había pedido recordar las palabras. El hallazgo aporta nuevas pruebas de que existe un mecanismo de control de la memoria y sugiere que tratar de olvidar activamente un recuerdo en particular puede afectar negativamente a la memoria general. Los investigadores denominan el fenómeno «sombra amnésica», porque aparentemente bloquea el recuerdo de acontecimientos no relacionados que suceden próximos al momento en que disminuye la actividad del hipocampo. Los resultados pueden incluso explicar por qué algunas personas que han sufrido traumas (y luego trataron de olvidarlos) presentan poca memoria de los acontecimientos diarios, según opinan expertos no implicados en el estudio.

Salvo la amnesia temporal, la supresión de recuerdos a la carta podría ser una habilidad útil, apunta Anderson. Es por ello que él y su colaboradora Ana Catarino están estudiando si es posible entrenar a personas en el arte de la supresión: actualmente están llevando a cabo un experimento en el que monitorizan la actividad cerebral de los participantes en tiempo real, a la vez que les van informando verbalmente sobre cómo disminuye la actividad del hipocampo. Ambos proponen que los resultados podrían ayudar a algunas personas a aprender mejor a olvidar selectivamente el pasado, una habilidad que podría aliviar particularmente el dolor de las personas con trastorno de estrés postraumático.

Tomado de: http://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/numero/479/podemos-aprender-a-olvidar-14402?utm_source=boletin&utm_medium=email&utm_campaign=Sumario+Investigaci%C3%B3n+y+Ciencia+Agosto+2016

4 de julio de 2016

Los padres influyen en el desarrollo de la atención sostenida de los hijos

Un estudio del movimiento ocular revela que la mirada distraída del adulto afecta la capacidad de atención del niño durante el juego.

Cuando los padres desvían la atención del juego con su hijo cada dos por tres, sea para atender un mensaje en el teléfono móvil o para repasar el correo en la tableta digital, esa conducta comporta consecuencias negativas en la capacidad atencional del bebé. Investigadores de la Universidad de Bloomington en Indiana han comprobado que los niños se entretienen durante más tiempo con un juego si el padre o la madre se implica también en el entretenimiento sin apartar la atención de él. Al parecer, existe una conexión entre el tiempo que un padre mira un objeto y el tiempo que un niño presta atención a ese mismo objeto.

«Los cuidadores que parecen distraídos o que apartan con frecuencia la mirada mientras juegan con su hijo influyen negativamente en la capacidad de atención del bebé en una etapa clave del desarrollo», afirma Chen Yu, autor principal de la investigación.

El reciente trabajo destaca la importancia de la atención conjunta de padres e hijos en el desarrollo de la capacidad atencional del niño. Según sugieren los autores, esta experiencia social temprana podría influir en la atención sostenida del individuo en etapas posteriores. [iStock/ _Nadezhda1906]

Juguetes compartidos

Para el estudio, los investigadores sentaron a una serie de padres con sus respectivos hijos, de entre 11 meses y un año de edad, frente a frente en una mesa sobre la que se encontraban diversos juguetes. Tanto los adultos como los niños llevaban puesto en la cabeza un casco con cámara, la cual registraba el movimiento ocular de cada uno de los participantes en todo momento.

Los experimentadores indicaron a los probandos que podían jugar con cualquier objeto de los que habia sobre la mesa. Para no influir en la interacción durante el juego, no dieron instrucciones a los adultos sobre cómo debían actuar ni con qué jugar. No obstante, observaron que  podían dividir a los progenitores en dos grupos: padres que dejaban a los niños que dirigieran el juego y padres que intentaban guiar a su hijo en la manera de entretenerse.

 Influencia en el desarrollo posterior

Comprobaron que los niños se interesaban más por el juguete si los padres también prestaban atención a ese objeto. Con todo, la mejor estrategia para garantizar la atención del bebé consistía en dejarle escoger el juguete con el que pasar el rato. En ese caso, se mostraban atentos incluso si la madre o el padre apartaba la mirada del entretenimiento por un breve espacio de tiempo. En cambio, los padres que querían imponer a su hijo el juguete con el que debían jugar juntos, lograban que el hijo perdiera pronto el interés.

El tiempo que un niño puede mantener la atención en una tarea es un indicador importante de su éxito educativo y el desarrollo posterior en competencias cognitivas como el lenguaje y la resolución de problemas, señalan los autores. Aunque las diferencias en la capacidad de atención observadas en el reciente estudio se refieren solo a unos cuantos segundos, ese tiempo resulta suficiente para diferenciar cuándo los hijos perciben que sus padres se comportan de manera distraída, añaden. «El impacto de unos segundos más o menos puede parecer pequeño, pero cuando eso ocurre durante sesiones de juego diarias a lo largo de meses y durante una etapa crítica en el desarrollo mental, el efecto aumenta», afirma Yu.

Más información en Current Biology

Fuentes: Spektrum.de / Daniela Zeibig y Universidad de Bloomington en Indiana

Tomado de: http://www.investigacionyciencia.es/noticias/los-padres-influyen-en-el-desarrollo-de-la-atencin-sostenida-de-los-hijos-14208?utm_source=boletin&utm_medium=email&utm_campaign=Psicolog%C3%ADa+y+neurociencias+-+Junio

3 de junio de 2016

La cooperación emerge en grupos pequeños y con buena memoria

En cambio, cuanto más grandes son y menos recuerdos tienen, más se favorece el egoísmo

Un estudio con teoría de juegos realizado en EE.UU. muestra que los grupos sociales pequeños y con buena memoria tienden a la cooperación, mientras que los grandes y/u olvidadizos favorecen los comportamientos egoístas, que perjudican al grupo.

tragedia de los comunes, un concepto descrito por el ecologista Garrett Hardin en 1968, pinta una visión pesimista de la naturaleza humana. La teoría es que, si un recurso es compartido, los individuos actuan en su propio interés, pero en contra de los intereses del grupo, agotando ese recurso.

Sin embargo, los ejemplos de cooperación e intercambio abundan en la naturaleza, desde las sociedades humanas hasta las bacterias unicelulares.

En un nuevo artículo, publicado en la revista Scientific Reports, investigadores de la Universidad de Pennsylvania (EE.UU.) utilizan la teoría de juegos para probar el complejo conjunto de cualidades que pueden promover la evolución de la cooperación.

Su análisis demuestra que los grupos pequeños en los que los participantes tenían buena memoria de las acciones de sus compañeros eran más propensos a desarrollar estrategias de cooperación.

El trabajo sugiere una posible ventaja de la poderosa capacidad memorística del ser humano: ha alimentado nuestra capacidad para cooperar como sociedad.

"En el pasado habíamos observado interacciones de dos jugadores para determinar las estrategias evolutivas más sólidas", dice Joshua B. Plotkin, profesor del Departamento de Biología, en Penn News, el diario de la universidad. "Nuestro nuevo análisis permite escenarios en los que los jugadores pueden reaccionar a los comportamientos y estrategias de varios jugadores a la vez. Nos da una imagen de un conjunto mucho más rico de interacciones sociales, Una imagen que es probable que sea más representativa de la complejidad de la conducta humana".

Plotkin colaboró ​​con Alexander J. Stewart, entonces investigador postdoctoral y ahora investigador en el University College de Londres, en el trabajo, que se basa en años de estudio de la teoría de juegos.

En sus trabajos anteriores, utilizaron el escenario del dilema del prisionero iterado, en el que dos jugadores se enfrentan y pueden elegir entre cooperar o no, para entender qué circunstancias promueven el aumento de la generosidad frente al egoísmo.

Más complejo

En el nuevo artículo, agregaron dos niveles de complejidad. En primer lugar, utilizaron un escenario diferente, conocido como juego de los recursos públicos, que permite a los jugadores interactuar con más de un jugador a la vez. La configuración punto también permitía a los investigadores variar el número de jugadores en un juego determinado.

En el juego de los recursos públicos, un jugador puede aportar una cierta cantidad de un recurso personal a una reserva pública, que luego se divide por igual entre todos los jugadores. El mayor beneficio compartido se produce cuando todos los jugadores contribuyen generosamente, pero eso pone también a los jugadores generosos en riesgo de perder los recursos, en beneficio de los jugadores egoístas, un escenario tipo tragedia de los comunes.

El segundo nivel de complejidad añadida fue imbuir a los jugadores con la capacidad de tener buena memoria. Es decir, los jugadores pueden utilizar las acciones de sus rivales en las rondas anteriores del juego para decidir sus estrategias en rondas posteriores. Si un jugador se encontró en varias ocasiones a un jugador en el grupo que con frecuencia se comportó de manera egoísta, por ejemplo, pueden ser más propensos a "castigarl" reteniendo recursos en las rondas futuras.

Además, se permitió a las poblaciones de jugadores "evolucionar", de tal manera que los jugadores más exitosos, los que alcanzan mayores beneficios, son más propensos a pasar sus estrategias a la siguiente generación de jugadores.

Stewart y Plotkin encontraron que cuanto más jugadores había en el juego menos probable era que ganaran las estrategias de cooperación. En cambio, la mayoría de las estrategias sólidas en los grupos grandes favorecía a los egoístas.

"Esto tiene sentido intuitivo", dice Plotkin. "A medida que un grupo aumenta de tamaño, las perspectivas de una cooperación sostenida bajan. La tentación de desertar y convertirse en un gorrón sube".

Con memoria 

Por el contrario, sus resultados mostraron que dar a los jugadores una memoria más larga, con la capacidad de recordar y basar sus decisiones en un máximo de 10 rondas previas, daba lugar a un mayor volumen relativo de estrategias de cooperación sólidas. Parte de la razón de esto, según los investigadores, era que los mayores recuerdos permitían a los jugadores desarrollar una gama más amplia de estrategias más matizadas, incluidas las que podían castigar a los individuos egoístas y garantizar que no tomaran el mando de la población.

En una última serie de experimentos, Stewart y Plotkin utilizaron simulaciones por ordenador que permitían evolucionar a la capacidad de memoria de los jugadores en paralelo a las propias estrategias. Encontraron que no sólo se veían favorecidas las memorias más largas, sino que la evolución de las mismas daba lugar a un aumento de la cooperación.

"Creo que un resultado fascinante de nuestro estudio", dice Stewart, "es que se puede obtener un conjunto de circunstancias en las que hay una especie de bucle de realimentación incontrolable. Los recuerdos más largos favorecen una mayor cooperación y una mayor cooperación promueve la buena memoria. Ese tipo de situación, en la que se pasa de un sistema más simple a uno que es más complejo, es un gran ejemplo de lo que hace la evolución, que conduce a una complejidad cada vez mayor".

Como paso siguiente, a Stewart y Plotkin les gustaría usar sujetos humanos para evaluar sus resultados matemáticos, y ver a qué prestan atención cuando juegan, si a sus propios beneficios o a los de sus oponentes.

Referencia bibliográfica: 

Alexander J. Stewart, Joshua B. Plotkin: Small groups and long memories promote cooperation. Scientific Reports (2016). DOI: 10.1038/srep26889

Tomado de: http://www.tendencias21.net/La-cooperacion-emerge-en-grupos-pequenos-y-con-buena-memoria_a42717.html

29 de mayo de 2016

Describen un circuito neuronal para olvidar el miedo

Aislan en ratones un circuito cerebral que permite olvidar el miedo.

Stetka, Bret

El cerebro es muy eficiente advirtiendo de peligros. También para avisarnos de que la amenaza ha desaparecido. Sin embargo, en ocasiones este sistema falla y subsisten las asociaciones desagradables, deficiencia que, según se cree, subyace en el trastorno de estrés postraumático (TEP). Una nueva investigación publicada en Science Advances ha permitido identificar un circuito neuronal responsable de borrar los malos recuerdos. Este hallazgo podría contribuir al tratamiento de un amplio abanico de trastornos de ansiedad, entre ellos, el TEP.

En trabajos anteriores se ha venido considerando que son dos las regiones cerebrales que suscitan y regulan las respuestas de temor. La amígdala interviene en las reacciones emotivas y se activa cuando estamos asustados. La corteza prefrontal interviene si la amenaza resulta inofensiva. Muchos estudios implican a ambas áreas en los recuerdos relacionados con el miedo, pero debido a que se hallan conectadas a otras partes del cerebro, se ignoraba si para superar el miedo sería necesario que operasen de manera conjunta. El reciente estudio, dirigido por Andrew Holmes, del Instituto Nacional del Alcoholismo de Estados Unidos, confirma que para suprimir las asociaciones de temor se requiere una conexión operativa entre esas dos regiones cerebrales.

Los investigadores entrenaron a ratones para que temieran un sonido. Para ello, asociaron el ruido con una descarga eléctrica en las patas. Por lo general, si se expone a estos animales de nuevo al sonido, pero sin que sufran la descarga, llegan a aprender que el estímulo sonoro es inocuo, por lo que pierden el miedo. Mediante técnicas de optogenética, los científicos perturbaron la conexión entre la amígdala y la corteza prefrontal. Los autores observaron que al alterar esta conexión crítica se impedía que los ratones superasen la asociación negativa con el estímulo sonoro, a pesar de que era inocuo. En resumen, los ratones seguían temiéndolo aunque ya no sufrían descargas en las patas. También observaron lo contrario: la estimulación de ese circuito cerebral aceleraba la extinción de los recuerdos de temor.

Según explica Holmes, la amígdala y la corteza prefrontal constituyen dos grandes nodos de una compleja red de comunicaciones. Sin embargo, parece que en los casos en los que existe una deficiente extinción del miedo, como en el TEP, solo se encuentra dañada la conexión entre ambas regiones y no con los nodos centrales. En vista de este nuevo descubrimiento convendría buscar fármacos que actuasen sobre este ­concreto circuito de temor.

Fuente:
Science Advances, vol. 1, n.o 6, págs. 1-8, 2015

Tomado de: http://www.investigacionyciencia.es/revistas/mente-y-cerebro/numero/77/describen-un-circuito-neuronal-para-olvidar-el-miedo-14000?utm_source=boletin&utm_medium=email&utm_campaign=Psicolog%C3%ADa+y+neurociencias+-+Mayo

12 de abril de 2016

De la antimateria a la antimemoria: Nueva teoría sobre la formación de recuerdos

Durante el aprendizaje, por cada huella neuronal que se forma en el cerebro existiría otra ‘huella especular’

Investigadores de la Universidad de Oxford y del University College London (UCL) proponen una nueva teoría sobre la formación de recuerdos: la existencia de antimemorias o huellas de actividad eléctrica neuronal opuestas a las huellas que provoca el aprendizaje. La finalidad de estas antimemorias es mantener el equilibrio de la actividad eléctrica del cerebro, afirman los científicos. Las primeras pruebas realizadas al respecto con humanos parece que les dan la razón.

Por Yaiza Martínez.

Cuando vivimos cualquier experiencia (vemos un objeto, aprendemos a conducir, nos llevamos un susto), en nuestro cerebro se forma una “traza neuronal” o circuito neuronal exclusivo de dicha experiencia; una “huella” cerebral única que constituye ‘una memoria’ de esa experiencia. En principio, así se forman los recuerdos en nuestro cerebro.

Por ahora, se sabe que este proceso puede dar lugar a varios tipos de memoria (a corto o largo plazo), que en cierta manera está relacionado con las emociones; y además que tiene una sorprendente materialidad intrínseca (por ejemplo, se ha logrado grabar la producción de proteínas en las conexiones neuronales o sinapsis en el momento de la creación de un recuerdo).

Por otra parte, está la antimateria. No parece que tenga mucho que ver con los recuerdos, pero enseguida entenderemos la relación. En física, se denomina antimateria a una forma de materia constituida por antipartículas, esto es, por partículas como las de la materia corriente, pero con carga opuesta.
 
Así que la antimateria es como una “imagen espejo” de la materia: En lugar de electrones, tiene antielectrones o positrones (electrones con carga positiva); y en lugar de protones, tiene antiprotones, que son protones con carga negativa.
 
El hallazgo de la antimateria fue uno de los descubrimientos más interesantes de la física del siglo pasado, pues aumentó nuestra comprensión del universo y de las leyes de la física.  Según los científicos, en el origen del universo existían materia y antimateria en iguales proporciones, aunque luego la materia “triunfó” sobre la antimateria por causas aún no del todo aclaradas, y eso ha hecho posible, entre otras cosas, que hoy estemos aquí  escribiendo-leyendo este artículo.

La antimemoria equilibra el cerebro
 
Pues bien, ahora se está proponiendo una explicación para la memoria muy cercana al concepto de antimateria: investigadores de la Universidad de Oxford y del University College London (UCL) señalan que existe la antimemoria, es decir, que cuando se crean nuevas conexiones entre neuronas (en la formación de un recuerdo), al mismo tiempo se genera un patrón de actividad eléctrica neuronal exactamente opuesto a esa ‘traza neuronal’ nueva.
 
Los científicos creen que, de esta forma, mediante la ‘antimemoria’, el cerebro mantiene  el equilibrio de su actividad eléctrica general. Esta teoría viene respaldada por investigaciones realizadas con ratas y ratones y con modelos matemáticos, informa The Conversation.
 
Como hemos dicho, cuando aprendemos algo, aumentan las conexiones entre las neuronas (aumento de la excitación). A pesar de ello, los niveles de actividad eléctrica cerebrales se mantienen normalmente fina y delicadamente equilibrados. Esto es necesario para la salud del cerebro, pues las alteraciones en ese equilibrio eléctrico están relacionadas con trastornos cognitivos como el autismo o la esquizofrenia.
 
Los científicos creen, por tanto, que la formación de antimemorias es un segundo proceso cerebral vinculado al aprendizaje, cuyo papel es reequilibrar la excitación neuronal y mantener todo el sistema bajo control.  Así, del mismo modo que hay materia y antimateria, existiría una antimemoria para cada recuerdo, que inhibiría una excesiva actividad eléctrica cerebral; aunque sin borrar el nuevo recuerdo.
  
Destapando el recuerdo inhibido 
 
Las evidencias sobre la existencia de antimemorias hasta ahora solo nos habían llegado de experimentos con animales, en los que se grabó directamente el interior del cerebro de estos con electrodos. Como este tipo de experimentos no puede hacerse con humanos, hasta la fecha no existían pruebas de antimemoria en nuestra especie.
 
Pero los investigadores de Oxford y UCL han ideado un ingenioso método para determinar si la memoria humana funciona de esta forma. Lo explican en un artículo recientemente publicado en la revista Neuron,

Ellos ya han probado este método: pidieron a una serie de personas que aprendieran una tarea para crear en ellas un nuevo recuerdo. Unas horas después de este aprendizaje, exploraron los cerebros de dichas personas usando una tecnología poco invasiva: la resonancia magnética funcional.
 
Entonces no hallaron ningún rastro (eléctrico) de la formación del recuerdo, pues la antimemoria ya había hecho su efecto. Después aplicaron un flujo débil de electricidad en el área del cerebro donde se había formado la memoria y la antimemoria (para esto usaron otra técnica segura llamada 'Estimulación de Corriente Directa Transcraneal'), que les permitió reducir la actividad cerebral inhibitoria en esta área -interrumpir la antimemoria inhibitoria-.

Esto reveló la ‘huella’ de actividad eléctrica neuronal correspondiente al recuerdo oculto. En otras palabras, reducir la antimemoria permitió hacer resurgir la huella del recuerdo, inhibido en primer lugar por dicha antimemoria.
 
Implicaciones
 
Así que parece que en los seres humanos, como en los animales, las antimemorias también resultan críticas para evitar una potencialmente peligrosa acumulación de excitación eléctrica en el cerebro.
 
Se cree además que las antimemorias podrían desempeñar un papel importante en la detención de la activación espontánea de recuerdos que subyace a la confusión y a ciertos problemas mentales graves.
 
En última instancia, según han señalado algunos medios, el descubrimiento de antimemorias podría ser tan importante para la neurología como lo fue para la física el pasado siglo el descubrimiento de la antimateria. El tiempo lo dirá.

Tomado de: http://www.tendencias21.net/De-la-antimateria-a-la-antimemoria-Nueva-teoria-sobre-la-formacion-de-recuerdos_a42377.html

H.C. Barron. , T.P. Vogels,  U.E. Emir, T.R. Makin, J. O’Shea, S. Clare, S. Jbabdi, R.J. Dolan, T.E.J. Behrens. Unmasking Latent Inhibitory Connections in Human Cortex to Reveal Dormant Cortical Memories. Neuron (2016). DOI: 10.1016/j.neuron.2016.02.031.

17 de febrero de 2016

¿Es el alzhéimer una enfermedad de la memoria?

Por Ignacio Morgado Bernal

El alzhéimer es un trastorno neurodegenerativo que puede acabar afectando a todo el cerebro, aunque, por razones todavía no conocidas, suele empezar afectando a las neuronas de partes del mismo, como el hipocampo, implicadas en la memoria y por eso ha ganado la reputación que le caracteriza.

Cada vez olvido más dónde he puesto las llaves. Abro el frigorífico y no recuerdo que es lo que voy a buscar en él. ¿Qué me pasa? Las anteriores son frases y preguntas que oigo a veces en boca de algunos amigos de cierta edad, sabedores ellos de mi particular dedicación a la ciencia del cerebro y la memoria. Lo que en realidad preguntan, sin atreverse a hacerlo directamente, es si pueden estar empezando a tener alzhéimer, una enfermedad que la mayoría de las personas consideran como propia del la memoria. Para tranquilizarles me suelo reír cariñosamente de ellos diciéndoles que no me consulten cuando pierdan las llaves, sino cuando las tengan en la mano y no sepan para qué sirven.

Es cierto que mientras que la neurociencia no tenga más claro el origen de la enfermedad de Alzheimer y cómo evitarla no podemos negar que todos estamos expuestos a ella, es decir, cualquiera de nosotros puede acabar teniéndola. Pero el alzhéimer no es una enfermedad de la memoria. El alzhéimer es una enfermedad neurodegenerativa que puede acabar afectando a todas las neuronas del cerebro, aunque, por razones todavía no conocidas, suele empezar afectando a las neuronas de partes del mismo, como el hipocampo, implicadas en la memoria y por eso ha ganado la reputación que le caracteriza.

Desafortunadamente, la enfermedad no se queda ahí, en la memoria, pues puede acabar afectando progresivamente al movimiento, las emociones o el razonamiento de las personas que la padecen. El paciente puede acabar no conociendo a las demás personas y ni siquiera a sí mismo, lo que quizá suponga eventualmente una ventaja para evitar o reducir su sufrimiento. Los familiares del enfermo son casi siempre quienes peor lo pasan, por lo que a ellos, a esos familiares y su estado, hay que prestarles también una especial atención. Todo eso es la triste verdad, pero, por lo que comento a continuación, tampoco debemos preocuparnos más de la cuenta cuando al hacernos mayores empezamos a perder la capacidad de recordar.

Todas las personas al llegar a cierta edad vamos a sufrir un deterioro de la memoria, una pérdida de capacidad para almacenar información, y eso es algo tan natural como perder fuerza muscular o capacidades sensoriales cuando envejecemos. La mayoría de las pérdidas de memoria de quienes tienen la fortuna de alcanzar una cierta edad son además superables mediante una buena y variada cantidad de recursos, como agendas, notas, despertadores y alarmas, avisos de familiares o amigos, etc, además de los esfuerzos mentales especiales que incluso los mayores pueden hacer cuando están muy interesados en que alguna cosa importante para ellos no se les olvide. Las personas mayores olvidan mucho, pero no todo. Algunas cosas que son muy importantes para ellos no suelen olvidarlas, como darles de comer a su gato, por poner un ejemplo trivial pero indicador de que la capacidad de memorizar no se pierde completamente. En general, las rutinas, es decir, lo habitual, se olvida menos que lo que es más accidental o coyuntural.

Ocurre además que muchas cosas que olvidamos con frecuencia más que un olvido propiamente dicho son sólo una incapacidad para acceder a la información pretendida, y prueba de ello es que lo que olvidamos en un momento dado podemos recordarlo más tarde, cuando cambiamos de lugar o de estado mental. Le ocurre mucho a los mayores, y ese recuerdo posterior es buena prueba de que no han entrado en un proceso de deterioro cerebral importante. El alzhéimer es una enfermedad basada en alteraciones de la química cerebral que pueden tener su origen en los genes,  en exposiciones a ciertos agentes ambientales o en combinaciones de ambos, por lo que podemos estar bastante seguros de que, tarde o temprano, la neurociencia va a descubrir los secretos que permitan prevenir o incluso curar tan amenazante enfermedad. Es por ello que puede resultar absurdo pasarnos media vida preocupados por cosas que nunca van a suceder.

Para saber más: Morgado, I. (2014) Aprender, recordar y olvidar: Claves cerebrales de la memoria y la educación. Barcelona: Ariel

Tomado de: http://www.investigacionyciencia.es/blogs/psicologia-y-neurociencia/37/posts/es-el-alzhimer-una-enfermedad-de-la-memoria-13796

11 de febrero de 2016

How Obesity May Impair Memory

Researchers uncover a molecular link between obesity and memory deficits in mice—as well as a potential treatment.

By Jordana Cepelewicz on February 11, 2016

It’s no secret that obesity, which plagues more than 600 million people worldwide—more than one in three adults in the U.S. alone—leads to serious health problems: cardiovascular disease, diabetes and even several types of cancer. But obesity has also been established as a risk factor for cognitive decline, particularly in middle-aged and older people.

What’s not as well understood is this link’s underlying molecular mechanism—and that’s exactly what a group of researchers at the University of Alabama at Birmingham sought to decipher in a four-part experiment on mice published last month in The Journal of Neuroscience.
First, the researchers studied behavior in healthy and obese mice during memory tasks involving object recognition and location. Much like previous research from other groups, the Alabama team found that compared with their healthy counterparts, the overweight mice performed poorly on a spatial memory task, which relies on the brain’s hippocampus.

Next, the researchers took a look at epigenetic differences in the hippocampi of healthy and obese mice—in other words, at whether environmental factors, in this case obesity, may have influenced the expression of genes in the hippocampus in either group of mice. Using a molecular purification technique to isolate for and analyze methylated DNA sequences (which are associated with gene suppression), the team confirmed that four genes associated with memory formation were not expressed as strongly in the obese mice—suggesting that their obesity had somehow influenced how cells “read” these genes. “One of the particularly exciting things is that this finding links two hot areas of neuroscience: epigenetic mechanisms and cognitive effects of obesity,” says David Sweatt, a neurobiologist at Alabama and study co-author.

One gene in particular, Sirtuin 1 (Sirt1), showed further epigenetic changes that were not observed in the other three genes. “This meant that Sirt1 could lie at the nexus of metabolic dysfunction and memory formation,” says lead author Frankie Heyward, a graduate student in Sweatt’s laboratory. “We were the first to explicitly implicate reduced Sirt1 and increased Sirt1 DNA methylation in the etiology of obesity-induced memory impairment.”

To test this theory, the researchers experimentally reduced the expression of Sirt1 in otherwise healthy mice and found that, just like obese mice, they performed poorly in the hippocampus-dependent memory task. Finally, to investigate possible treatment, they turned to resveratrol, a molecule that activates Sirt1. The team successfully demonstrated that obese mice whose diet was supplemented with resveratrol had enhanced memory, indistinguishable from that of the healthy mice. Heyward still has questions, though. “We didn’t look at our target genes in an unbiased manner,” he says. “We had particular a priori hypotheses and assumptions that focused on certain genes.” In the future he hopes to use recent innovations in RNA sequencing and other technologies to expand his study of gene dysregulation to the entire genome.

Terry Davidson, a neuroscientist at American University who was not involved with the study, says there is a need for further research into what the obesity-related causes of these epigenetic changes may be. “Is it a change in the blood–brain barrier that allows toxins to cross the barrier and get into the hippocampus?” he asks. “It could be a sequence of events that occur as part of a breakdown of our response to inflammation or something like that.” He notes that further analysis of these results could yield a better understanding of specific correlations between Sirt1 expression and body weight as well as how time and exposure may play detrimental roles.

And of course, the researchers wonder how accurately these behavioral models reflect what is happening in humans. Sirt1 is already being considered as a potential therapy for improving metabolic dysfunction and enhancing life span as well as for improving cognitive outcomes in older populations. Heyward believes that his findings provide motivation to design clinical trials geared toward determining whether targeting Sirt1 can also help salvage the memories of people who are obese. “And one other interesting question,” he adds, “is whether these alterations in gene expression and DNA methylation can be reversed or whether they’re permanent. That, at present, is unknown.”

Tomado de: http://www.scientificamerican.com/article/how-obesity-may-impair-memory/

10 de febrero de 2016

La realidad virtual, una nueva herramienta para la evaluación de la memoria


La memoria humana es un complejo sistema cognitivo cuya estrecha relación con las funciones ejecutivas hace que, en muchas ocasiones, un déficit mnémico lleve aparejadas dificultades para operar con contenidos correctamente almacenados. Los tests de memoria tradicionales, que se centran más en el almacenamiento de la información que en su procesamiento, pueden ser poco sensibles tanto al funcionamiento cotidiano de los sujetos como a los cambios originados por los programas de rehabilitación.

Una revisión ha estudiado la evaluación neuropsicológica de la memoria basada en entornos de realidad virtual y ha analizado los tests existentes para la evaluación del aprendizaje, memoria prospectiva, episódica y espacial, así como los intentos más recientes de realizar una evaluación integral de todos los componentes de la memoria.

Según los investigadores, hay abundante evidencia acerca de la necesidad de mejorar la evaluación de la memoria mediante tests que ofrezcan una mayor validez ecológica, con información que pueda presentarse en varias modalidades sensoriales y que se produzca de modo simultáneo, tal como sucede en la vida real, con la presencia gradual y controlada de distractores. En este sentido, la realidad virtual puede aportar el puente necesario entre los tests neuropsicológicos convencionales y la observación comportamental en contexto real.

La investigación futura debería centrarse en la construcción de procedimientos de evaluación estándares con características psicométricas adecuadas, aunque estas tecnologías necesitan adaptarse a las necesidades clínicas específicas y resolver problemas técnicos.

[Rev Neurol 2016]
Díaz-Orueta U, Climent G, Cardas-Ibáñez J, Alonso L, Olmo-Osa J, Tirapu-Ustárroz J

Tomado de: http://www.neurologia.com/sec/RSS/noticias.php?idNoticia=5521

2 de febrero de 2016

Street View of the Cognitive Map

Cian O’Donnell1 and Terrence J. Sejnowski2,3,*

1Department of Computer Science, Faculty of Engineering, University of Bristol, Bristol BS8 1UB, UK 
2Howard Hughes Medical Institute at the Salk Institute for Biological Studies, La Jolla, CA 92037, USA 
3Division of Biological Sciences, University of California, San Diego, La Jolla, CA 92161, USA *Correspondence: sejnowski@salk.edu 
http://dx.doi.org/10.1016/j.cell.2015.12.051

To understand the origins of spatial navigational signals, Acharya et al. record the activity of hippocampal neurons in rats running in open two-dimensional environments in both the real world and in virtual reality. They find that a subset of hippocampal neurons have directional tuning that persists in virtual reality, where vestibular cues are absent.

The hippocampus is a brain structure crucial for both memory and spatial navigation. For the past our decades, the dominant theory for the role of the hippocampus in spatial navigation has been that certain hippocampal neurons, called ‘‘place cells,’’ are active selectively when animals or people occupy certain locations in space and act as the building blocks for a cognitive map (O’Keefe and Dostrovsky, 1971; O’Keefe and Nadel, 1978). Although this theory has been hugely successful—John O’Keefe was awarded the 2014 Nobel Prize in Physiology or Medicine for this work, along with May-Britt and Edvard Moser—three challenges to this model have lurked in the shadows, all of which feature in a new study from Acharya et al. (2016) in this issue of Cell.

First, the cognitive map theory rests upon the idea that place cells encode spatial location and little else. However, various data have mounted to suggestthat place cell firing is influenced by a host of other high-level variables, such as the shape of the environment, running speed, time elapsed during a run, and even the current goal of the task (reviewed by Hartley et al., 2014). In addition, and more controversially, place cells have been reported to be tuned to low-level properties such as the direction the animal is facing (McNaughton et al., 1983). Interestingly, this directional tuning was even reported in the original place cell study by O’Keefe and Dostrovsky (1971), but the field later came to the conclusion that this effect was simply an artifact of the analysis methods (Muller et al., 1994). The purported lack of directional information in the hippocampus proper was puzzling because such signals are believed necessary for the hippocampus to accurately track the animal’s location.

A second difficulty for the cognitive map theory is that it is almost exclusively based on data recorded from rodents. In contrast, hippocampal recordings from other mammals such as bats, monkeys, and humans have either found strong directional tuning in addition to spatial selectivity (in the case of bats) (Rubin et al., 2014) or a paucity of cells showing place field responses at all (in the case of monkeys and humans) (Rolls, 1999). Instead, hippocampal neurons in primates typically appear to act more like ‘‘spatial view’’ cells: active when the animal or person is looking at a particular place or object but irrespective of their own location in their environment (Rolls, 1999), which implies an egocentric reference frame rather than an allocentric one.

A third paradox has been that rodent place cells can show strong directional selectivity when a rat is let run in familiar one-dimensional linear tracks or mazes. Confusingly, however, the same place cells that show directional selectivity in such circumstances don’t seem to care about the animal’s direction when the rat is let forage in an open two-dimensional environment (Muller et al., 1994). Acharya et al. (2016) set out to resolve these questions by analyzing activity of hippocampal neurons recorded from rats as they explored two-dimensional space in two complementary scenarios (Figure 1A): first on a real world platform and second in a virtual reality setup in which the rat is actually head-fixed but can navigate a virtual world projected on a screen in front of the rat by running on a rotatable Styrofoam ball. The wall cues in the virtual reality were made to match the wall cues in the real world. The key dissociation between the real-world and virtual environments is that in the real world both visual and vestibular cues are informative as the rat runs around, whereas in virtual reality, vestibular cues should be minimized since the rat is head-fixed while visual cues are preserved.



Figure 1. Hippocampal Neurons in a Real-World Environment and in Virtual Reality
(A) Schematic diagram of experimental recording set up. A rat is allowed to explore either a circular
platform in the real world (left) or on a rotatable ball in virtual reality while head-fixed (right).
(B) Firing properties from one example neuron recorded while the rat explores in the real world (left) and
another example neuron recorded in the virtual reality setup (right). The black circles represent the spatial
environment the rat could explore, and colored dots represent the locations that the rat occupied when the
neuron fired. The open circles represent the directional tuning curve of the same cells in polar co-ordinates. Figure adapted from Acharya et al. (2016), Figures 1 and 2. 
(C) Schematic diagram of the approximate relative proportions of hippocampal CA1 neurons showing spatial tuning (green), directional tuning (magenta), conjunctive tuning (green and magenta), or no tuning (white) in the real world (left) and virtual reality (right) experiments.

These experiments lead to two central findings. First, a subset of roughly 25% of hippocampal neurons show directional tuning in two-dimensional open field realworld environments (Figure 1B, left). The authors suggest that the reason they find directional tuning where many others have not is because they use a rich visual environment and more sensitive analysis methods. Second, this  directional tuning is preserved in virtual reality (Figure 1B, right), implying that vestibular signals are not necessary to generate directionality.

Indeed, further experiments in which the experimenters manipulated the virtual reality visual cues demonstrate a causal role for vision in the process. These findings on the directional tuning properties of hippocampal neurons are especially striking because of the complete differences with the spatial tuning properties of the same population of neurons. A previous study by the same authors had found that, unlike the directionality tuning, place cell firing is substantially degraded in virtual reality two-dimensional environments (Aghajan et al., 2015). Also, the subset of neurons that show spatial tuning ( 75% in real-world, 12% in virtual reality) seem to be statistically independent of the subset of neurons that show head-direction tuning ( 25% in both cases) (seeFigure 1C). Finally, certain place cells that had two firing fields even show different directional tuning in each field. Hence, directional tuning appears to be mechanistically distinct from spatial tuning in hippocampus.

A possible explanation for the discrepancy between the results in the virtual reality and in the real world is the presence of odor cues to which rats are particularly sensitive that are absent in the virtual reality. Odors are strong cues that could override visual cues in determining the place tuning of a hippocampal neurons.

This could be tested by introducing virtual odors within the virtual  environment to see how they affect the response to visual stimuli.

What are the implications for the field? A first challenge will be to figure out the mechanistic origin of this head-direction signal. As discussed above, it appears to be dissociated from the spatial signals that drive place cells. Also, since the canonical head direction nuclei show strong vestibular dependence (Stackman and Taube, 1997), a different directional information pathway may be involved.

Second, it is unknown whether or how this hippocampal CA1 head-direction information is used by downstream neural circuits. This will be especially important to understand given CA1’s role as the primary output station of the hippocampus.

Third, these findings prompt a revision of the cognitive map theory. What is the computational role of these conjunctive place-direction signals for spatial navigation? This study has uncovered a new level of complexity in the firing patterns of neurons in the rat hippocampus that ultimately will give us a deeper understanding of its function. There may be another Nobel Prize up the road for whoever makes this discovery.


REFERENCES
Acharya, L., Aghajan, Z.M., Vuong, C., Moore, J.J., and Mehta, M.R. (2016). Cell 164, this issue, 197–207.
Aghajan, Z.M., Acharya, L., Moore, J.J., Cushman, J.D., Vuong, C., and Mehta, M.R. (2015). Nat.
Neurosci. 18, 121–128.
Hartley, T., Lever, C., Burgess, N., and O’Keefe, J. (2014). Philos. Trans. R. Soc. Lond. B Biol. Sci.
369, 20120510.
McNaughton, B.L., Barnes, C.A., and O’Keefe, J. (1983). Exp. Brain Res. 52, 41–49.
Muller, R.U., Bostock, E., Taube, J.S., and Kubie, J.L. (1994). J. Neurosci. 14, 7235–7251.
O’Keefe, J., and Dostrovsky, J. (1971). Brain Res. 34, 171–175.
O’Keefe, J., and Nadel, L. (1978). The Hippocampus as a Cognitive Map (Oxford University Press).
Rolls, E.T. (1999). Hippocampus 9, 467–480.
Rubin, A., Yartsev, M.M., and Ulanovsky, N. (2014). J. Neurosci. 34, 1067–1080.
Stackman, R.W., and Taube, J.S. (1997). J. Neurosci. 17, 4349–4358.

Tomado de: http://papers.cnl.salk.edu/PDFs/Street%20View%20of%20the%20Cognitive%20Map%202016-4474.pdf

25 de enero de 2016

La complejidad de la memoria


Playlist (7 talks)


The complexity of memory

The mind is a diligent recorder, taking note of all that happens and storing data on it for retrieval later, right? Well actually, no. Enjoy these 7 illuminating talks on the science—and oddities—of our memory.





22 de enero de 2016

Recomendación de lectura: Evaluación de la memoria mediante realidad virtual: presente y futuro

Revisión

[REV NEUROL 2016;62:75-84] PMID: 26758354 - Revisión - Fecha de publicación: 16/01/2016


U. Díaz-Orueta, G. Climent, J. Cardas-Ibáñez, L. Alonso, J. Olmo-Osa, J. Tirapu-Ustárroz

Resumen: La memoria humana es un complejo sistema cognitivo cuya estrecha relación con las funciones ejecutivas hace que, en muchas ocasiones, un déficit mnémico lleve aparejadas dificultades para operar con contenidos correctamente almacenados. Los tests de memoria tradicionales, que se centran más en el almacenamiento de la información que en su procesamiento, pueden ser poco sensibles tanto al funcionamiento cotidiano de los sujetos como a los cambios originados por los programas de rehabilitación. En la evaluación de la memoria hay abundante evidencia acerca de la necesidad de mejorarla mediante tests que ofrezcan una mayor validez ecológica, con información que pueda presentarse en varias modalidades sensoriales y que se produzca de modo simultáneo, tal como sucede en la vida real, con la presencia gradual y controlada de distractores. La realidad virtual reproduce entornos tridimensionales con los que el paciente interactúa de forma dinámica, con una sensación de inmersión en el entorno similar a la presencia y exposición a un entorno real, y en los que se puede controlar de forma sistemática la presentación de dichos estímulos, distractores y otras variables. La presente revisión tiene como objetivo profundizar en la trayectoria de la evaluación neuropsicológica de la memoria basada en entornos de realidad virtual, y realiza un recorrido por los tests existentes para la evaluación del aprendizaje, memoria prospectiva, episódica y espacial, así como por los intentos más recientes de realizar una evaluación integral de todos los componentes de la memoria.
Palabras clave:  Evaluación neuropsicológica - Memoria episódica - Memoria espacial - Memoria prospectiva - Realidad virtual - Validez ecológica

Disponible en: http://www.neurologia.com/sec/resumen.php?or=web&i=e&id=2015453

Las claves de los puentes entre la investigación humana y la animal

Científicos clínicos del Centro de Envejecimiento y Memoria de la Universidad de California en San Francisco (UCSF), en Estados Unidos, se han unido con investigadores preclínicos de los Institutos Gladstone, en Estados Unidos, para avanzar en el estudio de la enfermedad de Alzheimer mediante el desarrollo de una prueba comparable de aprendizaje y la memoria de los seres humanos como la que se utiliza con mayor frecuencia en ratones.

Los modelos de ratón son útiles para el estudio de la enfermedad de Alzheimer, pero tienen sus limitaciones al comparar los resultados en los seres humanos. Hasta la fecha, todos los fármacos prometedores que curan o previenen la demencia en ratones han fracasado en la clínica, siendo una posible razón de esta discrepancia que las pruebas de laboratorio utilizadas en modelos animales de la enfermedad no se parecen a las evaluaciones clínicas realizadas a los pacientes y, por tanto, no son predictivas de rendimiento de la memoria humana.

En el nuevo estudio, publicado en Journal of Clinical Investigation, los científicos preclínicos y clínicos se reunieron para abordar este problema. En concreto, desarrollaron una versión virtual del laberinto acuático de Morris -un método ampliamente utilizado para evaluar el aprendizaje y la memoria en ratones- para que los resultados se pudieran comparar con mayor facilidad y precisión en todas las especies.

"Hasta ahora, ha habido un pobre historial de llevar cosas de descubrimientos preclínicos a ensayos clínicos exitosos -dice el autor Steve Finkbeiner, investigador senior en el Instituto Gladstone de Enfermedades Neurológicas y profesor de Neurología y Fisiología en la UCSF-. La motivación de esta investigación fue evaluar la similitud de las dos especies en cuanto a la resolución de problemas y el aprendizaje con el fin de mejorar la traducción de la investigación entre los ratones y los seres humanos. Los conocimientos que obtenemos nos pueden ayudar a comprender mejor cómo los resultados de los ensayos de medicamentos en un ratón podrían traducirse a un ser humano".

¿Quiénes lo hacen peor?

El estudio comparó el desempeño de ratones normales y con el modelo de la enfermedad de Alzheimer en el laberinto de agua de Morris con el rendimiento de los sujetos de control sanos y pacientes con Alzheimer en fase inicial en una versión del videojuego de la tarea. En el laberinto, los ratones deben nadar a una plataforma que se oculta en el agua.

Los animales realizan la tarea varias veces, lo que requiere recordar dónde se encuentra la plataforma basándose en señales visuales alrededor de la piscina. En la versión del juego de vídeo, los participantes van a la caza de un tesoro escondido en un campo circular, también mediante señales visuales desde el entorno para recordar dónde está el tesoro escondido.

Ambas pruebas de evaluación requieren aprendizaje espacial y la activación apropiada del hipocampo, una estructura cerebral que es una de las regiones afectadas más temprano en la enfermedad de Alzheimer. Tanto los pacientes como los ratones modelo con Alzheimer resultaron perjudicados de manera significativa en términos de la distancia recorrida y el tiempo que les llevó hasta que pudieron localizar el objeto oculto.

Adaptaciones previas del laberinto acuático de Morris para los seres humanos variaron significativamente del original en sus medidas de diseño y rendimiento, mientras que la versión virtual actual incluye el mismo diseño y las métricas que el laberinto de agua. El estudio también emplea diferentes métodos estadísticos que investigaciones anteriores, con análisis crítico del animal y datos humanos juntos, lo que mejoró la sensibilidad de la prueba a través de las dos especies.

La nueva prueba se está utilizando en los programas de investigación de la memoria de la UCSF y el Centro de Envejecimiento, que emplea técnicas avanzadas de diagnóstico, incluyendo de genética, imágenes, evaluaciones de comportamiento, neurología, neuropsicología para tratar a las personas con enfermedades del cerebro relacionadas con la edad.

Tomado de: http://ecodiario.eleconomista.es/ciencia/noticias/7289293/01/16/Asi-son-los-puentes-entre-la-investigacion-humana-y-la-animal.html

9 de enero de 2016

Loss of cells in brain's memory center linked to schizophrenia

Mouse hippocampus with the CA2 region stained light blue. In this work, this region showed significant depletion of CA2 inhibitory neurons (white/magenta spots) and was accompanied by a deficit in social memory. Credit: Vivien Chevaleyre

Scientists at Columbia University's Mortimer B. Zuckerman Mind Brain Behavior Institute, Columbia University Medical Center (CUMC), and the Université Paris Descartes have found that deficits in social memory—a crucial yet poorly understood feature of psychiatric disorders such as schizophrenia—may be due to a decrease in the number of a particular class of brain cells, called inhibitory neurons, in a little-explored region within the brain's memory center.

The findings, which are reported in the journal Neuron, explain some of the underlying mechanisms that lead to the more difficult-to-treat symptoms of schizophrenia, including social withdrawal, reduced motivation and decreased emotional capacity.

Scientists have long speculated that schizophrenia, which affects about 1 in every 100 adults worldwide, originates in part in the hippocampus—the brain's headquarters for memory and spatial navigation. As a result, nearly every region of the hippocampus has been studied extensively in the hopes of gaining insight into the disorder. One notable exception is a tiny region of the hippocampus known as CA2.

"Smaller and less well-defined than other parts of the hippocampus, CA2 was like a small island that was depicted on old maps but remained unexplored," explained Vivien Chevaleyre, PhD, group leader in neuroscience at the Université Paris Descartes and a lead author of the paper.

Several discoveries have focused attention on a possible association between CA2 and schizophrenia. This region of the hippocampus is associated with vasopressin, a hormone that plays a role in sexual bonding, motivation and other intensely social behaviors, which become impaired in people with the disorder. In addition, postmortem examinations of people with schizophrenia have revealed a marked decrease in the number of CA2 inhibitory neurons, while the rest of the hippocampus remained largely unaffected. However, the significance of this loss had remained unclear.

In this study, the researchers performed a series of electrophysiological and behavioral experiments on a mouse model of schizophrenia developed at CUMC.

By examining the brains of these mice, the researchers observed a substantial decrease in inhibitory CA2 neurons, as compared to a control group of normal, healthy mice—a change remarkably similar to that previously observed in postmortem examinations of people with schizophrenia. Moreover, the team discovered that the modified mice had a significantly reduced capacity for social memory compared with the controls. This raises the hypothesis that changes to CA2 may account for some of the social behavioral changes that occur in individuals with the disorder.

"Even the timing of the emergence of symptoms in the mice—during young adulthood—parallels the onset of schizophrenia in humans," said Joseph Gogos, PhD, a professor of physiology and neuroscience at CUMC, a principal investigator at the Zuckerman Institute and a lead author of the paper.

"We can now examine the effects of schizophrenia at the cellular level and at the behavioral level," said Steven Siegelbaum, PhD, chair of the Department of Neuroscience at CUMC, a principal investigator at the Zuckerman Institute and a co-author of the paper. "This essentially opens up a whole new avenue for research that could lead to earlier diagnosis and more effective treatments for schizophrenia."

Tomado de: http://www.neuroscientistnews.com/research-news/loss-cells-brains-memory-center-linked-schizophrenia