• Logo Biblioteca de la Universidad de Sevilla
  • Páginas

  • Categorías

  • RSS GME RSS

    • Se ha producido un error; es probable que la fuente esté fuera de servicio. Vuelve a intentarlo más tarde.
  • Archivo de MATBUS

  • Comentarios recientes

    Nahomi Lucero Azuara… en Nahomi Lucero Azuara, de Tamau…
    La Guía de Matemátic… en La Guía de Matemáticas cumple…
    Los Juegos Panameric… en Los Juegos Panamericanos, una…
  • Escribe tu dirección de correo electrónico para suscribirte a este blog, y recibir notificaciones de nuevos mensajes por correo.

    Únete a otros 114 seguidores

  • Anuncios

Matemáticas para entender el cerebro

1538588039_962114_1538589011_noticia_normal_recorte1

El funcionamiento del cerebro sigue siendo uno de los grandes misterios de la ciencia. Los procesos cerebrales se basan en la transmisión de impulsos nerviosos entre diferentes tipos de neuronas pero, ¿cómo se coordinan para construir esas respuestas? Explicar la sincronización neuronal es uno de los grandes retos de la neurociencia computacional, en las que las matemáticas son fundamentales.

En los años 50 se propusieron los primeros modelos, que describían el funcionamiento de una neurona aislada. Trataban de reproducir, con sistemas de diferenciales, lo que se observaría mirando una neurona en funcionamiento con el microscopio. El modelo más popular, de Alan Lloyd Hodgkin y Andrew Huxley, mostraba cómo se inicia y transmite el potencial de acción de la neurona a lo largo del tiempo.

Sin embargo, de cara a la comprensión de los procesos neuronales, no es interesante el estudio de una sola neurona, sino el comportamiento colectivo de grandes conjuntos. Los modelos de redes neuronales muestran un promedio de su actividad, usando como tasa el número de descargas eléctricas por unidad de tiempo de toda una red (llamado firing rate), o de ciertas zonas de la misma.

Para ello, se utiliza la teoría cinética, que muestra con ecuaciones el comportamiento y propiedades macroscópicas a partir de una descripción estadística de los procesos moleculares microscópicos. Estas ideas sirven como puente entre los modelos micro y macro.

José Antonio Carrillo de la Plata, investigador del Imperial College London, trabaja desde hace décadas en estas cuestiones. Junto con Benoit Perthame (Paris VI) y María Cáceres (Universidad Granada), analizaron diversos modelos de fenómenos macroscópicos y llegaron a la conclusión de que los modelos podían producir soluciones que describen fenómenos biológicos nunca observados por los experimentalistas.

Carrillo tiene un gran interés en los que describen el funcionamiento de las células de red (en inglés grid cells), las neuronas que permiten entender a los humanos y otros animales cuál es su posición en el espacio.

Los investigadores observaron que estas neuronas son como una malla virtual que almacena la información del movimiento, de forma que por ejemplo, una rata puede recorrer en la oscuridad un camino ya conocido.

Ahora Carrillo está analizando si estos modelos planteados se pueden obtener de manera rigurosa matemáticamente. La cuestión es comprobar que estos modelos macroscópicos son coherentes con la información facilitada por los modelos microscópicos clásicos, empleando ecuaciones en derivadas parciales y su simulación numérica.

Leer más:

https://elpais.com/elpais/2018/10/03/ciencia/1538588039_962114.html

 

Anuncios

Desvelado modelo matemático que subyace a la formación de recuerdos

La memoria es fundamental en la vida y muy necesaria para aprender. Y, sin aprendizaje, no habría progreso ni civilización.

¿Pero cómo crea nuestro cerebro recuerdos y los retiene? Un equipo de científicos de la Escuela Politécnica Federal de Lausana (Suiza) ha desarrollado un modelo matemático que describe cómo las redes neuronales generan la memoria.

Las neuronas generan redes a través de conexiones entre ellas llamadas “sinapsis”, que tienen una alta plasticidad y permiten a las neuronas modificar la velocidad y la intensidad de sus comunicaciones. Una sinapsis se incrementa si las neuronas de ambos lados de esta se activan sistemáticamente y al mismo tiempo. Este tipo de sinapsis son conocidas como sinapsis hebbianas (por el neurocientífico que las estableció, Donald Hebb).

El modelo desarrollado por los investigadores de la Escuela Politécnica de Lausana se ha centrado ​​en la formación de las “asambleas neuronales”, que son redes de neuronas interconectadas a través de las sinapsis, que pueden almacenar un segmento de memoria determinada. Cuando se revive un recuerdo, estas  asambleas específicas se unen para crear un todo.

Los investigadores usaron un modelo de red neuronal de tercera generación llamado “Red Neuronal Pulsante” (SNN, por sus siglas en inglés). El equipo simuló cientos de SNN para explorar diversos tipos de sinapsis y múltiples formas de plasticidad sináptica a través de diferentes escalas de tiempo. Las simulaciones sugirieron que la formación de memoria y la rememoración siguen a una “combinación bien orquestada” de las reglas de plasticidad sináptica tanto hebbianas como no hebbianas.

A partir de estos resultados, los científicos desarrollaron un complejo algoritmo que constituye la representación más exacta de este fenómeno.

El algoritmo podría ser adaptado para ayudar a desarrollar próximas simulaciones de formación y activación de recuerdos, por lo que probablemente mejorará nuestra comprensión global del cerebro.

Leer más en:

http://www.tendencias21.net/Desvelan-modelo-matematico-que-subyace-a-la-formacion-de-recuerdos_a40446.html

A %d blogueros les gusta esto: