Agenda

<<  <  Diciembre 2020  >  >>
 Lu  Ma  Mi  Ju  Vi  Sá  Do 
   1  2  4  5  6
  8  9101213
141516171920
2122232427
28293031   

Actividades

Charlas gratuitas

Cursos regulares

Citas

" Para entender qué pasa dentro de nuestra mente, hemos de mirar hacia fuera, y para entender qué pasa en el exterior, hemos de mirar hacia dentro "

Webs asociadas

Alma Y Cuerpo Sano

Efecto Mariposa - Evolución emocional consciente

Gestión Emocional

Metamorfosis Emocional

 

Nuestro cerebro tiene tanta capacidad de memoria como todo Internet

Cerebro e internetSe han hecho muchas comparaciones del rendimiento del cerebro con el de los ordenadores y se suele concluir que nuestro cerebro biológico no es ni de lejos tan eficiente como los supercomputadores actuales. Pero, cuanto más conocemos del funcionamiento real de nuestras neuronas más sorpresas recibimos, y nos damos cuenta de que, lo mismo, solo estamos reproduciendo con nuestra tecnología aquello que la Vida generó con total eficiencia hace miles o millones de años, y que nos queda descubrir cómo dar órdenes más claras a nuestra mente para disfrutar de todas sus capacidades.

Pero, sobre todo, hay algo que no se suele tener en cuenta en las comparaciones. Ningún sistema computacional es tan versátil como el cerebro humano, ni optimiza tanto la relación velocidad de proceso y consumo energético. Tu cerebro solo gasta 20 W/h, un décimo que lo que consume tu PC.

Artículo original de tendencias21.net

Científicos de EE.UU. han determinado, midiendo con precisión el tamaño de las sinapsis neuronales, que la capacidad de memoria del cerebro es 10 veces mayor de lo que se creía, y está en niveles de petabyte, es decir, Internet entera. El descubrimiento podría abrir la vía de supercomputadores precisos y de bajo consumo. 

 

Investigadores y colaboradores del Instituto Salk de Estudios Biológicos (La Jolla, California, EE.UU.) han realizado una observación crucial sobre el tamaño de las conexiones neuronales, y calculan que la capacidad de memoria del cerebro es mucho mayor de lo que se suele estimar.

El nuevo trabajo también responde a una vieja pregunta sobre cómo puede ser el cerebro tan eficiente energéticamente, y podría ayudar a los ingenieros a construir ordenadores increíblemente potentes, pero que también conserven la energía.

Terry Sejnowski, profesor de Salk y co-autor principal del artículo publicado en eLife, afirma: "Hemos descubierto la clave para descubrir el principio de diseño de cómo funcionan las neuronas del hipocampo con baja energía, pero con una alta potencia de cómputo. Nuestras nuevas mediciones de la capacidad de memoria del cerebro aumentan las estimaciones conservadoras por un factor de 10 hasta por lo menos un petabyte, al nivel de la World Wide Web".

Nuestros recuerdos y pensamientos son el resultado de patrones de actividad eléctrica y química en el cerebro. Una parte fundamental de la actividad se produce cuando las neuronas interactúan en ciertos cruces, conocidas como sinapsis. Un cable de salida (un axón) de una neurona se conecta a un cable de entrada (una dendrita) de una segunda neurona.

Las señales viajan a través de la sinapsis en forma de productos químicos llamados neurotransmisores, para contar a la neurona receptora si debe transmitir una señal eléctrica a otras neuronas. Cada neurona puede tener miles de estas sinapsis con miles de otras neuronas.

"La primera vez que reconstruimos cada dendrita, axón, proceso glial y sinapsis de un volumen de hipocampo del tamaño de un solo glóbulo rojo, nos desconcertó un poco la complejidad y la diversidad de las sinapsis", dice Kristen Harris, co-autora principal del trabajo y profesora de neurociencia en la Universidad de Texas (Austin), en la web del Instituto. "Aunque esperaba aprender los principios fundamentales de cómo se organiza el cerebro, me sorprendió de verdad la precisión obtenida en los análisis".

Sinapsis

Reconstrucción computarizada del hipocampo. Fuente: Instituto Salk.Las sinapsis son todavía un misterio, a pesar de que su disfunción puede causar una serie de enfermedades neurológicas. Las sinapsis más grandes -con más superficie y con vesículas de neurotransmisores más grandes- son más fuertes, lo que las hace más propensas a activar las neuronas circundantes que las sinapsis medianas o pequeñas.

El equipo de Salk, mientras reconstruía en 3D tejido de hipocampo (el centro de memoria del cerebro) de rata, notó algo inusual. En algunos casos, un solo axón de una neurona formaba dos sinapsis para llegar a una sola dendrita de una segunda neurona, lo que significa que la primera neurona parecía estar enviando un mensaje duplicado a la neurona receptora.

En un primer momento, los investigadores no pensaron mucho sobre esta duplicidad, que se produce alrededor del 10 por ciento del tiempo en el hipocampo. Pero Tom Bartol, uno de los miembros de Salk, tuvo una idea: si podían medir la diferencia entre dos sinapsis muy similares como esas, podían hacerse una idea mejor del tamaño de las sinapsis, que hasta ahora sólo habían sido clasificadas en como pequeñas, medianas y grandes.

Para ello, los investigadores utilizaron microscopía avanzada y algoritmos computacionales que habían desarrollado para obtener imágenes de cerebros de ratas y reconstruir la conectividad, las formas, los volúmenes y la superficie del tejido cerebral hasta un nivel nanomolecular.

Los científicos esperaban que las sinapsis fueran más o menos similares en tamaño, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas.

"Nos quedamos sorprendidos de encontrar que la diferencia en los tamaños de los pares de sinapsis eran muy pequeñas, en promedio sólo del ocho por ciento. Nadie pensó que fuera tan pequeña", dice Bartol.

Debido a que la capacidad de memoria de las neuronas depende del tamaño de la sinapsis, esta diferencia del ocho por ciento resultó ser un número de clave que el equipo pudo entonces introducir en sus modelos algorítmicos del cerebro, para medir la cantidad de información que potencialmente podría ser almacenada en las conexiones sinápticas.

 

En términos informáticos

Se sabía que el rango de tamaños de las sinapsis era de 60 a 1 y que la mayoría eran pequeñas. Pero con el conocimiento de que las sinapsis de todos los tamaños pueden variar en márgenes tan pequeños como un ocho por ciento, el equipo determinó que podría haber cerca de 26 categorías de tamaños de las sinapsis, en lugar de sólo unas pocas.

"Nuestros datos sugieren que hay 10 veces más tamaños discretos de sinapsis de lo que se pensaba", dice Bartol. En términos informáticos, 26 tamaños de sinapsis corresponden a alrededor de 4,7 "bits" de información. Anteriormente, se pensaba que el cerebro era capaz de tener sólo uno o dos bits para el almacenamiento de memoria a corto y largo plazo en el hipocampo.

"Esto es aproximadamente un orden de magnitud más de precisión de lo que nadie hubiera imaginado", dice Sejnowski.

Fiabilidad 

Lo que hace esta precisión desconcertante es que las sinapsis del hipocampo son notoriamente poco fiables. Cuando una señal se desplaza de una neurona a otra, por lo general activa esa segunda neurona sólo el 10 al 20 por ciento de las veces.

"A menudo nos habíamos preguntado cómo podía salir la notable precisión del cerebro de estas sinapsis no confiables", dice Bartol. Una respuesta, según el estudio, es que las sinapsis ajustan su tamaño de forma constante, según las señales que reciben.

Consumo

Los resultados también ofrecen una explicación de la eficiencia sorprendente del cerebro. El cerebro adulto al despertar genera sólo 20 vatios de corriente continua, tanto como una bombilla de luz muy tenue. El descubrimiento podría ayudar a los informáticos a construir ordenadores ultraprecisos de bajo consumo, en particular los que emplean "aprendizaje profundo" y redes de técnicas neuronales artificiales capaces de aprendizaje y análisis sofisticados, como el habla, el reconocimiento de objetos y la traducción.

Según Sejnowski, el "uso de transmisiones probabilísticas resulta ser muy preciso y requiere mucha menos energía tanto para ordenadores como para el cerebro".

 

Referencia bibliográfica: 

Terrence J Sejnowski et al.: Nanoconnectomic upper bound on the variability of synaptic plasticity. eLife (2016) DOI: 10.7554/eLife.10778.001.
 

Más artículos

Nuestro cerebro inconsciente hace...

Nuestro cerebro inconsciente hace...

Este texto ha sido extraído de la web ScienceDaily (29 de diciembre de 2008), traducido con el servicio...

El experto y sabio inconscient...

El experto y sabio inconscient...

Eduard Punset nos presenta a John Bargh, psicólogo de la Yale University de Nueva York. Desde la...

Te invito a bostezar

Te invito a bostezar

El bostezo junto con los suspiros, estiramientos, temblores, escalofríos, movimientos de tripas, eructos...

La evolución y Lamarck

La evolución y Lamarck

Ha aparecido recientemente en la revista Nature (darwinista por fundación) una investigación: «Genomic...

Cómo afrontar el cáncer de forma...

Cómo afrontar el cáncer de forma...

Nos llegó este verano un vídeo del Dr. Alberto Martí Bosch y el contenido nos pareció totalmente...

La etiología del cáncer

La etiología del cáncer

Continuando con los artículo que este mes de noviembre de 2013 dedicamos a la difusión de diferentes...

Los bebés recuerdan el dolor

Los bebés recuerdan el dolor

Éste es un extenso artículo de 1989, en que el autor describe el efecto en los bebés de los procedimientos que...

La meditación cambia la forma del...

La meditación cambia la forma del...

Publicamos en febrero de 2016 el artículo ocho semanas de meditación bastan para cambiar el cerebro,...

< >