Research shows early childhood is marked by critical periods — times when the brain is intensely adaptable to new sights, sounds, tastes, and touches. But what if something in early life interferes with the ability to take in sensory information?

Article written by Jennifer Carr, MA, click on the link above 

Decades of research show the brain may then undergo changes that could permanently alter future functionality. However, recent studies suggest it may be possible to extend critical periods, perhaps one day offering treatment options for people who are deprived of early sensory input or experience brain injury later in life.

Importance of visual stimulation during development

People have always been fascinated by the remarkable speed at which children soak in information early in life. But in the mid-1900s scientists began to recognize that being deprived of certain experiences at an early age compromises brain development and function. 

At the time, physicians were growing increasingly frustrated by the limited success corrective surgery had for some children with vision problems. For example, doctors who performed surgery on children older than age 8 who were born with cataracts — a condition where the eye’s lens becomes cloudy, distorting vision — often found the children continued to experience vision problems throughout life. But, infants with cataracts who received the identical surgery were able to see much better. The differences in patient outcomes suggested receiving sensory information early in life was important to healthy visual development. 

Blocking eye rewires brain

In the 1960s, scientists David Hubel and Torsten Wiesel asked: How does the brain develop if vision is temporarily blocked? To answer, they surgically closed one eye of newborn kittens shortly after birth. When reopened a few months later, the eye appeared normal but most of the nerve cells in the kittens’ visual cortex no longer responded to the deprived eye, and later work showed that kittens never regained the ability to see normally. In contrast, vision was unaffected in adult cats that underwent the same procedure.

Based on earlier research, Hubel and Wiesel knew the brain is wired to integrate visual input from two eyes in order to offer a single, unified view of the world. But their studies found visual deprivation of one eye early in life led to a physical rewiring of the brain. In the affected kittens, connections between the deprived eye and parts of the brain withered, while connections between the good eye and brain became stronger.  

These findings showed the importance of critical periods — developmental stages when stimulation actively shapes the brain — to proper development and long-term function. Hubel and Wiesel received the 1981 Nobel Prize in Physiology or Medicine, in part, for this research.

Identifying factors that influence critical periods

Bombarded with sensory information, the developing brain works to sort relevant from irrelevant details as it begins to make sense of the world. It does so by forming new connections (or strengthening existing ones) between some cells and pruning the connections between others — a process termed synaptic plasticity. Increased plasticity is a hallmark of critical periods. As the brain ages, however, it becomes less “plastic,” or easily modifiable, marking the closure of critical periods. While this decrease in plasticity is a key step toward the maturation of communication networks in the nervous system, researchers realized it might be possible to reopen critical period windows to improve sensory development in people who experienced early sensory deprivation.

Turning Critical Periods On, Off

Hubel and Weisel’s research inspired a generation of scientists to study the cat visual system. However, in the 1990s, many researchers switched to studying mice, where they could more easily study how specific genes and molecules influence plasticity. Similar to cats, visual deprivation of mice during the first few weeks of life led to rewiring in the brain in favor of the good eye, and blindness in the deprived eye.

These mouse studies identified several factors that influence the opening and closing of critical period windows. Researchers discovered that GABA — a chemical important for nerve cell communication — triggers the onset of critical periods. Suppressing GABA production in the visual cortex of young mice deprived of visual stimulation protected them from blindness. This finding suggests that by manipulating GABA, scientists can delay the onset of the critical period for vision.

Other studies revealed several factors that facilitate plasticity and others that act as brakes to slow or stop plasticity, such as the buildup of sugar-rich proteins called perineuronal nets around cells. In one study, injecting a net-dissolving enzyme into the visual cortex of adult mice opened a second visual system critical period window, reversing the long-term effects of visual deprivation in early life. 

Researchers hope such animal studies will ultimately lead to the development of new therapies capable of extending or recreating critical periods in people.

Better diagnosis and earlier treatment

After decades of research, scientists now believe there is no singular critical period, but instead a symphony of plasticity bursts in various regions of the brain at different times during development. Many scientists suspect that the coordination of this timing is important to the development of complex cognitive functions people often perform with ease. The development of the visual system remains the most intensely studied and well-defined example of a critical period to date. However, there is increasing interest in critical periods in the development of hearing and language, as well as other brain functions.

Today, scientists remain driven by the promise of critical period research. However, they caution there remains much to learn about the role of these plasticity windows in human development. While studies show depriving the brain of sensory input during critical periods has negative consequences in humans as it does in animals, there is little evidence of a benefit from extra stimulation beyond that available to children developing in normal environments. 

Basic Science Prompts Clinical Change

The awareness of the life-long impact of sensory deprivation during early development has led to direct changes in clinical practice, thanks in large part to the efforts of Hubel and Wiesel. Although human critical periods for vision and hearing last years, as opposed to the much shorter plasticity windows in mice and cats, medical professionals now test, diagnose, and treat children with vision and hearing disorders much earlier in life. This has had major benefits for treating disorders like amblyopia (sometimes called “lazy eye”) and childhood cataracts.

In the future, the identification of molecules in the brain responsible for turning critical periods on and off might lead to new treatments for adults with vision and hearing deficits. Additionally, the ability to trigger new plasticity windows could potentially improve treatment outcomes following stroke or other brain injuries once thought to permanently damage the brain. Targeting drugs that promote plasticity to damaged regions of the adult brain could one day help the brain lay down new connections between cells more easily, and improve the speed of recovery.

This is a great summary on critical periods in development. Hubel and Wiesel’s kitten experiments are THE experiments discussed during developmental plasticity lectures of Systems Neuroscience. It is also one of our primary interests here in the lab and I am currently working on a related project. We also know that these critical periods can be modulated by both internal and external factors and that there is such a thing as transitional periods towards the end of a critical period. 

What do you guys think? Should critical periods in neural development be tampered with? If so, which ones? 

Innovación: El renacimiento de la Inteligencia Artificial
See on - Estrategias de Innovación:

A mediados de la década de 1990, y a pesar de las múltiples promesas que lo habían acompañado desde su nacimiento, el campo de la Inteligencia Artificial no pasaba por sus mejores momentos. Aunque se habían producido numerosos avances teóricos y la capacidad de computación había aumentado enormemente, las aplicaciones prácticas estaban tardando demasiado en llegar, e incluso las prometedoras redes neuronales habían caído en desuso fuera de la investigación académica.

En 1959, David H. Hubel y Torsten Wiesen habían descubierto dos tipos distintos de neuronas en la corteza visual del cerebro, células simples y células complejas, las cuales formaban una relación jerárquica. Los especialistas en el incipiente campo de la inteligencia artificial se inspiraron en el modelo neuronal desarrollado por Hubel y Torsten y desarrollaron las primeras redes neuronales artificiales, las cuales apenas pasaban en sus inicios de ser un mero concepto teórico. El primer desafío al que se enfrentarían los investigadores era el de cómo “entrenar la red neuronal”, es decir, la definición de los algoritmos que guiarían su proceso de aprendizaje. Durante las décadas siguientes, se sucedieron numerosos avances teóricos y la estructura de las redes neuronales artificiales fue haciéndose más compleja.

En 1997, la máquina de IBM Deep Blue ganaba por primera vez un enfrentamiento completo con un campeón del mundo humano de ajedrez. La expectación generada por el evento resucitó de nuevo el interés del público en los avances en inteligencia artificial, pero la máquina no representaba un avance revolucionario real, más allá de su fuerza bruta y de su ingente librería de partidas almacenadas. La máquina era incapaz de aprender y solo sabía hacer una cosa: jugar al ajedrez. Pero el cambio de milenio iba a traer un repentino cambio de perspectiva para la inteligencia artificial: los continuos aumentos en la velocidad de los procesadores, junto con la nueva disponibilidad de datos que trajo la explosión de Internet, aceleraron el desarrollo de las aplicaciones prácticas, y el campo científico que había sido una promesa eterna pasó a transformarse en una realidad.

¿Y por qué es tan importante la disponibilidad de datos? Porque la fiabilidad de los algoritmos de inteligencia artificial depende directamente del volumen de datos con los que estos pueden ser entrenados. El proceso de aprendizaje de una red neuronal es muy similar al de cualquier ser humano, ya que la red comienza el proceso con una ignorancia absoluta respecto a lo que ha de evaluar pero aprende de sus errores tras cada decisión. Por ejemplo, una red neuronal encargada de identificar los diez dígitos existentes solo sabe que el investigador va a presentarle millones de casos, a los cuales habrá de asignar una etiqueta de cero a nueve. Sus primeras predicciones serán aleatorias y erróneas, pero después de clasificar mal un cero repetidas veces acabará comprendiendo que los ceros suelen tener, entre otras características, el centro de la imagen libre de trazo. De la misma forma, acabará aprendiendo a distinguir un 3 de un 8 a partir de los trazos a la izquierda que los diferencian (“trazos en la zona izquierda = 8”, “sin trazos en la zona izquierda = 3”).

En última instancia, gran parte del avance se ha debido también a un cambio de paradigma en la forma en que los algoritmos son entrenados. Hasta hace unos años, se confiaba en el crecimiento exponencial de la velocidad de los procesadores para resolver los problemas de aprendizaje. Pero el mundo informático ha ido virando paulatinamente hacia la solución de problemas poniendo a trabajar muchos ordenadores estándares en paralelo, en contraposición a la práctica anterior de confiarlo todo a superordenadores con un coste desorbitado. Así, hoy tiene más importancia el desarrollo de algoritmos que sean capaces de correr en paralelo en un gran número de ordenadores personales que en procesos dependientes de una única fuerza bruta.

La inteligencia artificial está invadiendo nuestro día a día con numerosas aplicaciones prácticas. Repasemos algunas de las más relevantes.

Reconocimiento y transcripción del lenguaje

Una de las aplicaciones más útiles de la inteligencia artificial es el reconocimiento automático de la voz. Aunque existen aplicaciones prácticas desde hace algunos años en el campo médico o militar, la utilidad real del reconocimiento de voz ha explotado durante estos últimos años con los asistentes de los teléfonos móviles, especialmente en el caso de Google. El dictado fiable de mensajes o la búsqueda por voz de lugares son ya posibles desde la popularización del sistema operativo Android, tras la mejora de unos sistemas difícilmente usables hace solo una década.

Identificación de spam o del “estado de ánimo” de un mensaje de texto

Los algoritmos de aprendizaje están aprendiendo también a procesar ingentes cantidades de mensajes humanos con el fin de discernir si un correo es o no spam o si una noticia es buena o mala. El área conocida como “análisis de sentimientos” identifica las palabras con connotaciones más extremas para así clasificar mensajes humanos entre distintos estados de humor. En el desarrollo de esta área ha sido fundamental la nueva disponibilidad de datos obtenidos a partir de redes sociales como Facebook o Twitter. Por ejemplo, los estudios cinematográficos son capaces ahora de ajustar mejor el número de salas de exhibición de sus películas en función de la expectación, positiva o negativa, de los posibles espectadores antes del estreno.

Identificación de imágenes

La identificación de imagen tiene multitud de aplicaciones prácticas. Puede servir por ejemplo para etiquetar automáticamente personas en las fotografías o para luchar contra el uso fraudulento de imágenes en sitios web de Internet. Además, es el ingrediente clave de los coches automáticos que Google lleva perfeccionando desde hace varios años, los cuales pueden suponer en el medio plazo una revolución para el transporte urbano, ofreciendo una mayor precisión de conducción y aumentando así la capacidad de las vías, facilitando de paso la posibilidad de compartir los vehículos en mayor medida.

Recomendaciones personalizadas

Una clase especial de algoritmos de inteligencia artificial son los algoritmos de recomendación, ampliamente utilizados por tiendas online de libros, música o cine. Netflix, la principal empresa de exhibición online de películas y series en Estados Unidos –la cual tiene pendiente aún su llegada a España-, es quizás el caso más representativo de este tipo de soluciones. Netflix aplica decenas de algoritmos distintos para evaluar tus gustos en función de las evaluaciones de películas que han realizado individuos parecidos al usuario, recomendando aquellas con mayor probabilidad de agradar. Tras cada película visionada, Netflix pide de nuevo la opinión al usuario, para así contrastarla con la recomendación realizada y poder ajustar las futuras predicciones.

Aprendizaje de conceptos y clases de objetos

Aunque este tipo de algoritmos no tienen aún una aplicación directa, uno de los experimentos más populares de los últimos años una red neuronal -construida por Google con la ayuda del investigador Andrew Ng, de la Universidad de Stanford- capaz de reconocer el concepto de “gato” a partir de miles de videos no etiquetados obtenidos de YouTube. Es decir, se mostraron a la red neuronal los videos sin aclararle qué había en cada uno de ellos. Tras el proceso de aprendizaje, la red era capaz de identificar aquellos videos que tenían un curioso elemento en común: un gato. Sin ser específicamente instruida en el concepto de gato, la red consiguió identificar una clase de objeto, animal en este caso, común a muchos vídeos, lo cual supone un avance en la capacidad de abstracción de un ordenador.

La inteligencia artificial está aquí para quedarse, y cada día surgen nuevas aplicaciones prácticas con impacto directo en nuestras vidas. En su cara más oscura se encuentra la posibilidad de que muchos servicios de espionaje se dediquen a rastrear toda la información disponible en la red, y que incluso empresas o individuos con objetivos dudosos puedan también llegar a hacerlo. Los gobiernos habrán de realizar un mayor esfuerzo para garantizar la privacidad y limitar los posibles comportamientos poco éticos que esta nueva tecnología nos trae. Tanto para mal como para bien, las posibilidades serán cada vez más ilimitadas.

Nota: Artículo publicado en la revista Tiempo.

See on