Mapeo del cerebro para construir mejores máquinas
Una carrera para descifrar los algoritmos del cerebro podría revolucionar el aprendizaje automático.
Emily Singer ||
Quanta Magazine
Greg Dunn
Lleve a un niño de tres años al zoológico e intuitivamente sabe que la criatura de cuello largo que mordisquea las hojas es lo mismo que la jirafa en su libro ilustrado. Esa hazaña superficialmente fácil es en realidad bastante sofisticada. El dibujo animado es una silueta congelada de líneas simples, mientras que el animal viviente está inundado de color, textura, movimiento y luz. Puede contorsionarse en diferentes formas y se ve diferente desde todos los ángulos.
Los humanos sobresalen en este tipo de tarea. Podemos comprender sin esfuerzo las características más importantes de un objeto a partir de unos pocos ejemplos y aplicar esas características a lo desconocido. Las computadoras, por otro lado, típicamente necesitan ordenar a través de una base de datos completa de jirafas, que se muestran en muchos entornos y desde diferentes perspectivas, para aprender a reconocer con precisión al animal.
La identificación visual es una de las muchas áreas donde los humanos vencieron a las computadoras. También somos mejores para encontrar información relevante en una avalancha de datos; para resolver problemas no estructurados; y al aprender sin supervisión, cuando un bebé aprende sobre la gravedad cuando juega con bloques. "Los humanos son mucho, mucho mejores generalistas", dijo Tai Sing Lee, científico informático y neurocientífico de la Universidad Carnegie Mellon en Pittsburgh. "Todavía somos más flexibles en el pensamiento y podemos anticipar, imaginar y crear eventos futuros".
Un ambicioso programa nuevo, financiado por el brazo de inteligencia del gobierno federal, tiene como objetivo lograr que la inteligencia artificial esté más en línea con nuestros propios poderes mentales. Tres equipos compuestos por neurocientíficos e informáticos intentarán descubrir cómo el cerebro realiza estas hazañas de identificación visual, y luego fabrican máquinas que hacen lo mismo. "El aprendizaje automático de hoy falla donde los humanos se destacan", dijo Jacob Vogelstein, quien dirige el programa en la Actividad de Proyectos de Investigación Avanzados de Inteligencia (IARPA). "Queremos revolucionar el aprendizaje automático mediante la ingeniería inversa de los algoritmos y cálculos del cerebro".
El tiempo es corto. Cada equipo ahora está modelando un trozo de corteza con detalles sin precedentes. En conjunto, los equipos están desarrollando algoritmos basados en parte en lo que aprenden. Para el próximo verano, a cada uno de esos algoritmos se le dará un ejemplo de un elemento extraño y luego se le pedirá que seleccione instancias del mismo de entre miles de imágenes en una base de datos sin etiqueta. "Es un marco de tiempo muy agresivo", dijo Christof Koch, presidente y director científico del Instituto Allen para Ciencias del Cerebro en Seattle, que está trabajando con uno de los equipos.
Los humanos sobresalen en este tipo de tarea. Podemos comprender sin esfuerzo las características más importantes de un objeto a partir de unos pocos ejemplos y aplicar esas características a lo desconocido. Las computadoras, por otro lado, típicamente necesitan ordenar a través de una base de datos completa de jirafas, que se muestran en muchos entornos y desde diferentes perspectivas, para aprender a reconocer con precisión al animal.
La identificación visual es una de las muchas áreas donde los humanos vencieron a las computadoras. También somos mejores para encontrar información relevante en una avalancha de datos; para resolver problemas no estructurados; y al aprender sin supervisión, cuando un bebé aprende sobre la gravedad cuando juega con bloques. "Los humanos son mucho, mucho mejores generalistas", dijo Tai Sing Lee, científico informático y neurocientífico de la Universidad Carnegie Mellon en Pittsburgh. "Todavía somos más flexibles en el pensamiento y podemos anticipar, imaginar y crear eventos futuros".
Un ambicioso programa nuevo, financiado por el brazo de inteligencia del gobierno federal, tiene como objetivo lograr que la inteligencia artificial esté más en línea con nuestros propios poderes mentales. Tres equipos compuestos por neurocientíficos e informáticos intentarán descubrir cómo el cerebro realiza estas hazañas de identificación visual, y luego fabrican máquinas que hacen lo mismo. "El aprendizaje automático de hoy falla donde los humanos se destacan", dijo Jacob Vogelstein, quien dirige el programa en la Actividad de Proyectos de Investigación Avanzados de Inteligencia (IARPA). "Queremos revolucionar el aprendizaje automático mediante la ingeniería inversa de los algoritmos y cálculos del cerebro".
El tiempo es corto. Cada equipo ahora está modelando un trozo de corteza con detalles sin precedentes. En conjunto, los equipos están desarrollando algoritmos basados en parte en lo que aprenden. Para el próximo verano, a cada uno de esos algoritmos se le dará un ejemplo de un elemento extraño y luego se le pedirá que seleccione instancias del mismo de entre miles de imágenes en una base de datos sin etiqueta. "Es un marco de tiempo muy agresivo", dijo Christof Koch, presidente y director científico del Instituto Allen para Ciencias del Cerebro en Seattle, que está trabajando con uno de los equipos.
Koch y sus colegas ahora están creando un diagrama de cableado completo de un pequeño cubo de cerebro: un millón de micras cúbicas, que suman un volumen quinientos centésimas de una semilla de amapola. Eso es órdenes de magnitud más grandes que el mapa de cableado completo más extenso hasta la fecha, que se publicó en junio pasado y tomó aproximadamente seis años en completarse.
Al final del proyecto IARPA de cinco años, denominado
Inteligencia artificial de redes corticales (Microns), los investigadores intentan mapear un milímetro cúbico de corteza. Esa pequeña porción alberga alrededor de 100.000 neuronas, de 3 a 15 millones de conexiones neuronales o sinapsis, y suficiente cableado neuronal para abarcar todo el ancho de Manhattan, si todo estuviera desenredado y tendido de punta a punta.
Nadie ha intentado reconstruir un pedazo de cerebro a esta escala. Pero los esfuerzos a menor escala han demostrado que estos mapas pueden proporcionar información sobre el funcionamiento interno de la corteza. En un artículo publicado en la revista Nature en marzo, Wei-Chung Allen Lee -un neurocientífico de la Universidad de Harvard que está trabajando con el equipo de Koch- y sus colaboradores trazaron un diagrama de 50 neuronas y más de 1,000 de sus socios. Al combinar este mapa con información sobre el trabajo de cada neurona en el cerebro, algunos responden a una entrada visual de barras verticales, por ejemplo, derivaron una regla simple de cómo las neuronas en esta parte de la corteza están conectadas anatómicamente. Descubrieron que las neuronas con funciones similares tienen más probabilidades de conectarse y establecer conexiones más grandes entre sí que con otros tipos de neuronas.
Si bien el objetivo implícito del proyecto Microns es tecnológico: IARPA financia investigaciones que eventualmente podrían llevar a herramientas de análisis de datos para la comunidad de inteligencia, entre otras cosas, debe haber ideas nuevas y profundas sobre el cerebro. Andreas Tolias, un neurocientífico de Baylor College of Medicine que es co-líder del equipo de Koch, compara nuestro conocimiento actual de la corteza con una fotografía borrosa. Él espera que la escala sin precedentes del proyecto Microns ayude a agudizar esa visión, exponiendo reglas más sofisticadas que rigen nuestros circuitos neuronales. Sin conocer todas las partes componentes, dijo, "tal vez nos estamos perdiendo la belleza de la estructura".
Las unidades de procesamiento del cerebro
Los intrincados pliegues que cubren la superficie del cerebro forman la corteza cerebral, una hoja de tejido del tamaño de una pizza que se arrugó para que se ajuste a nuestro cráneo. Es en muchos sentidos el microprocesador del cerebro. La hoja, de aproximadamente tres milímetros de grosor, está formada por una serie de módulos repetitivos, o microcircuitos, similares a la serie de compuertas lógicas en un chip de computadora. Cada módulo consta de aproximadamente 100.000 neuronas dispuestas en una compleja red de células interconectadas. La evidencia sugiere que la estructura básica de estos módulos es aproximadamente la misma en toda la corteza. Sin embargo, los módulos en diferentes regiones del cerebro están especializados para fines específicos, como la visión, el movimiento o la audición.
Andreas Tolias (izquierda), que se muestra aquí con su alumno R.J. Cotton, es co-líder de uno de los equipos de Micron.
Los científicos solo tienen una idea aproximada de cómo se ven estos módulos y cómo actúan. En gran parte se han limitado a estudiar el cerebro a escalas más pequeñas: decenas o cientos de neuronas. Las nuevas tecnologías diseñadas para rastrear la forma, la actividad y la conectividad de miles de neuronas finalmente permiten a los investigadores analizar cómo las células dentro de un módulo interactúan entre sí; cómo la actividad en una parte del sistema puede provocar o frenar la actividad en otra parte. "Por primera vez en la historia, tenemos la capacidad de interrogar a los módulos en lugar de solo adivinar los contenidos", dijo Vogelstein. "Diferentes equipos tienen diferentes conjeturas para lo que hay adentro".
Los investigadores se centrarán en una parte de la corteza que procesa la visión, un sistema sensorial que los neurocientíficos han explorado intensamente y que los científicos de la computación se han esforzado por emular. "La visión parece fácil, solo abre los ojos, pero es difícil enseñar a las computadoras a hacer lo mismo", dijo
David Cox, un neurocientífico de Harvard que dirige uno de los equipos de IARPA.
Cada equipo está comenzando con la misma idea básica de cómo funciona la visión, una teoría de décadas de antigüedad conocida como análisis por síntesis. De acuerdo con esta idea, el cerebro hace predicciones sobre lo que sucederá en el futuro inmediato y luego reconcilia esas predicciones con lo que ve. El poder de este enfoque radica en su eficiencia: requiere menos computación que la recreación continua en todo momento.
El cerebro puede ejecutar análisis por síntesis de diferentes maneras, por lo que cada equipo está explorando una posibilidad diferente. El equipo de Cox ve el cerebro como una especie de motor de física, con modelos de física existentes que utiliza para simular cómo debería ser el mundo. El equipo de Tai Sing Lee, codirigido por George Church, teoriza que el cerebro ha construido una biblioteca de partes, fragmentos de objetos y personas, y aprende las reglas sobre cómo unir esas partes. Las hojas, por ejemplo, tienden a aparecer en las ramas. El grupo de Tolias está trabajando en un enfoque más basado en datos, donde el cerebro crea expectativas estadísticas del mundo en el que vive. Su equipo probará varias hipótesis sobre cómo las diferentes partes del circuito aprenden a comunicarse.
Los tres equipos controlarán la actividad neuronal de decenas de miles de neuronas en un cubo objetivo del cerebro. Luego usarán diferentes métodos para crear un diagrama de cableado de esas celdas. El equipo de Cox, por ejemplo, cortará el tejido cerebral en capas más delgadas que un cabello humano y analizará cada corte con microscopio electrónico. Luego, el equipo coserá computacionalmente cada sección transversal para crear un mapa tridimensional densamente empaquetado que traza millones de cables neuronales en su intrincado camino a través de la corteza.
Con un mapa y un patrón de actividad en la mano, cada equipo intentará descubrir algunas reglas básicas que rigen el circuito. Luego programarán esas reglas en una simulación y medirán qué tan bien la simulación coincide con un cerebro real.
Tolias y colaboradores ya tienen una idea de lo que este tipo de enfoque puede lograr. En un
artículo publicado en Science en noviembre, mapearon las conexiones entre 11,000 pares de neuronas, descubriendo cinco nuevos tipos de neuronas en el proceso. "Todavía no tenemos una lista completa de las partes que componen la corteza, cómo son las células individuales, cómo están conectadas", dijo Koch. "Eso es lo que [Tolias] comenzó a hacer".
Andreas Tolias y colaboradores mapearon las conexiones entre pares de neuronas y registraron su actividad eléctrica. La anatomía compleja de cinco neuronas (arriba a la izquierda) se puede reducir a un diagrama de circuito simple (arriba a la derecha). La inyección de corriente eléctrica en la neurona 2 hace que la neurona se dispare, lo que provoca cambios eléctricos en las dos células aguas abajo, las neuronas 1 y 5 (abajo). Revista Olena Shmahalo / Quanta; Andreas Tolias
Entre estas miles de conexiones neuronales, el equipo de Tolias descubrió tres reglas generales que gobiernan cómo las células están conectadas: Algunas hablan principalmente de neuronas de su propia clase; otros evitan a los de su propia clase, comunicándose principalmente con otras variedades; y un tercer grupo habla solo con algunas otras neuronas. (El equipo de Tolias definió sus células basándose en la anatomía neural más que en la función, lo cual hizo el equipo de Wei Lee en su estudio). Usando solo estas tres reglas de cableado, los investigadores pudieron simular el circuito con bastante precisión. "Ahora el desafío es descubrir qué significan algorítmicamente esas reglas de cableado", dijo Tolias. "¿Qué tipo de cálculos hacen?"
Redes neuronales basadas en neuronas reales
La inteligencia artificial cerebral no es una idea nueva. Las llamadas redes neuronales, que imitan la estructura básica del cerebro, fueron extremadamente populares en la década de 1980. Pero en ese momento, el campo carecía de la potencia informática y los datos de entrenamiento que los algoritmos necesitaban para ser realmente efectivos. Después de todo, no había disponibles todos los millones de imágenes de gatos etiquetados de Internet. Y aunque las redes neuronales han disfrutado de un gran renacimiento, los programas de reconocimiento de voz y rostro que se han convertido rápidamente en parte de nuestra vida cotidiana se basan en algoritmos de redes neuronales, como AlphaGo, la computadora que recientemente derrotó al mejor jugador Go del mundo: el las reglas que las redes neuronales artificiales usan para alterar sus conexiones son casi con certeza diferentes de las empleadas por el cerebro.
Las redes neuronales contemporáneas "se basan en lo que sabíamos sobre el cerebro en la década de 1960", dijo Terry Sejnowski, un neurocientífico computacional del Instituto Salk en San Diego que desarrolló algoritmos de redes neuronales tempranas con Geoffrey Hinton, un científico informático de la Universidad de Toronto. . "Nuestro conocimiento de cómo está organizado el cerebro está explotando".
Por ejemplo, las redes neuronales actuales se componen de una arquitectura de feed-forward, donde la información fluye de entrada a salida a través de una serie de capas. Cada capa está entrenada para reconocer ciertas características, como un ojo o un bigote. Ese análisis se alimenta, y cada capa sucesiva realiza cálculos cada vez más complejos sobre los datos. De esta forma, el programa finalmente reconoce una serie de píxeles de colores como un gato.
Pero esta estructura de feed-out deja fuera un componente vital del sistema biológico: la retroalimentación, tanto dentro de las capas individuales y de las capas de orden superior a las de menor orden. En el cerebro real, las neuronas en una capa de la corteza están conectadas a sus vecinos, así como a las neuronas en las capas superiores e inferiores, creando una intrincada red de bucles. "Las conexiones de retroalimentación son una parte increíblemente importante de las redes corticales", dijo Sejnowski. "Hay tantos comentarios como conexiones feed-forward".
Los neurocientíficos aún no entienden con precisión qué están haciendo estos circuitos de retroalimentación, aunque saben que son importantes para nuestra capacidad de dirigir nuestra atención. Nos ayudan a escuchar una voz en el teléfono mientras desactivamos los sonidos de la ciudad, por ejemplo. Parte del atractivo de la teoría de análisis por síntesis es que proporciona una razón para todas esas conexiones recurrentes. Ayudan al cerebro a comparar sus predicciones con la realidad.
Los investigadores de Microns intentan descifrar las reglas que rigen los ciclos de retroalimentación, como qué células conectan estos circuitos, qué desencadena su actividad y cómo afecta esa actividad a la salida del circuito, y luego traducen esas reglas en un algoritmo. "Lo que falta en una máquina en este momento es la imaginación y la introspección. Creo que el circuito de retroalimentación nos permite imaginar e introspectar en muchos niveles diferentes ", dijo Tai Sing Lee.
Tal vez los circuitos de retroalimentación un día doten a las máquinas de rasgos que consideramos como únicos humanos. "Si pudieras implementar [circuitería de retroalimentación] en una red profunda, podrías pasar de una red que tiene una especie de reacción instintiva (dar entrada y obtener resultados) a una que sea más reflexiva, que pueda comenzar a pensar en las entradas y las pruebas hipótesis ", dijo Sejnowski, quien se desempeña como asesor de la
Iniciativa BRAIN de $ 100 millones del presidente Obama, de la cual el proyecto Microns forma parte.
Pistas para la conciencia
Al igual que todos los programas de IARPA, el proyecto Microns es de alto riesgo. Las tecnologías que los investigadores necesitan para el mapeo a gran escala de la actividad y el cableado neuronal existen, pero nadie las ha aplicado antes a esta escala. Un desafío será lidiar con la
enorme cantidad de datos que produce la investigación: de 1 a 2 petabytes de datos por cubo milimétrico de cerebro. Es probable que los equipos necesiten desarrollar nuevas herramientas de aprendizaje automático para analizar todos esos datos, un ciclo de retroalimentación bastante irónico.
Tampoco está claro si las lecciones aprendidas de un pequeño pedazo de cerebro resultarán ilustrativas de los talentos más grandes del cerebro. "El cerebro no es solo una parte de la corteza", dijo Sejnowski. "El cerebro contiene cientos de sistemas especializados para diferentes funciones".
La corteza en sí misma se compone de unidades repetitivas que se ven más o menos iguales. Pero otras partes del cerebro pueden actuar de manera muy diferente. El aprendizaje de refuerzo empleado en el algoritmo AlphaGo, por ejemplo, está relacionado con procesos que tienen lugar en los ganglios basales, parte del cerebro involucrado en la adicción. "Si quieres una IA que vaya más allá del simple reconocimiento de patrones, vas a necesitar muchas partes diferentes", dijo Sejnowksi.
Sin embargo, si el proyecto tiene éxito, hará más que analizar datos de inteligencia. Un algoritmo exitoso revelará verdades importantes sobre cómo el cerebro da sentido al mundo. En particular, ayudará a confirmar que el cerebro sí opera a través del análisis por síntesis, que compara sus propias predicciones sobre el mundo con los datos entrantes que se filtran a través de nuestros sentidos. Revelará que un ingrediente clave en la receta de la conciencia es una mezcla siempre cambiante de imaginación más percepción. "Es la imaginación lo que nos permite predecir eventos futuros y usar eso para guiar nuestras acciones", dijo Tai Sing Lee. Al construir máquinas que piensan, estos investigadores esperan revelar los secretos del pensamiento.