sábado, 17 de marzo de 2018

Facebook debiera empezar a facilitar más datos a los investigadores sociales

Es hora de que Facebook comparta más información con los investigadores


Catherine F. Brooks | Wired



Si Mark Zuckerberg quiere hacer que la red social sea buena para el bienestar de las personas, debería dejar que los académicos estudien el comportamiento de sus usuarios. HOTLITTLEPOTATO


El fervor mediático que siguió a la acusación del abogado especial Robert Mueller contra una organización rusa de Internet para sembrar discordias intencionalmente en el sistema político estadounidense ha pasado por alto una implicación crucial: todavía sabemos muy poco sobre el impacto potencial de las redes sociales en las personas y la sociedad.

Irónicamente, este problema podría abordarse fácilmente. Si Facebook realmente adopta la visión, expresada en enero por el cofundador y CEO Mark Zuckerberg, de crear productos que sean "buenos para el bienestar de las personas", la compañía necesita proporcionar a los investigadores académicos un acceso mucho más amplio a sus datos.

Zuckerberg ha expresado su preocupación por los recientes hallazgos de que las redes sociales causan daño social. Anunció que Facebook pretende modificar su algoritmo de búsqueda nuevamente, esta vez para que los usuarios experimenten la mayor cantidad de "interacciones significativas" con amigos y familiares, en lugar de ver el "contenido más significativo", es decir, noticias (ya veces noticias falsas) .

Facebook, sin embargo, continúa resistiendo lo que puede ser la mejor manera de aprender más sobre interacciones significativas, propaganda digital y aspectos de las redes sociales que podrían ser buenas para las personas: compartir su gran cantidad de datos anónimos con un amplio conjunto de investigadores académicos.

Actualmente, la compañía comparte datos con unos pocos seleccionados, lo que limita la capacidad de la sociedad para analizar y comprender los comportamientos en línea relacionados con las elecciones, las manifestaciones masivas, las actitudes políticas, el acoso cibernético, el robo de identidad y mucho más. Tal como está, los académicos deben depender de soluciones a veces incómodas (encuestas de usuarios y auditorías de algoritmos, por ejemplo) para estudiar el impacto social de Facebook.

Los científicos sociales quieren saber por qué las historias se vuelven virales, quiénes tienen influencia política, qué forma las actitudes políticas y sociales, y si las redes sociales pueden cambiar esas actitudes. Queremos comprender las cámaras de eco y las noticias falsas, y por qué los usuarios se unen a grupos como ISIS o las organizaciones nacionales de supremacía blanca en línea. El acceso a los enormes conjuntos de datos de la empresa con fines de investigación ofrecería oportunidades sin precedentes para comprender más acerca de la interacción y el comportamiento humano en línea.

Tal acceso ampliado para académicos ampliaría enormemente el conocimiento público y la comprensión sobre nuestro propio comportamiento (por ejemplo, los mecanismos en línea para la polarización política, impedimentos al discurso civil, actividades masivas de intimidación cibernética dirigidas a jóvenes vulnerables y tipos de propaganda que a veces conducen a información falsa que se vuelve viral ) en esta sociedad cada vez más digital.

Para ser justos, Facebook comparte datos con unos pocos académicos seleccionados. Por ejemplo, Facebook proporciona datos al economista de Stanford Raj Chetty, un conocedor de Silicon Valley y "uno de los favoritos entre las élites tecnológicas". Aunque la investigación de Chetty sobre la desigualdad es valiosa, quienes trabajamos en campus públicos en todo Estados Unidos y en todo el mundo preguntas eruditas tal como lo hace Chetty. Limitar la investigación a unos pocos, y dentro del círculo de Silicon Valley, restringe severamente el tipo de preguntas y análisis que podrían informar.

Es comprensible que Facebook dude en compartir los datos de las personas. La privacidad y la seguridad son preocupaciones serias y crecientes para los usuarios y las compañías tecnológicas por igual. Los defensores de la privacidad tienen razón al permanecer enfocados en proteger los datos de los usuarios en plataformas como Facebook. Pero los datos se pueden anonimizar para proteger a distintos usuarios; esas identidades no son necesarias para el estudio de tendencias y comportamientos.

Algunas empresas de medios sociales ya están encontrando formas creativas y seguras de compartir datos. LinkedIn, por ejemplo, lanzó el programa Economic Graph Research en 2014. Este programa en curso invita a los expertos a enviar propuestas para el uso de datos de LinkedIn para generar nuevos conocimientos. Aunque programas como estos también pueden ser una preocupación para los expertos en privacidad, los datos compartidos son despojados de las identidades de los usuarios antes de entregarlos a los investigadores y pueden iluminar las tendencias de contratación, las brechas de habilidades, las diferencias de género en el avance organizacional y los impactos de las redes profesionales para los empleados.

La sociedad está cambiando rápidamente, en línea y fuera de línea. Facebook tiene el poder de ayudarnos a entender esos cambios y tomar mejores decisiones para el bien común. Los accionistas, los legisladores, los académicos y los usuarios de Facebook deben apoyarse en la empresa y solicitar un acceso más amplio a lo que probablemente sea la mayor recopilación de datos de redes sociales en el mundo.

jueves, 15 de marzo de 2018

Los medios rusos RT y Sputnik participaron activamente en la crisis de Catalunya

RT y Sputnik fueron los mayores difusores de noticias sobre Cataluña por redes

Dos investigadores confirman las informaciones de EL PAÍS en el Massachusetts Institute of Technology



Alejandro Romero, de Alto Data Analytics, este lunes durante su charla en el MIT.

Amanda Mars | El País


RT y Sputnik, dos medios de comunicación rusos dependientes del Kremlin, multiplicaron la difusión de los contenidos relacionados con el movimiento independentista catalán durante los días previos y posteriores al referendo ilegal hasta convertirse en el cuarto difusor en redes y comunidades digitales, pese a no figurar ni entre los 25 primeros que más contenidos generaron al respecto, según una investigación llevada a cabo por Alejandro Romero, fundador de Alto Data Analytics, y Javier Lesaca, consultor de comunicación e investigador en la George Washington University.

Romero hizo esta presentación en el marco de la primera Conferencia sobre Ecosistemas de Medios, organizada por el Centro por los Medios Cívicos del Massachusetts Institute of Technology (MIT) y el Berkman Klein Center en Harvard. “El 2 de octubre [día posterior a la consulta] RT y Sputnik llegaron tener 1,7 veces más distribución que El País, que es el primer periódico en España”, explicó el fundador de Alto Data Analytics. EL PAÍS ha publicado desde septiembre diversas informaciones sobre la injerencia de los medios de la órbita rusa sobre la crisis catalana.

El estudio, que abarca el periodo del 29 de septiembre al 9 de octubre, refleja que las informaciones de dichos medios se movieron sobre todo entre usuarios partidarios de la independencia. En los contenidos primaban los relacionados con la violencia y los favorables a la secesión. De los 100 perfiles en Twitter más activos difundiendo sus publicaciones, el 84% correspondían a cuentas anónimas cuyo patrón de comportamiento no corresponder al de individuos particulares, ya que, o bien están dedicadas en un 100% a difundir piezas de RT o Sputnik, o publican toneladas de tuits 24 horas diarias y siete días a la semana o solo retuitean y no tienen actividad propia, según los investigadores. Algunos autores, como de @rick888, @bobbit2266 o @ivan226622 llegaban a publicar mensajes idénticos con minutos de diferencia. Este último, tras una actividad frenética sobre Cataluña, se dedicó tiempo después a tuitear compulsivamente sobre Siria y luego sobre Filipinas. Su cuenta ha sido suspendida recientemente.

La presentación de los datos, bajo el título “Desestabilizar la Unión Europea”, se enmarcó en una jornada centrada en la desinformación, las noticias falsas y el efecto en la democracia. El asunto lleva en el centro del debate en Estados Unidos desde que los servicios de inteligencia determinaron que Moscú había orquestado una campaña de ciberataques e intoxicación para influir en las elecciones presidenciales de 2016 y de favorecer la llegada de Donald Trump al poder. El pasado noviembre RT fue obligada a registrarse como agencia del Kremlin en Estados Unidos. El mes anterior, Twitter prohibió los anuncios de esta cadena y de Sputnik.

En la jornada, la profesora de la Universidad de Washington Kate Starbird, que lleva desde 2013 realizado estudios sobre el efecto de la desinformación y los rumores en situaciones de crisis, advirtió de que el propósito de esas intoxicaciones “no es convencer, sino confundir” de forma que se erosiona la confianza sobre algún asunto. Por ejemplo, en uno de sus últimos trabajos la académica y su equipo reunieron 58 millones de tuits sobre tiroteos masivos en Estados Unidos entre enero y octubre de 2016. De estos, cerca de 100.000 hablaban de que se trataba de montajes o que participaban actores, en definitiva, impulsaban una narrativa alternativa a la oficial. El objetivo de esos mensajes en Twitter no era tanto hacer creer lo que estos decían, sino generar escepticismo general sobre la información sobre matanzas.

“Aunque no consigan convencerte, consiguen paralizarte, que dejes de pensar lo que antes pensabas sobre un asunto”, señaló en la misma línea el director del Centro de Medios Cívicos, Ethan Zuckernam, organizador de la conferencia.

El escritor Peter Pomerantsev, nacido en Kiev en el 77 y profesor visitante de la London School of Economics, abordó el fenómeno de la propaganda exterior desde la Guerra Fría y señaló que la “disinformatzya” es una técnica para destruir la credibilidad en instituciones y citó el viejo bulo de que la CIA creó el virus del VIH como ejemplo. “No son espías los que hacen esto hoy en día, son agencias de relaciones públicas, esa es la diferencia con la Guerra Fría”, señaló. Uno de los objetivos de la propaganda, dijo, era señalar los problemas ajenos para mejorar la imagen de los propios. "Es la idea de 'nosotros somos corruptos' pero ellos también, 'nosotros tenemos desigualdad, pero ellos también".

martes, 13 de marzo de 2018

Kadushin: La homofilia exacerba la desigualdad

Redes sociales y desigualdad

Cómo Facebook contribuye a la desigualdad económica (y de otro tipo).
Charles Kadushin Ph.D.
Psychology Today





Los estadounidenses están descubriendo que a pesar de su ideología de oportunidades para todos, nuestra sociedad se está volviendo cada vez más desigual. "Somos el 99%", el eslogan del movimiento Occupy Wall Street se basa en esta realización. En una reciente charla sobre desigualdad, Alan Krueger, presidente del Consejo de Asesores Económicos de la Casa Blanca, observó que si bien el ingreso medio en los Estados Unidos ha disminuido desde 1999, el ingreso del 1% superior ha aumentado en 13.5 puntos porcentuales desde 1979. Además, un informe reciente de un equipo de académicos internacionales muestra que los estadounidenses disfrutan de una movilidad económica y ocupacional menor que los canadienses y la mayoría de los europeos occidentales. De acuerdo con una encuesta de Pew Charitable Trusts, el público en general es más probable hoy en día que hace dos años para creer que hay conflictos entre los ricos y los pobres en Estados Unidos.

Hay muchas razones sistémicas para esta creciente desigualdad, pero es posible que se haya pasado por alto un factor. Las redes sociales, que dicen hacer conexiones y unir a las personas, paradójicamente exacerban las divisiones y desigualdades sociales. Las redes sociales son inherentemente injustas y excluyentes. Operan según el principio de la homofilia, una palabra derivada de griego que significa "amor a lo mismo" o, más coloquialmente, "aves de un mismo plumaje vuelan juntas". Tres cosas caracterizan las redes de amistad: las mismas clases de personas se unen, se influyen mutuamente para pensar igual y, una vez que están en el mismo lugar, esa misma ubicación les influye para parecerse más. Si las personas tienen un menor prestigio, un estatus socioeconómico o son objeto de discriminación, entonces sus redes estarán compuestas por personas con menor prestigio, un menor nivel socioeconómico y que, por lo demás, están en desventaja.

Las redes sociales pueden alentar a las personas a adoptar prácticas que les ayuden a salir adelante, incluso si todas comienzan desde el mismo lugar. Los estudiantes cuyos amigos toman clases de Colocación Avanzada son más propensos a tomar clases AP que les ayuden a ingresar en buenas universidades. Por el contrario, las redes sociales pueden desalentar a las personas de participar en prácticas como fumar o comer alimentos poco saludables que los perjudican físicamente o delincuentes y comportamientos criminales que les perjudican socialmente. Pero las redes que ayudan a obtener una ventaja se encuentran con mayor frecuencia entre las personas con un estatus socioeconómico más alto, para empezar. "Al que tiene se le dará" es una perogrullada de la red social: los efectos de las redes sociales se amplifican para aquellos que ya son socialmente favorecidos.

La amistad se puede considerar como "capital social" que se distribuye de manera desigual. Estudio tras estudio ha afirmado que si tus amigos tienen recursos financieros o educativos o tienen conexiones con personas que podrían hablar en tu favor, entonces es mucho más probable que subas a la cima. Hace mucho que sabemos que la riqueza y las conexiones se heredan; Olvidamos que las redes de amistad, ya sea que se produzcan naturalmente como resultado de la propia posición, o se cultiven conscientemente como parte de una estrategia de "creación de redes", aumentan las ventajas de la herencia y aumentan la insularidad del 1 por ciento. Lo contrario es verdad. Cuando los amigos de uno carecen de recursos, es más difícil unirse a la clase media. No es una "cultura de la pobreza" el problema, es la red social de la pobreza.

Las redes sociales, un concepto agregado al Oxford English Dictionary solo en 1993, han sido ampliamente amplificadas por sitios basados ​​en internet como Facebook, fundado en 2004 pero ahora usado por más de 150 millones de estadounidenses. Según Facebook, el usuario promedio tiene 130 "amigos". La investigación de redes sociales sugiere que los amigos reflejen su propia clase, estado e intereses. Incluso el acceso a Internet se incrementa al tener amigos de mayores ingresos y educación. Hacer amigos y mantenerse al día con ellos es una actividad placentera, incluso una obsesiva entre algunos jóvenes. Sin embargo, una consecuencia imprevista del trabajo en red es un aumento de la desigualdad social y económica. El aumento de las redes sociales no es el único factor que contribuye al aumento de la desigualdad, pero en el círculo cálido de la amistad individual, otros pueden quedar afuera en el frío.

domingo, 11 de marzo de 2018

Una historia visual del conocimiento humano, con redes

Galería: magníficas redes que nos ayudan a entender el mundo

Helen Walters | Ideas TED




Como señala el diseñador Manuel Lima en su TED Talk, Una historia visual del conocimiento humano, la red se ha convertido en una forma poderosa de visualizar gran parte de lo que está sucediendo en el mundo que nos rodea. "Las redes realmente encarnan nociones de descentralización, de interconexión, de interdependencia", dice Lima. "Esta forma de pensar es fundamental para nosotros para resolver muchos de los problemas complejos a los que nos enfrentamos hoy en día, desde decodificar el cerebro humano hasta comprender el vasto universo que existe". Aquí, Lima comparte algunos de sus gráficos de red favoritos.


Las fortalezas de las naciones

Esta imagen muestra las conexiones entre las disciplinas científicas como la astrofísica, las matemáticas y la bioquímica. Con base en 800,000 referencias dentro de 760,000 artículos científicos, Lima dice que se siente atraído por el hecho de que el gráfico muestra claramente las conexiones y adyacencias de ciertos dominios científicos. Creado por W. Bradford Paley, Dick Klavans y Kevin Boyack; imagen cortesía de W. Bradford Paley.




Visualizando la Biblia

Este mapa de 2007 de Chris Harrison muestra 63,779 referencias cruzadas encontradas en la Biblia. El gráfico de barras en la parte inferior representa capítulos (cuanto más larga sea la barra, más versículos en el capítulo). Cada referencia cruzada se representa como un solo arco con diferentes colores utilizados para reflejar la distancia entre las referencias. Imagen cortesía de Chris Harrison.




Jardín de flores

Esta visualización de Greg Judelman y Maria Lantin muestra la discusión en línea en un evento en vivo. "La flor es representativa de participantes individuales, y florece a medida que se inician nuevas conversaciones, a la vez que se crean vínculos verdes entre quienes interactúan", dice Lima. "El chat en tiempo real es un tema difícil de representar, y este es un caso interesante para el uso de una metáfora visual innovadora". Imagen cortesía de Greg Judelman.




RISD.tv

Esta imagen de Daniel Peltz, Dennis Hlynsky y Chuan Khoo representa un marco colaborativo para la producción de videos en la Escuela de Diseño de Rhode Island en los Estados Unidos. "Tenga en cuenta que los enlaces no son líneas rectas", dice Lima. "Intentaban crear un tratamiento orgánico y fluido, evocador quizás de la cadena invisible de inspiración entre los videos asociados". Imagen cortesía de Daniel Peltz.




Mapa de la ciencia

Otro gráfico que muestra las conexiones entre las disciplinas científicas, este se basó en la forma en que las personas leen los artículos científicos en línea; sus fabricantes analizaron casi mil millones de interacciones del usuario para hacer el mapa de conexiones. "En el 1300 había árboles de la ciencia; este usa la metáfora de la red para crear enlaces entre dominios entrelazados ", dice Lima. Imagen cortesía de J. Bollen, H. Van de Sompel, A. Hagberg, L. Bettencourt, R. Chute, et al.




yFiles

Aunque esto parece una obra de arte abstracto, en realidad están sucediendo muchas cosas aquí. "Es una biblioteca Java de algoritmos de diseño para gráficos, diagramas y diagramas", dice Lima. "Durante los últimos cinco años, han surgido bibliotecas de codificación que le permiten incluir sus datos y visualizarlos. Es realmente la 'templacionización' del campo ". Imagen cortesía de Roland Wiese.




Círculos de Dewey

Aquí hay otra representación de transferencia de conocimiento, esta vez dentro de la Biblioteca Pública de Seattle. La imagen muestra patrones de alquiler, basados ​​en el sistema de clasificación Dewey Decimal amado por los bibliotecarios en todas partes. Cuanto más grande sea el círculo, más personas tomarán prestados libros o medios en esa categoría. Imagen cortesía de Syed Reza Ali.




Esferas

Este es un tipo bastante típico de visualización de red, dice Lima. "En cuanto al contenido, no es único; muestra los enlaces semánticos entre palabras en español usando un modelo de visualización esférica. Pero me gusta porque está bien ejecutado ". Imagen cortesía de Santiago Ortiz.




Las galaxias se forman a lo largo de los filamentos, como gotitas a lo largo de los hilos de la telaraña

"Muchos artistas están obsesionados con las redes, y este muestra una gran instalación física que muestra que el movimiento no solo está sucediendo en dos dimensiones", dice Lima. "Es tan hermoso; rebotar en una cuerda y toda la red cambia ". Imagen cortesía de Tomas Saraceno.




En silencio

"El artista Chiharu Shiota lleva las cosas a un nivel completamente diferente", dice Lima. "Ella llena estos espacios masivos con hilo negro; a veces incluye objetos o personas en una instalación, y crea redes densas y enrevesadas de lana negra e hilo. Me encanta ver artistas que se ocupan de las redes a su manera ". Imagen cortesía de Artists Rights Society (ARS), Nueva York / VG Bild-Kunst, Bonn.

viernes, 9 de marzo de 2018

Estructura de red y difusión anti-científica en un modelo de simulación

Los trucos que los propagandistas usan para vencer a la ciencia

Un modelo de la forma en que se difunden las opiniones revela cómo los propagandistas usan el proceso científico contra sí mismos para influir secretamente en los políticos.
por Emerging Technology del arXiv


En la década de 1950, los profesionales de la salud comenzaron a preocuparse de que el fumar causaba cáncer. Luego, en 1952, la popular revista Reader's Digest publicó "Cancer by the Carton", un artículo sobre el creciente cuerpo de evidencia que lo demostraba. El artículo causó una gran sorpresa y cobertura de los medios. Hoy los peligros para la salud del tabaquismo son claros e inequívocos.

Y, sin embargo, las prohibiciones de fumar han tardado en entrar en vigor, la mayoría aparecieron unos 40 años o más después del artículo de Reader's Digest.

La razón de esta lentitud es fácil de ver en retrospectiva y se describe en detalle por Naomi Oreskes y Erik Conway en su libro de 2010 Merchants of Doubt. Aquí los autores explican cómo la industria del tabaco contrató a una empresa de relaciones públicas para generar controversia en torno a la evidencia y arrojar dudas sobre su veracidad.

Juntos, las compañías tabacaleras y la firma de relaciones públicas crearon y financiaron una organización llamada Comité de Investigación de la Industria del Tabaco para producir resultados y opiniones que contradecían la opinión de que fumar mata. Esto condujo a una falsa sensación de incertidumbre y a cambios de política retrasados ​​que de otro modo tendrían ventas restringidas.



El enfoque fue enormemente exitoso para la industria tabacalera en ese momento. En el mismo libro, Oreskes y Conway muestran cómo un enfoque similar ha influido en el debate sobre el cambio climático. Una vez más, el consenso científico es claro e inequívoco, pero el debate público se ha enturbiado deliberadamente para crear una sensación de incertidumbre. De hecho, Oreskes y Conway dicen que algunas de las mismas personas que idearon la estrategia del tabaco también trabajaron para socavar el debate sobre el cambio climático.

Eso plantea una pregunta importante: ¿qué tan fácil es para los actores maliciosos distorsionar la percepción pública de la ciencia?

Hoy recibimos una respuesta gracias al trabajo de James Owen Weatherall, Cailin O'Connor en la Universidad de California, Irvine, y Justin Bruner en la Universidad Nacional de Australia en Canberra, que han creado un modelo informático de la forma en que se forman los consensos científicos y  cómo esto influye en la opinión de los políticos. El equipo estudió cuán fácilmente estos puntos de vista pueden distorsionarse y determinó que hoy en día es fácil distorsionar la percepción de la ciencia con técnicas que son aún más sutiles que las utilizadas por la industria del tabaco.

La estrategia original del tabaco implicó varias líneas de ataque. Una de ellas fue financiar investigaciones que respaldaron a la industria y luego publicar solo los resultados que se ajustan a la narrativa requerida. "Por ejemplo, en 1954, el TIRC distribuyó un panfleto titulado 'Una perspectiva científica sobre la controversia del cigarrillo' a casi 200,000 médicos, periodistas y legisladores, en el que enfatizaban la investigación favorable y cuestionaban los resultados que respaldaban la opinión contraria", dice Weatherall. y coautores, que llaman a esto enfoque de producción sesgada.

Un segundo enfoque promovió la investigación independiente que pasó a apoyar la narrativa de la industria tabacalera. Por ejemplo, apoyó la investigación sobre el vínculo entre el amianto y el cáncer de pulmón porque enlodaba las aguas al mostrar que otros factores pueden causar cáncer. Weatherall y su equipo llaman a este enfoque de difusión selectivo.

Weatherall y coautores investigaron cómo estas técnicas influyen en la opinión pública. Para ello utilizaron un modelo informático de la forma en que el proceso científico influye en la opinión de los responsables de las políticas.

Este modelo contiene tres tipos de actores. El primero son científicos que llegan a un consenso al llevar a cabo experimentos y permitir que los resultados, y los de sus pares, influyan en su punto de vista.

Cada científico comienza con el objetivo de decidir cuál de las dos teorías es mejor. Una de estas teorías se basa en la "acción A", que se entiende bien y se sabe que funciona el 50 por ciento de las veces. Esto corresponde a la teoría A.

Por el contrario, la teoría B se basa en una acción que no se comprende bien. Los científicos no están seguros de si es o no mejor que A. Sin embargo, el modelo está configurado de modo que la teoría B es en realidad mejor.

Los científicos pueden hacer observaciones utilizando su teoría y, lo que es más importante, tienen resultados probabilísticos. Entonces, incluso si la teoría B es la mejor de las dos, algunos resultados respaldarán la teoría A.

Al comienzo de la simulación, los científicos tienen una creencia aleatoria en la teoría A o B. Por ejemplo, un científico con un crédito de 0.7 cree que hay un 70 por ciento de posibilidades de que la teoría B sea correcta y, por lo tanto, aplica la teoría B en la siguiente ronda de experimentos.

Después de cada ronda de experimentos, los científicos actualizan sus puntos de vista en función de los resultados de su experimento y los resultados de los científicos a los que están vinculados en la red. En la siguiente ronda, repiten este proceso y actualizan sus creencias nuevamente, y así sucesivamente.

La simulación se detiene cuando todos los científicos creen una u otra teoría o cuando la creencia en una teoría alcanza cierto nivel de umbral. De esta manera, Weatherall y Co simulan la forma en que los científicos llegan a una visión consensuada.

Pero, ¿cómo influye este proceso en los responsables políticos? Para averiguarlo, Weatherall y su equipo introdujeron un segundo grupo de personas en el modelo, los responsables de la formulación de políticas, que están influenciados por los científicos (pero no influyen en los propios científicos). De manera crucial, los responsables de las políticas no escuchan a todos los científicos, solo un subconjunto de ellos.

Los formuladores de políticas comienzan con una vista y la actualizan después de cada ronda, usando las opiniones de los científicos que escuchan.

Pero el enfoque clave del trabajo del equipo es cómo un propagandista puede influir en las opiniones de los políticos. Entonces Weatherall y Co introducen un tercer actor en este modelo. Este propagandista observa a todos los científicos y se comunica con todos los legisladores con el objetivo de persuadirlos de que la peor teoría es correcta (en este caso, la teoría A). Lo hacen buscando solo puntos de vista que sugieran que la teoría A es correcta y la comparten con los legisladores.

El propagandista puede funcionar de dos formas que corresponden a la producción sesgada o al intercambio selectivo. En el primero, el propagandista usa un equipo interno de científicos para producir resultados que favorecen la teoría A. En el segundo, el propagandista simplemente escoge esos resultados de científicos independientes que favorecen la teoría A.

Ambos tipos de influencia pueden tener un gran impacto, dicen que Weatherall y el intercambio co-selectivo resultan ser tan buenos como la producción sesgada. "Encontramos que la presencia de un único propagandista que comunica solo los hallazgos reales de los científicos puede tener una influencia sorprendente en las creencias de los responsables de las políticas", explican. "Bajo muchos escenarios, encontramos que mientras la comunidad de científicos converge en creencias verdaderas sobre el mundo, los creadores de políticas alcanzan casi certeza en la falsa creencia".

Y eso sin ninguna ciencia fraudulenta o mala, simplemente seleccionando los resultados. De hecho, los propagandistas ni siquiera necesitan usar sus propios científicos internos para respaldar ideas específicas. Cuando hay una variación natural en los resultados de experimentos científicos imparciales, los propagandistas pueden tener una influencia significativa al seleccionar cuidadosamente aquellos que respaldan su propia agenda. Y se puede hacer a muy bajo riesgo porque todos los resultados que eligen son ciencia "real".

Ese hallazgo tiene implicaciones importantes. Significa que cualquiera que quiera manipular a la opinión pública e influir en los legisladores puede lograr un éxito extraordinario con trucos relativamente sutiles.

De hecho, no son solo los actores nefastos los que pueden terminar influenciando a los hacedores de políticas de maneras que no coinciden con el consenso científico. Weatherall y coautores señalan que los periodistas científicos también escogen los resultados. Los reporteros generalmente están bajo presión para encontrar las historias más interesantes o sexys o entretenidas, y esto sesga lo que los responsables políticos ven. Sin embargo, no está claro cuán significativo sea este efecto en el mundo real.

El hallazgo clave del equipo tendrá profundas consecuencias. "Uno podría haber esperado que producir ciencia sesgada realmente tendría una influencia más fuerte en la opinión pública que simplemente compartir los resultados de otros", dicen Weatherall y compañía. "Pero hay fuertes sentidos en los que la estrategia menos sutil y más sutil de compartir selectivamente es más efectiva que la producción sesgada".

El trabajo también tiene implicaciones para la naturaleza de la ciencia. Este tipo de intercambio selectivo es efectivo solo debido a la amplia variación en los resultados que surgen de ciertos tipos de experimentos, particularmente aquellos que son estudios pequeños de baja potencia.

Este es un problema bien conocido, y la solución es clara: estudios más grandes y de mayor potencia. "Dados algunos recursos financieros fijos, los organismos de financiación deberían asignar esos recursos a unos pocos estudios de gran potencia", argumentan Weatherall y compañía, quienes sugieren que los científicos deberían recibir incentivos para producir ese tipo de trabajo. "Por ejemplo, a los científicos se les debe otorgar más crédito por resultados estadísticamente más fuertes, incluso en casos en que resulten nulos".

Eso haría más difícil para los propagandistas encontrar resultados espurios que puedan usar para distorsionar las vistas.

Pero dado cuán poderoso parece ser el intercambio selectivo, la pregunta ahora es: ¿quién es más probable que haga un uso efectivo de las conclusiones de Weatherall y de la compañía en primer lugar: propagandistas o científicos / legisladores?

Ref: arxiv.org/abs/1801.01239: How to Beat Science and Influence People: Policy Makers and Propaganda in Epistemic Networks

miércoles, 7 de marzo de 2018

Qué algoritmo sobre o subajusta cuando se buscan comunidades en redes

Evaluación del sobreajuste y el subajuste en modelos de estructura de comunidad de red

Amir Ghasemian, Homa Hosseinmardi, Aaron Clauset
(Presentado el 28 de febrero de 2018)
arXiv:1802.10582 [stat.ML]


Una tarea común de minería de datos en redes es la detección de comunidades, que busca una descomposición no supervisada de una red en grupos estructurales basada en regularidades estadísticas en la conectividad de la red. Aunque existen muchos métodos, el teorema de No Free Lunch para la detección de comunidades implica que cada uno realiza algún tipo de compensación, y ningún algoritmo puede ser óptimo en todas las entradas. Por lo tanto, diferentes algoritmos superarán o subestimarán las diferentes entradas, encontrando más, menos o solo comunidades diferentes de lo que es óptimo, y los métodos de evaluación que usan una partición de metadatos como verdad fundamental producirán conclusiones engañosas sobre la precisión general. Aquí, presentamos una amplia evaluación de sobreequipamiento en la detección de comunidades, comparando el comportamiento de 16 algoritmos de detección de comunidades de vanguardia en un corpus novedoso y estructuralmente diverso de 406 redes del mundo real. Encontramos que (i) los algoritmos varían ampliamente tanto en el número de comunidades que encuentran como en su composición correspondiente, dado el mismo aporte, (ii) los algoritmos se pueden agrupar en grupos de alto nivel basados ​​en las similitudes de sus resultados en realidades. las redes mundiales, y (iii) estas diferencias inducen una amplia variación en la precisión de las tareas de predicción de enlaces y descripción de enlaces. Presentamos un nuevo diagnóstico para evaluar el sobreajuste y el ajuste insuficiente en la práctica, y lo utilizamos para dividir aproximadamente los métodos de detección de la comunidad en algoritmos de aprendizaje general y especializado. En todos los métodos e insumos, las técnicas bayesianas basadas en el modelo de bloques estocásticos y un enfoque de longitud de descripción mínima para la regularización representan el mejor enfoque general de aprendizaje, pero pueden superarse en circunstancias específicas. Estos resultados introducen un enfoque basado en principios teóricos para evaluar el exceso y el insuficiente ajuste en los modelos de la estructura de la red comunitaria y un punto de referencia realista mediante el cual se pueden evaluar y comparar nuevos métodos.



lunes, 5 de marzo de 2018

Mapeando la red cerebral para construir mejor inteligencia artificial

Mapeo del cerebro para construir mejores máquinas

Una carrera para descifrar los algoritmos del cerebro podría revolucionar el aprendizaje automático.

Emily Singer || Quanta Magazine



Greg Dunn

Lleve a un niño de tres años al zoológico e intuitivamente sabe que la criatura de cuello largo que mordisquea las hojas es lo mismo que la jirafa en su libro ilustrado. Esa hazaña superficialmente fácil es en realidad bastante sofisticada. El dibujo animado es una silueta congelada de líneas simples, mientras que el animal viviente está inundado de color, textura, movimiento y luz. Puede contorsionarse en diferentes formas y se ve diferente desde todos los ángulos.





Los humanos sobresalen en este tipo de tarea. Podemos comprender sin esfuerzo las características más importantes de un objeto a partir de unos pocos ejemplos y aplicar esas características a lo desconocido. Las computadoras, por otro lado, típicamente necesitan ordenar a través de una base de datos completa de jirafas, que se muestran en muchos entornos y desde diferentes perspectivas, para aprender a reconocer con precisión al animal.

La identificación visual es una de las muchas áreas donde los humanos vencieron a las computadoras. También somos mejores para encontrar información relevante en una avalancha de datos; para resolver problemas no estructurados; y al aprender sin supervisión, cuando un bebé aprende sobre la gravedad cuando juega con bloques. "Los humanos son mucho, mucho mejores generalistas", dijo Tai Sing Lee, científico informático y neurocientífico de la Universidad Carnegie Mellon en Pittsburgh. "Todavía somos más flexibles en el pensamiento y podemos anticipar, imaginar y crear eventos futuros".

Un ambicioso programa nuevo, financiado por el brazo de inteligencia del gobierno federal, tiene como objetivo lograr que la inteligencia artificial esté más en línea con nuestros propios poderes mentales. Tres equipos compuestos por neurocientíficos e informáticos intentarán descubrir cómo el cerebro realiza estas hazañas de identificación visual, y luego fabrican máquinas que hacen lo mismo. "El aprendizaje automático de hoy falla donde los humanos se destacan", dijo Jacob Vogelstein, quien dirige el programa en la Actividad de Proyectos de Investigación Avanzados de Inteligencia (IARPA). "Queremos revolucionar el aprendizaje automático mediante la ingeniería inversa de los algoritmos y cálculos del cerebro".

El tiempo es corto. Cada equipo ahora está modelando un trozo de corteza con detalles sin precedentes. En conjunto, los equipos están desarrollando algoritmos basados ​​en parte en lo que aprenden. Para el próximo verano, a cada uno de esos algoritmos se le dará un ejemplo de un elemento extraño y luego se le pedirá que seleccione instancias del mismo de entre miles de imágenes en una base de datos sin etiqueta. "Es un marco de tiempo muy agresivo", dijo Christof Koch, presidente y director científico del Instituto Allen para Ciencias del Cerebro en Seattle, que está trabajando con uno de los equipos.

Los humanos sobresalen en este tipo de tarea. Podemos comprender sin esfuerzo las características más importantes de un objeto a partir de unos pocos ejemplos y aplicar esas características a lo desconocido. Las computadoras, por otro lado, típicamente necesitan ordenar a través de una base de datos completa de jirafas, que se muestran en muchos entornos y desde diferentes perspectivas, para aprender a reconocer con precisión al animal.

La identificación visual es una de las muchas áreas donde los humanos vencieron a las computadoras. También somos mejores para encontrar información relevante en una avalancha de datos; para resolver problemas no estructurados; y al aprender sin supervisión, cuando un bebé aprende sobre la gravedad cuando juega con bloques. "Los humanos son mucho, mucho mejores generalistas", dijo Tai Sing Lee, científico informático y neurocientífico de la Universidad Carnegie Mellon en Pittsburgh. "Todavía somos más flexibles en el pensamiento y podemos anticipar, imaginar y crear eventos futuros".

Un ambicioso programa nuevo, financiado por el brazo de inteligencia del gobierno federal, tiene como objetivo lograr que la inteligencia artificial esté más en línea con nuestros propios poderes mentales. Tres equipos compuestos por neurocientíficos e informáticos intentarán descubrir cómo el cerebro realiza estas hazañas de identificación visual, y luego fabrican máquinas que hacen lo mismo. "El aprendizaje automático de hoy falla donde los humanos se destacan", dijo Jacob Vogelstein, quien dirige el programa en la Actividad de Proyectos de Investigación Avanzados de Inteligencia (IARPA). "Queremos revolucionar el aprendizaje automático mediante la ingeniería inversa de los algoritmos y cálculos del cerebro".

El tiempo es corto. Cada equipo ahora está modelando un trozo de corteza con detalles sin precedentes. En conjunto, los equipos están desarrollando algoritmos basados ​​en parte en lo que aprenden. Para el próximo verano, a cada uno de esos algoritmos se le dará un ejemplo de un elemento extraño y luego se le pedirá que seleccione instancias del mismo de entre miles de imágenes en una base de datos sin etiqueta. "Es un marco de tiempo muy agresivo", dijo Christof Koch, presidente y director científico del Instituto Allen para Ciencias del Cerebro en Seattle, que está trabajando con uno de los equipos.

Koch y sus colegas ahora están creando un diagrama de cableado completo de un pequeño cubo de cerebro: un millón de micras cúbicas, que suman un volumen quinientos centésimas de una semilla de amapola. Eso es órdenes de magnitud más grandes que el mapa de cableado completo más extenso hasta la fecha, que se publicó en junio pasado y tomó aproximadamente seis años en completarse.

Al final del proyecto IARPA de cinco años, denominado Inteligencia artificial de redes corticales (Microns), los investigadores intentan mapear un milímetro cúbico de corteza. Esa pequeña porción alberga alrededor de 100.000 neuronas, de 3 a 15 millones de conexiones neuronales o sinapsis, y suficiente cableado neuronal para abarcar todo el ancho de Manhattan, si todo estuviera desenredado y tendido de punta a punta.

Nadie ha intentado reconstruir un pedazo de cerebro a esta escala. Pero los esfuerzos a menor escala han demostrado que estos mapas pueden proporcionar información sobre el funcionamiento interno de la corteza. En un artículo publicado en la revista Nature en marzo, Wei-Chung Allen Lee -un neurocientífico de la Universidad de Harvard que está trabajando con el equipo de Koch- y sus colaboradores trazaron un diagrama de 50 neuronas y más de 1,000 de sus socios. Al combinar este mapa con información sobre el trabajo de cada neurona en el cerebro, algunos responden a una entrada visual de barras verticales, por ejemplo, derivaron una regla simple de cómo las neuronas en esta parte de la corteza están conectadas anatómicamente. Descubrieron que las neuronas con funciones similares tienen más probabilidades de conectarse y establecer conexiones más grandes entre sí que con otros tipos de neuronas.

Si bien el objetivo implícito del proyecto Microns es tecnológico: IARPA financia investigaciones que eventualmente podrían llevar a herramientas de análisis de datos para la comunidad de inteligencia, entre otras cosas, debe haber ideas nuevas y profundas sobre el cerebro. Andreas Tolias, un neurocientífico de Baylor College of Medicine que es co-líder del equipo de Koch, compara nuestro conocimiento actual de la corteza con una fotografía borrosa. Él espera que la escala sin precedentes del proyecto Microns ayude a agudizar esa visión, exponiendo reglas más sofisticadas que rigen nuestros circuitos neuronales. Sin conocer todas las partes componentes, dijo, "tal vez nos estamos perdiendo la belleza de la estructura".

Las unidades de procesamiento del cerebro

Los intrincados pliegues que cubren la superficie del cerebro forman la corteza cerebral, una hoja de tejido del tamaño de una pizza que se arrugó para que se ajuste a nuestro cráneo. Es en muchos sentidos el microprocesador del cerebro. La hoja, de aproximadamente tres milímetros de grosor, está formada por una serie de módulos repetitivos, o microcircuitos, similares a la serie de compuertas lógicas en un chip de computadora. Cada módulo consta de aproximadamente 100.000 neuronas dispuestas en una compleja red de células interconectadas. La evidencia sugiere que la estructura básica de estos módulos es aproximadamente la misma en toda la corteza. Sin embargo, los módulos en diferentes regiones del cerebro están especializados para fines específicos, como la visión, el movimiento o la audición.


Andreas Tolias (izquierda), que se muestra aquí con su alumno R.J. Cotton, es co-líder de uno de los equipos de Micron.

Los científicos solo tienen una idea aproximada de cómo se ven estos módulos y cómo actúan. En gran parte se han limitado a estudiar el cerebro a escalas más pequeñas: decenas o cientos de neuronas. Las nuevas tecnologías diseñadas para rastrear la forma, la actividad y la conectividad de miles de neuronas finalmente permiten a los investigadores analizar cómo las células dentro de un módulo interactúan entre sí; cómo la actividad en una parte del sistema puede provocar o frenar la actividad en otra parte. "Por primera vez en la historia, tenemos la capacidad de interrogar a los módulos en lugar de solo adivinar los contenidos", dijo Vogelstein. "Diferentes equipos tienen diferentes conjeturas para lo que hay adentro".

Los investigadores se centrarán en una parte de la corteza que procesa la visión, un sistema sensorial que los neurocientíficos han explorado intensamente y que los científicos de la computación se han esforzado por emular. "La visión parece fácil, solo abre los ojos, pero es difícil enseñar a las computadoras a hacer lo mismo", dijo David Cox, un neurocientífico de Harvard que dirige uno de los equipos de IARPA.

Cada equipo está comenzando con la misma idea básica de cómo funciona la visión, una teoría de décadas de antigüedad conocida como análisis por síntesis. De acuerdo con esta idea, el cerebro hace predicciones sobre lo que sucederá en el futuro inmediato y luego reconcilia esas predicciones con lo que ve. El poder de este enfoque radica en su eficiencia: requiere menos computación que la recreación continua en todo momento.

El cerebro puede ejecutar análisis por síntesis de diferentes maneras, por lo que cada equipo está explorando una posibilidad diferente. El equipo de Cox ve el cerebro como una especie de motor de física, con modelos de física existentes que utiliza para simular cómo debería ser el mundo. El equipo de Tai Sing Lee, codirigido por George Church, teoriza que el cerebro ha construido una biblioteca de partes, fragmentos de objetos y personas, y aprende las reglas sobre cómo unir esas partes. Las hojas, por ejemplo, tienden a aparecer en las ramas. El grupo de Tolias está trabajando en un enfoque más basado en datos, donde el cerebro crea expectativas estadísticas del mundo en el que vive. Su equipo probará varias hipótesis sobre cómo las diferentes partes del circuito aprenden a comunicarse.

Los tres equipos controlarán la actividad neuronal de decenas de miles de neuronas en un cubo objetivo del cerebro. Luego usarán diferentes métodos para crear un diagrama de cableado de esas celdas. El equipo de Cox, por ejemplo, cortará el tejido cerebral en capas más delgadas que un cabello humano y analizará cada corte con microscopio electrónico. Luego, el equipo coserá computacionalmente cada sección transversal para crear un mapa tridimensional densamente empaquetado que traza millones de cables neuronales en su intrincado camino a través de la corteza.

Con un mapa y un patrón de actividad en la mano, cada equipo intentará descubrir algunas reglas básicas que rigen el circuito. Luego programarán esas reglas en una simulación y medirán qué tan bien la simulación coincide con un cerebro real.

Tolias y colaboradores ya tienen una idea de lo que este tipo de enfoque puede lograr. En un artículo publicado en Science en noviembre, mapearon las conexiones entre 11,000 pares de neuronas, descubriendo cinco nuevos tipos de neuronas en el proceso. "Todavía no tenemos una lista completa de las partes que componen la corteza, cómo son las células individuales, cómo están conectadas", dijo Koch. "Eso es lo que [Tolias] comenzó a hacer".


Andreas Tolias y colaboradores mapearon las conexiones entre pares de neuronas y registraron su actividad eléctrica. La anatomía compleja de cinco neuronas (arriba a la izquierda) se puede reducir a un diagrama de circuito simple (arriba a la derecha). La inyección de corriente eléctrica en la neurona 2 hace que la neurona se dispare, lo que provoca cambios eléctricos en las dos células aguas abajo, las neuronas 1 y 5 (abajo). Revista Olena Shmahalo / Quanta; Andreas Tolias

Entre estas miles de conexiones neuronales, el equipo de Tolias descubrió tres reglas generales que gobiernan cómo las células están conectadas: Algunas hablan principalmente de neuronas de su propia clase; otros evitan a los de su propia clase, comunicándose principalmente con otras variedades; y un tercer grupo habla solo con algunas otras neuronas. (El equipo de Tolias definió sus células basándose en la anatomía neural más que en la función, lo cual hizo el equipo de Wei Lee en su estudio). Usando solo estas tres reglas de cableado, los investigadores pudieron simular el circuito con bastante precisión. "Ahora el desafío es descubrir qué significan algorítmicamente esas reglas de cableado", dijo Tolias. "¿Qué tipo de cálculos hacen?"

Redes neuronales basadas en neuronas reales

La inteligencia artificial cerebral no es una idea nueva. Las llamadas redes neuronales, que imitan la estructura básica del cerebro, fueron extremadamente populares en la década de 1980. Pero en ese momento, el campo carecía de la potencia informática y los datos de entrenamiento que los algoritmos necesitaban para ser realmente efectivos. Después de todo, no había disponibles todos los millones de imágenes de gatos etiquetados de Internet. Y aunque las redes neuronales han disfrutado de un gran renacimiento, los programas de reconocimiento de voz y rostro que se han convertido rápidamente en parte de nuestra vida cotidiana se basan en algoritmos de redes neuronales, como AlphaGo, la computadora que recientemente derrotó al mejor jugador Go del mundo: el las reglas que las redes neuronales artificiales usan para alterar sus conexiones son casi con certeza diferentes de las empleadas por el cerebro.

Las redes neuronales contemporáneas "se basan en lo que sabíamos sobre el cerebro en la década de 1960", dijo Terry Sejnowski, un neurocientífico computacional del Instituto Salk en San Diego que desarrolló algoritmos de redes neuronales tempranas con Geoffrey Hinton, un científico informático de la Universidad de Toronto. . "Nuestro conocimiento de cómo está organizado el cerebro está explotando".

Por ejemplo, las redes neuronales actuales se componen de una arquitectura de feed-forward, donde la información fluye de entrada a salida a través de una serie de capas. Cada capa está entrenada para reconocer ciertas características, como un ojo o un bigote. Ese análisis se alimenta, y cada capa sucesiva realiza cálculos cada vez más complejos sobre los datos. De esta forma, el programa finalmente reconoce una serie de píxeles de colores como un gato.

Pero esta estructura de feed-out deja fuera un componente vital del sistema biológico: la retroalimentación, tanto dentro de las capas individuales y de las capas de orden superior a las de menor orden. En el cerebro real, las neuronas en una capa de la corteza están conectadas a sus vecinos, así como a las neuronas en las capas superiores e inferiores, creando una intrincada red de bucles. "Las conexiones de retroalimentación son una parte increíblemente importante de las redes corticales", dijo Sejnowski. "Hay tantos comentarios como conexiones feed-forward".

Los neurocientíficos aún no entienden con precisión qué están haciendo estos circuitos de retroalimentación, aunque saben que son importantes para nuestra capacidad de dirigir nuestra atención. Nos ayudan a escuchar una voz en el teléfono mientras desactivamos los sonidos de la ciudad, por ejemplo. Parte del atractivo de la teoría de análisis por síntesis es que proporciona una razón para todas esas conexiones recurrentes. Ayudan al cerebro a comparar sus predicciones con la realidad.

Los investigadores de Microns intentan descifrar las reglas que rigen los ciclos de retroalimentación, como qué células conectan estos circuitos, qué desencadena su actividad y cómo afecta esa actividad a la salida del circuito, y luego traducen esas reglas en un algoritmo. "Lo que falta en una máquina en este momento es la imaginación y la introspección. Creo que el circuito de retroalimentación nos permite imaginar e introspectar en muchos niveles diferentes ", dijo Tai Sing Lee.

Tal vez los circuitos de retroalimentación un día doten a las máquinas de rasgos que consideramos como únicos humanos. "Si pudieras implementar [circuitería de retroalimentación] en una red profunda, podrías pasar de una red que tiene una especie de reacción instintiva (dar entrada y obtener resultados) a una que sea más reflexiva, que pueda comenzar a pensar en las entradas y las pruebas hipótesis ", dijo Sejnowski, quien se desempeña como asesor de la Iniciativa BRAIN de $ 100 millones del presidente Obama, de la cual el proyecto Microns forma parte.

Pistas para la conciencia

Al igual que todos los programas de IARPA, el proyecto Microns es de alto riesgo. Las tecnologías que los investigadores necesitan para el mapeo a gran escala de la actividad y el cableado neuronal existen, pero nadie las ha aplicado antes a esta escala. Un desafío será lidiar con la enorme cantidad de datos que produce la investigación: de 1 a 2 petabytes de datos por cubo milimétrico de cerebro. Es probable que los equipos necesiten desarrollar nuevas herramientas de aprendizaje automático para analizar todos esos datos, un ciclo de retroalimentación bastante irónico.

Tampoco está claro si las lecciones aprendidas de un pequeño pedazo de cerebro resultarán ilustrativas de los talentos más grandes del cerebro. "El cerebro no es solo una parte de la corteza", dijo Sejnowski. "El cerebro contiene cientos de sistemas especializados para diferentes funciones".

La corteza en sí misma se compone de unidades repetitivas que se ven más o menos iguales. Pero otras partes del cerebro pueden actuar de manera muy diferente. El aprendizaje de refuerzo empleado en el algoritmo AlphaGo, por ejemplo, está relacionado con procesos que tienen lugar en los ganglios basales, parte del cerebro involucrado en la adicción. "Si quieres una IA que vaya más allá del simple reconocimiento de patrones, vas a necesitar muchas partes diferentes", dijo Sejnowksi.

Sin embargo, si el proyecto tiene éxito, hará más que analizar datos de inteligencia. Un algoritmo exitoso revelará verdades importantes sobre cómo el cerebro da sentido al mundo. En particular, ayudará a confirmar que el cerebro sí opera a través del análisis por síntesis, que compara sus propias predicciones sobre el mundo con los datos entrantes que se filtran a través de nuestros sentidos. Revelará que un ingrediente clave en la receta de la conciencia es una mezcla siempre cambiante de imaginación más percepción. "Es la imaginación lo que nos permite predecir eventos futuros y usar eso para guiar nuestras acciones", dijo Tai Sing Lee. Al construir máquinas que piensan, estos investigadores esperan revelar los secretos del pensamiento.