domingo, 30 de abril de 2017

La ciencia ha superado la mente humana y sus limitadas capacidades

AEON, 24 de de abril de, 2017
Ahmed Alkhateeb
es es un biólogo molecular del cáncer en la Escuela de Medicina de Harvard. Su trabajo se centra en el desarrollo de plataformas de análisis para mejorar la eficiencia de la investigación en biomedicina.
La ciencia está en medio de una crisis de datos. El año pasado, hubo más de 1,2 millones de nuevos trabajos publicados en las ciencias biomédicas solos, con lo que el número total de artículos biomédicos revisadas por pares a más de 26 millones de dólares. Sin embargo, el científico promedio lee solamente cerca de 250 artículos al año. Mientras tanto, la calidad de la literatura científica ha estado en declive. Algunos recientes estudios encontraron que la mayoría de los trabajos biomédicos eran irreproducibles . 
El doble desafío de demasiada cantidad y muy poca calidad tienen su origen en la capacidad neurológica finita de la mente humana. Los científicos están obteniendo hipótesis de una fracción cada vez más pequeña de nuestro conocimiento colectivo y, en consecuencia, cada vez más, haciendo las preguntas equivocadas, o pedir a los que ya han sido contestadas. Además, la creatividad humana parece depender cada vez más de la estocasticidad de experiencias anteriores - circunstancias de la vida que permiten a un investigador a notar algo que otros no lo hacen. Aunque posibilidad siempre ha sido un factor en el descubrimiento científico, que está jugando un papel mucho más grande de lo que debería.

Una estrategia prometedora para superar la crisis actual es la integración de las máquinas y la inteligencia artificial en el proceso científico. Máquinas tienen una mayor memoria y mayor capacidad de cálculo que el cerebro humano. La automatización del proceso científico podría aumentar en gran medida la tasa de descubrimiento. Incluso podría comenzar otra revolución científica. Esa posibilidad enorme gira en torno a un igualmente gran pregunta: ¿puede realmente el descubrimiento científico puede automatizar?
Yo creo que si, utilizando un enfoque que hemos conocido por siglos. La respuesta a esta pregunta se puede encontrar en la obra de Sir Francis Bacon, filósofo Inglés del siglo 17 y un progenitor clave de la ciencia moderna.
Los primeros reiteraciones del método científico se remonta muchos siglos atrás a los pensadores musulmanes como Ibn al-Haytham, que destacó tanto el empirismo y la experimentación. Sin embargo, fue Bacon quien primero formaliza el método científico y la convirtió en un tema de estudio. En su libro Novum Organum (1620), propuso un modelo para el descubrimiento de que todavía se conoce como el método de Bacon. Se argumentó en contra de la lógica silogística para la síntesis científica, que él considera que es poco fiable. En su lugar, propone un enfoque en el que se recogen las observaciones pertinentes acerca de un fenómeno específico de forma sistemática, tabulados y analizados utilizando objetivamente la lógica inductiva para generar ideas generalizables. En su opinión, la verdad puede ser descubierta sólo cuando la mente está libre de axiomas incompletas (y por lo tanto falsas).
El método de Bacon trató de eliminar el sesgo lógico desde el proceso de observación y conceptualización, delineando los pasos de síntesis científica y la optimización de cada uno por separado. La visión de Bacon era aprovechar una comunidad de observadores para recoger grandes cantidades de información sobre la naturaleza y tabulará en un registro central accesible al análisis inductivo. En Novum Organum , escribió: 'Los empíricos son como hormigas; se acumulan y utilizan. Racionalistas tejen sus telas como las arañas. El mejor método es el de la abeja; es en algún punto intermedio, teniendo el material existente y su uso.
El método de Bacon rara vez se utiliza hoy en día. Demostró ser demasiado laborioso y extravagantemente caro; sus aplicaciones tecnológicas no estaban claros. Sin embargo, en el momento de la formalización de un método científico marcó un avance revolucionario. Ante ello, la ciencia era metafísico, accesible sólo para unos pocos eruditos, en su mayoría de origen noble. Al rechazar la autoridad de los antiguos griegos y delinear los pasos de descubrimiento, Bacon creó un modelo que permitiera a cualquier persona, independientemente de su origen, para convertirse en un científico.
Las ideas de Bacon también revelaron una importante verdad oculta: el proceso de descubrimiento es inherentemente algorítmica. Es el resultado de un número finito de pasos que se repiten hasta que se descubrió un resultado significativo. Bacon utiliza explícitamente la palabra 'máquina' en la descripción de su método. Su algoritmo científica tiene tres componentes esenciales: en primer lugar, las observaciones tienen que ser recogidos e integrados en el corpus total del conocimiento. En segundo lugar, las nuevas observaciones se utilizan para generar nuevas hipótesis. En tercer lugar, las hipótesis se ponen a prueba a través de experimentos cuidadosamente diseñados.
Si la ciencia es algorítmica, entonces debe tener el potencial para la automatización. Este sueño futurista ha eludido a los científicos información y la informática desde hace décadas, en gran parte debido a que los tres principales pasos del descubrimiento científico ocupan diferentes planos. La observación es sensual; de generación de hipótesis es mental; y la experimentación es mecánico. La automatización del proceso científico requerirá la incorporación efectiva de máquinas en cada paso, y en los tres alimentar una en la otra sin fricción. Sin embargo, nadie ha descubierto la manera de hacer eso.

La experimentación ha visto el progreso reciente más importante. Por ejemplo, la industria farmacéutica utiliza comúnmente plataformas automatizadas de alto rendimiento para el diseño de fármacos. Nuevas empresas tales como Transcriptic y esmeralda nube de Laboratorio, tanto en California, están construyendo sistemas para automatizar casi todas las tareas físicas que hacen los científicos biomédicos. Los científicos pueden presentar sus experimentos en línea, donde se convierten a código y se introducen en plataformas robóticas que llevan a cabo una serie de experimentos biológicos. Estas soluciones son más relevantes para disciplinas que requieren experimentación intensiva, tales como la biología molecular y la ingeniería química, pero métodos análogos se pueden aplicar en otros campos de datos intensivos, e incluso extenderse a disciplinas teóricas.
Automatizado de generación de hipótesis es menos avanzado, pero la obra de Don Swanson en la década de 1980 proporcionó un importante paso adelante. Se demostró la existencia de enlaces ocultos entre las ideas no vinculados en la literatura científica; utilizando un marco lógico deductivo simple, que podría conectar los papeles de diversos campos sin que se solapen citación. De esta manera, Swanson fue capaz de plantear la hipótesis de una novela de enlace entre el aceite de pescado en la dieta y el síndrome de Reynaud sin llevar a cabo ningún experimento o ser un experto en cualquier campo. Otros enfoques más recientes, como las de Andrey Rzhetsky en la Universidad de Chicago y László Barabási-Albert en la Universidad Northeastern, se basan en modelos matemáticos y la teoría de grafos. Incorporan grandes conjuntos de datos, en la que el conocimiento se proyecta como una red, donde los nodos son los conceptos y los enlaces son relaciones entre ellos. Hipótesis novedosas aparecerían como enlaces entre nodos sin descubrir.
El paso más difícil en el proceso de automatización es la forma de recoger las observaciones científicas fiables a gran escala. Actualmente no existe una base de datos central que posee el conocimiento científico total de la humanidad en un nivel observacional. Procesamiento del lenguaje natural ha avanzado hasta el punto en que puede automáticamente extraer no sólo las relaciones, sino también el contexto de trabajos científicos. Sin embargo, los principales editores científicos han impuesto restricciones severas en la minería de texto. Más importante aún, el texto de los documentos está sesgada hacia las interpretaciones del científico (o conceptos erróneos), y contiene sintetiza conceptos y metodologías que son difíciles de extraer y cuantificar complejos.
Sin embargo, los recientes avances en la informática y bases de datos en red hacen que el método de Bacon práctica por primera vez en la historia. E incluso antes del descubrimiento científico puede ser automatizado, abrazando enfoque de Bacon podría resultar valioso en un momento en el reduccionismo pura está llegando al borde de su utilidad.
La mente humana simplemente no puede reconstruir los fenómenos naturales de gran complejidad con suficiente eficacia en la era de los grandes datos. Un método de Bacon moderno que incorpora las ideas reduccionistas a través de la minería de datos, pero luego se analiza esta información a través de modelos computacionales inductivas, podría transformar nuestra comprensión del mundo natural. Tal enfoque nos permitiría generar nuevas hipótesis que tienen mayores posibilidades de convertir a ser cierto, para poner a prueba estas hipótesis, y para llenar lagunas en nuestro conocimiento. También proporcionaría un recordatorio muy necesario de lo que la ciencia se supone que es: búsqueda de la verdad, antiautoritario, e ilimitadamente libre.

jueves, 6 de abril de 2017

Tenemos que hablar de internet como un derecho humano

  • MIT- Technology Review por Tom Simonite | traducido por Teresa Woods - 6 abril 2017
El inventor de internet, Tim Berners-Lee, acaba de ser galardonado con el Premio Turing, considerado como el Nobel de la Informática. Tras años de trabajo, está convencido de que su invento necesita ser rediseñado.
El hombre que hizo posible que usted pueda leer esta página ahora mismo acaba de recibir la máxima distinción de la informática.
En 1989, Tim Berners-Lee, un programador del laboratorio de física del CERN, propuso un sistema que permitiría que los ordenadores publicaran y accedieran a documentos vinculados y multimedia a través de internet. Hoy, el mundo sucede en la web y Berners-Lee ha sido galardonado con el Premio Turing, considerado como el Premio Nobel de la informática. El recién premiado ha hablado con MIT Technology Review sobre el pasado, presente y futuro de su invento.
Vayamos a 1989. ¿Cuál era el problema que intentaba resolver cuando empezó este trabajo que dio paso a la World Wide Web?
Trabajaba en CERN y estaba frustrado porque habían comprado ordenadores maravillosos, todos ellos distintos. Cada uno tenía algún modo de ordenar los documentos y manuales y ficheros de ayuda, pero eran diferentes entre sí. Y yo pensaba: "¿No sería maravilloso que todos estos sistemas formaran parte de un gran megasistema?".
Lo primero que hicimos fue establecer un servidor web en el CERN para la guía telefónica. Anteriormente se ejecutaba en un ordenador central y era complicado tener que iniciar sesión. Mucha gente sólo acudía al ordenador central para buscar números de teléfono. La guía telefónica logró que algunas personas instalaran un navegador web. El sistema se extendió fuera del CERN en la física de alta energía y después acabó despegando exponencialmente.
La carrera profesional de Tim Berners-Lee
  • 1989 Escribió una propuesta para un "sistema distribuido de hipertexto".
  • 1991 La primera página web entra en línea.
  • 1994 Fundó el World Wide Web Consortium para estándares de internet.
  • 2001 Hizo un llamamiento para el desarrollo de una web semántica legible por ordenadores.
  • 2009 Fundó la Fundación World Wide Web para ampliar el acceso a internet.
Ahora la web parece imprescindible, y forma parte de las vidas personales y profesionales de mucha gente. ¿Hay alguna mejora que todavía necesite?
Ahora tenemos que hablar de [internet] como un derecho humano. No es una necesidad tan básica como el agua, pero la diferencia de poder económico y social entre alguien con acceso y sin él es que este último está en una posición tremendamente desaventajada. Si vives en una aldea de África y no tienes acceso porque no puedes afrontar el coste, o sí tienes acceso pero no lo puedes aprovechar porque eres analfabeto, entonces esto es un problema.
Cuando creamos la Fundación World Wide Web [en 2009] dijimos que si el 20% del mundo tiene acceso a internet, debe intentar conectar al 80% lo antes posible. [Naciones Unidas dijo el pasado mes de noviembre que actulamente el 47% de la población mundial ya está conectada].
De cara al futuro, menciona la necesidad de que la web sea "redescentralizada". Y forma parte de una comunidad que trabaja en la tecnología para ello. ¿Cuál es el planteamiento de este movimiento?
A finales de la década de 1990, había mucha emoción sobre las posibilidades de este sistema y la descentralización era una parte importante de ello. Sin pedir permiso a nadie, se podía comprar un ordenador, instalar software, conectarlo a internet y tener un blog y una voz. La gente creía que estas voces se sumarían y darían lugar a cosas muy emocionantes. Y aunque han surgido muchas, como Wikipedia y el crowdfunding, mucha gente dedica todo su tiempo a silos de redes sociales. Una red social es deshabilitadora porque vuelcas muchas energías en ella, publicas todos tus datos personales e indicas quiénes son tus amigos. Solo podrás utilizar esa información dentro del silo de esa red social en particular.
Realizamos unos talleres, y tenemos a gente trabajando en el laboratorio en cosas como el Proyecto Solid del Instituto Tecnológico de Massachusetts (MIT; EEUU), que dice que podríamos desplazarnos hacia un mundo en el que todos controlen sus propios datos. Imagínate que todas las aplicaciones que ejecutas apuntasen a datos que tú controlas. Es un emocionante y nuevo modo de operar.