jueves, 1 de diciembre de 2011

La revista Nature recomienda a España, Grecia e Italia invertir en I+D

Traducción libre de la editorial recientemente publicado en la revista Nature, Half way there.


A mitad de camino

España, Italia y Grecia tienen nuevos gobiernos y nuevas leyes sobre investigación. A pesar de las presiones de austeridad económica, investigar en ciencia puede traer beneficios desproporcionados. 

Tres de los países mediterráneos peor heridos por la crisis (España, Italia y Grecia) tienen poco en común, más allá de compartir el litoral y bajos niveles de inversión en ciencia y desarrollo. Sin embargo, en los últimos años los tres han mostrado su deseo de reformar su desfasado sistema de investigación. Y en el último mes los tres han adquirido, de una manera u otra, un nuevo gobierno. 
La prioridad para estos gobiernos es traer de vuelta sus países del camino del desastre, y con ello ayudar a prevenir el colapso del euro. Dada la enormidad e importancia internacional de esta tarea, ¿tiene algún sentido favorecer al lobby científico, económica y políticamente, en medio de los paquetes de austeridad que los gobiernos tendrán que emplear?
Lo tiene, por dos motivos. Primero, cualquier país desarrollado sin una base científica razonable se enfrenta a un inhóspito futuro -este es un mantra habitual, pero cierto-. Los científicos en estos tres países han visto poco dinero nacional disponible para proyectos de investigación y prácticamente ninguna contratación científica. Los mejores científicos han tenido que sobrevivir con financiación internacional, particularmente de la Comisión Europea. Los científicos de Grecia y España son los que más se pueden quejar, ya que medidas de austeridad han reducido su salario, junto con otros funcionarios de sus países. No es difícil imaginar que futuros recortes llevarán a un nivel peligroso de desmotivación. Segundo. Estos tres países están ahora en algún punto del proceso de presentar o activar nuevas leyes que regulen como la investigación se organiza y evalúa, que los llevarán  algún punto dentro de la normalidad de este tipo de normas en Europa. Con todo motivo se deben invertir recursos políticos en asegurar que estas reformas se realizan adecuadamente -y dado que no costarán mucho, hay pocos motivos para no hacerlo-.
Estos países mediterráneos han tendido a ser opacos en sus inversiones en ciencia y contrataciones académicas, y la endogamia habitualmente ha prevalecido frente a la meritocracia. Las nuevas leyes deben ayudar a solucionar esto, primero introduciendo revisión por pares y evaluación. En España y Grecia, las nuevas leyes deben también introducir por primera vez muy necesarias agencias nacionales independientes para distribuir competitivamente lo recursos de la investigación primaria, siguiendo las líneas del Consejo Europeo de Investigación o la Fundación Nacional de Ciencia de EEUU. 
Estas leyes se han discutido durante años -Grecia prometió hace mucho una ley de la ciencia que aún no ha sido aprobada, incluso cuando su ley de universidades se aprobó el pasado Agosto-. En Italia una ley para la investigación se aprobó a finales de 2009 y una ley de universidades un año después. La ley española de la ciencia se aprobó el pasado Junio.
Todas estas leyes difieren en lo relevante y en los detalles, y no son perfectas en ningún caso. En estos tres países, por ejemplo, la mayoría de los académicos son funcionarios con trabajos de por vida, esto molesta principalmente a aquellos que esperaban que las universidades y laboratorios públicos de investigación iban a obtener más flexibilidad. En cualquier caso, si se implementan apropiadamente cada una de estas leyes conseguirán hacer una ciencia de mayor calidad y un mejor aprovechamiento del dinero.
Todo esto importa aún más debido a que un buen número de institutos internacionalmente competitivos, y un más pequeño número de institutos excelentes, han aparecido en estos países, incluso a pesar de la falta de apoyo político. Los líderes de estos institutos han decidido trabajar acorde a la meritocracia; imagínense lo mucho que se podría haber conseguido si esta medida se hubiera adoptado en la política científica en general. 
Las mejoras científicas en el sur de Europa no beneficiarán sólo a estos países individualmente, harán a Europa más competitiva en general. Claro que sin dinero nuevo, el marco legal no será capaz de realizar las maravillas que se esperan de él. Una nueva agencia de financiación no será de mucha ayuda sin dinero. 
Ahora no es el momento de esperar grandes aumentos en la inversión en ciencia, pero pequeños aumentos pueden significar una diferencia desproporcionada. A mitad de camino de la reforma España, Italia y Grecia necesitan ser ayudados. Al igual que una reforma fiscal, esto conlleva una devolución a largo plazo, para estos países y para el continente.






viernes, 25 de noviembre de 2011

¿Es el olfato un sentido cuántico?

Siguiendo con la serie de tres posts hablando sobre biología y física cuántica quiero escribir ahora sobre otro tema muy reciente. Lo escuché por primera vez en Agosto, en un congreso sobre efectos cuánticos en sistemas biológicos. Se trata de como funciona el sentido del olfato y si hay algún efecto cuántico en él. Por supuesto esto es un tema muy reciente y, por lo tanto, controvertido así que tampoco saquemos demasiadas conclusiones. En cualquier caso es un tema interesante y divertido. 

Teoría electrónica del olfato

Obviamente la cuestión de como distinguimos olores no es algo que nadie se haya preguntado hasta ahora. De hecho la estructura del sistema olfativo es bien conocida desde hace mucho. Para comprender a grandes rasgos como funciona el sistema olfativo podemos recurrir a la Wikipedia.


Los receptores químicos del olfato son:
  • La glándula pituitaria roja: Se ubica en la parte inferior de la fosa nasal y está recubierto por numerosos vasos sanguíneos que calientan el aire.
  1. Células de sostén
  2. Células olfatorias
  3. Células basales
Las células olfatorias son células nerviosas receptoras de estímulos químicos provocados por los vapores. En la pituitaria amarilla se encuentran las glándulas mucosas de Bowman, que libera un líquido que mantiene húmedo y limpio el epitelio olfatorio.
Para estimular éstas es necesario que las sustancias sean volátiles, es decir, han de desprender vapores que puedan penetrar en las fosas nasales, y que sean solubles en agua para que se disuelvan en el moco y lleguen a las células olfatorias. Éstas transmiten un impulso nervioso al bulbo olfatorio y de este a los centros olfatorios de la corteza cerebral, que es donde se aprecia e interpreta la sensación de olor. Se cree que existen 7 tipos de células olfatorias, cada una de las cuales sólo es capaz de detectar un tipo de moléculas, éstas son:
  • Alcanforado: olor a naftalina.
  • Almizclado: olor a almizcle.
  • Floral.
  • Mentolado.
  • Etéreo: olor a fluidos de limpieza en seco.
  • Picante.
  • Pútrido.
Wikipedia: El número 6 son los receptores olfativos.


O sea, que las moléculas volátiles se disuelven en el moco y estimulan los centros olfativos.  Hasta aquí todo genial. La pregunta que ahora nos hacemos es ¿Cómo estimulan las moléculas un centro olfativo u otro?

La teoría clásica de estimulación se basa en la corteza electrónica de las moléculas. Como sabemos las moléculas están formadas por átomos que a su vez tienen un buen número de electrones. De como se distribuyan los electrones en la molécula dependen sus propiedades químicas, y son estas las que determinan si tiene un olor u otro. A veces se ilustra diciendo que los electrones de las moléculas, según se distribuyan, constituyen una llave y que cada llave abre la puerta a distintos receptores, estimulando así el olfato.

Entonces está todo claro, la capa electrónica de las moléculas determina que receptores se estimulan y eso da lugar a la sensación del olfato. Caso cerrado. ¿O no? Pues no del todo. Resulta que hay otra teoría que compite con esta y es la que voy a explicar a continuación.


Teoría vibracional del olfato. 


En los últimos años otra teoría sobre el olfato ha empezado a tener bastante éxito. La propuso Luca Turin en 1996 y fue publicada en la revista Chemical Senses (después de que fuera rechazado por Nature).  Esta teoría se basa en lo siguiente, primero la molécula debe encajar en el receptor, al igual que en la teoría anterior. Sin embargo esta "compatibilidad electrónica" no es suficiente para excitar el mecanismo. Además es necesario que haya una transferencia de electrones entre la molécula en cuestión y el receptor. Esta transferencia se da por efecto túnel.

Por si alguien no lo sabe el efecto túnel es un efecto cuántico que permite a las partículas atravesar potenciales que les están prohibidos de manera clásica. Como si las partículas pudieran escalar una montaña sin tener energía suficiente para ello.


Wikipedia: Reflexión y "tunelado" de un electrón dirigido hacia una barrera de potencial. El punto resplandeciente moviéndose de derecha a izquierda es la sección reflejada del paquete de onda. Un vislumbre puede observarse a la derecha de la barrera. Esta pequeña fracción del paquete de onda atraviesa el túnel de una forma imposible para los sistemas clásicos. También es notable la interferencia de los contornos entre las ondas de emisión y de reflexión.

¿Entonces de qué dependerá que una molécula tenga un olor u otro? Pues según esta teoría básicamente de dos factores: Primero, de su estructura electrónica, como en la teoría anterior. Y Segundo de los núcleos que compongan la molécula. Esto último es importante porque los núcleos de las moléculas vibran y esto facilita que se de el efecto túnel si la frecuencia de oscilación de la molécula y del receptor son parecidas.

Entonces ahora la pregunta es muy sencilla ¿cómo sabemos qué teoría es correcta? Pues para eso sólo hay una solución y es la misma de siempre: experimentación.


Experimentos sobre la teoría vibracional del olfato

Ahora hay que pasar a la última parte del método científico, experimentar y experimentar. Primero de todo (obviamente) hay que diseñar un experimento. ¿Cómo podemos distinguir entre una teoría que dice que el olfato depende sólo de la estructura electrónica de las moléculas y otra que dice que además cuenta la estructura nuclear? Pues hay una manera "sencilla", hay que oler moléculas que tengan igual los electrones y diferente los núcleos y ver si hay o no diferencia. Para eso necesitamos recurrir a nuestros amigos los isótopos.



Los isótopos, como ya sabemos son átomos que tienen el mismo número de electrones y protones, pero no de neutrones. Esto hace que sean idénticos entre ellos en cuanto a la capa electrónica (y la química) pero muy diferentes desde el punto de vista nuclear. Un ejemplo muy claro son los átomos radiactivos, cuyas propiedades dependen fuertemente de su número de neutrones. 


Isótopos del hidrógeno


Entonces el diseño del experimento empieza a estar claro. Podemos coger un tipo de molécula, cambiarle algún átomo de hidrógeno por uno de deuterio o tritio (ver figura anterior) y ver la diferencia. Esto es lo que hizo un grupo de Nueva York y lo publicaron en la revista Nature Neuroscience. El experimento consistió en hacer oler a personas compuestos orgánicos en los que se sustituyó el hidrógeno por deuterio y ver si notaban la diferencia. El resultado fue tajante: No hay ninguna diferencia. Esto hizo que la revista Nature publicara una editorial muy dura en contra de la teoría vibracional. 

Entonces eso es todo ¿no? Ha habido un experimento, este es negativo pues no se hable más. Afortunadamente no. El padre de la teoría Turin, contactó a gente del MIT y del Centro de investigación Biomédica Alexander Fleming e hicieron otro experimento. Su argumento era que los experimentos con humanos son muy complejos, ya que tienen un gran margen de subjetividad, y que era mejor hacerlo con animales. En concreto su experimento se hizo con moscas de la fruta (Drosophila melanogaster, para los amigos).

Los resultados se encuentran en un artículo de Proceedings of National Academy of Sciences. Básicamente entrenaron, mediante descargas eléctricas, a moscas para que distinguieran los olores de compuestos con hidrógeno y deuterio. Después cuando las moscas se veían expuestas a ambos olores recordaban cual era el "bueno" y lo escogían mayoritariamente. Al igual que el otro experimento las conclusiones son bastante tajantes pero en este caso a favor de la teoría vibracional. 


Conclusión

¿Entonces qué podemos concluir si hay dos experimentos y son contradictorios? Pues sólo una cosa: hacen falta más experimentos. 

Como bien es sabido la experimentación es la piedra angular de la ciencia, sin embargo eso no quiere decir que todos los experimentos sean correctos. Puede haber algún error sistemático, o la muestra es demasiado pequeña, o hay factores psicológicos (como en el experimento de Nature). También existe la posibilidad de que la teoría vibracional sea correcta para moscas pero no para humanos, aunque parece improbable. En cualquier caso la solución pasa por hacer otros experimentos, en otros grupos y con otros dispositivos. Al final la realidad se abrirá paso ella sola. 





Licencia de Creative Commons
Esta obra es de Daniel Manzano Diosdado y tiene una licencia Creative Commons Reconocimiento-CompartirIgual 3.0 Unported License.


El entrelazamiento cuántico y la orientación de los pájaros

Un tema de rabiosa actualidad en el mundillo de la física cuántica es la existencia de fenómenos propios de de esta en los seres vivos. Por un lado es evidente que la cuántica afecta a los seres vivos en tanto que estamos formados por átomos, que a su vez forman moléculas y el comportamiento de estas está determinado por esta teoría. Sin embargo de lo que vamos a hablar aquí es de otro tema, se trata de fenómenos propios del mundo de la física cuántica, como la coherencia, el entrelazamiento o el efecto túnel, que aparentemente juegan un importante papel en ciertos procesos biológicos. 

En tres post diferentes voy a describir los tres procesos principales que se estudian actualmente sobre el tema. La brújula de los pájaros, la fotosíntesis y el sentido del olfato. Este post trata sobre el primero de todos.  

La brújula aviar y el entanglement 

Una pregunta que ha habido desde hace mucho tiempo es como funciona la brújula de los pájaros. De hecho se conocen más de 50 especies que pueden detectar el norte de manera innata, entre ellos hay aves, mamíferos, reptiles, peces, anfibios e insectos. El caso de los pájaros es el más estudiado y aún así no podemos decir que el efecto esté totalmente comprendido. El principal problema para comprenderlo es que el campo magnético terrestre es muy pequeño, de unos 50 microteslas, y no es fácil fabricar una brújula en miniatura para detectarlo. Tampoco en la mayoría de las reacciones químicas se suele detectar su efecto, aunque como veremos ahora hay algunas que pueden.

Un momento revolucionario al respecto fue la publicación de dos artículos, basados en experimentos dirigidos por el profesor P.J. Hore, uno de ellos  en la revista Nature titulado Chemical compass model of avían magnetoreception y el segundo en la revista Procceding of National Academy of Sciences titulado Chemical magnetoreception in birds: The radical pair mechanism. Estos dos artículos proponen y estudian un procedimiento llamado radical pair mecanism (RPM a partir de ahora) que se puede dar en la retina de un pájaro específico el petirrojo europeo. Según estos investigadores este proceso depende del campo magnético terrestre y permite a los pájaros "ver" el norte. Como dato curioso mencionar que el hecho de que la brújula de estos pájaros se encuentran en sus ojos se probó haciendo experimentos en los cuales se les cerraba uno de los ojos, en ese caso podían volar pero perdían totalmente el sentido de la orientación por lo que se ve que la brújula se encuentra en ambos ojos (referencia). 

El petirrojo europeo protagonista de toda esta historia. Vía Wikipedia.
¿En qué consiste este mecanismo entonces? Básicamente se basa en lo siguiente. Como sabemos los electrones tienen una cualidad llamada espín, que es un campo magnético intrínseco a la partícula. Con "campo magnético" queremos decir que los electrones son como pequeñas brújulas y con "intrínseco" queremos decir que no tiene origen en ningún otro aspecto de la partícula en sí. Como curiosidad mencionar que el término espín, viene del inglés spin que significa "giro" porque sus descubridores pensaban que lo producía el electrón al girar, aunque ahora sabemos que no es así. Una propiedad importante del espín es que si lo mides sólo encontrarás dos valores, $\uparrow$ o $\downarrow$ o como los quieras llamar, pero sólo dos. Eso se puede demostrar fácilmente con el experimento de Stern-Gerlach


Esquema del experimento de Stern-Gerlach, que dio pie al descubrimiento del espín. Vía Wikipedia. 


Lo que ocurre ahora es que nosotros no estamos formados por electrones libres, sino por átomos. ¿Qué pinta entonces el espín? La cuestión es que muchas reacciones químicas se dan cuando se encuentran un átomo o molécula al que le sobra un electrón con un átomo o molécula al que le falta uno, entonces el espín será el del electrón que sobra o del que falta (también hay que tener en cuenta el efecto de los electrones al moverse, pero eso no lo tendremos en cuenta por no liar). 

¿Podemos responder ya a la pregunta "qué es un RPM"? Pues es sencillo, como ya he dicho los espines sólo tienen dos posibilidades, $\uparrow$ o $\downarrow$, así que si dos espines se encuentran tenemos cuatro posibilidades: $\uparrow\uparrow$, $\uparrow\downarrow$, $\downarrow\uparrow$ y $\downarrow\downarrow$. Lo bueno es que la física cuántica es muy rara y transforma estas cuatro obvias posibilidades en otras cuatro, menos obvias: mantenemos $\uparrow\uparrow$, $\downarrow\downarrow$, pero debido al Principio de exclusión de Pauli las otras dos están prohibidas. En su lugar aparecen dos nuevas $\frac{\uparrow\downarrow+\downarrow\uparrow}{\sqrt{2}}$ y $\frac{\uparrow\downarrow-\downarrow\uparrow}{\sqrt{2}}$, que vienen a indicar que cada espín está en dos estados al mismo tiempo y conectados (que es lo que llamamos coherencia y entrelazamiento, como bien sabéis). 

La cuestión que nos interesa ahora es que estos cuatro estados se pueden agrupar de dos maneras, como singletes ($\uparrow\uparrow$,  $\downarrow\downarrow$ y $\frac{\uparrow\downarrow+\downarrow\uparrow}{\sqrt{2}}$) y como triplete ($\frac{\uparrow\downarrow-\downarrow\uparrow}{\sqrt{2}}$). Cada uno de estos grupos tiene un espín total diferente (cero el triple, uno el singlete). "¿Qué nos importa todo esto?", os preguntaréis. Pues porque cuando dos electrones se encuentran en un estado u otro pueden dar lugar a reacciones químicas diferentes y midiendo el resultado se puede saber si estaban en un estado u otro. "¿Y qué demonios tiene que ver esto con la brújula aviar?", os volveréis a preguntar. Pues la cuestión es que como he dicho los espines son campos magnéticos, por lo tanto se ven afectados por un campo magnético como el de la tierra.  

En resumen en la retina de los pájaros se da una reacción química, que se basa en el siguiente mecanismo: Un fotón (la luz) excita una molécula de la retina y esta pierde un electrón (la llamaremos donante), este electrón se lo queda otra molécula (a esta la llamaremos receptora, originalidad ante todo) y ambos tiene espín. Entonces la moléculas se separan, viven su vida y cuanto se vuelven a encontrar deciden unirse y hacer una reacción química. El resultado de esta reacción química depende del espín de las moléculas y del campo magnético externo, por lo que midiendo el resultado podemos saber si estamos volando hacia el norte o no. 

Resumen de la reacción que se da en la retina de las aves. * significa excitado, + con un electrón más, - con un electrón menos, S significa singlete, T triplete, A es la donante y B la receptora. Fuente.

Esta reacción se refleja como ya hemos dicho antes en una sensación visual para el pájaro, de modo que puede "ver" el norte. 

Recreación de la vista de un petirrojo. Fuente.

Otra cosa que os podréis preguntar es: ¿es esto un efecto puramente cuántico? Evidentemente el espín es un fenómeno cuántico, pero todo esto es química al fin y al cabo y ya sabemos que la química está por todas partes. La cuestión que hace esto interesante desde el punto de vista cuántico es ¿qué ocurre cuando las moléculas están separadas? ¿Se mantiene el entrelazamiento entre ellas? Al respecto hay un muy reciente artículo del grupo de Hans Briegel, titulado Quantum Control and Entanglement in a Chemical Compass donde se demuestra que a mayor entrelazamiento en el sistema, mayor sensibilidad. Esto indica que el entrelazamiento juega un importante rol en la brújula aviar y abre la puerta a la invención de dispositivos tan precisos como este. 

Y eso es todo por ahora, espero que haya quedado algo claro y si no para eso están los comentarios. Os dejo con un chiste que sólo entenderá gente muy especializada. 

Fuente

  Y un trozo de una película que explica lo que (no) pasaría si los pájaros dejaran de sentir el campo magnético. Eso sí, para echarse unas risas a su costa la peli es el no va más (de mala). 






Licencia de Creative Commons
Esta obra es de Daniel Manzano Diosdado y tiene una licencia Creative Commons Reconocimiento-CompartirIgual 3.0 Unported License.






martes, 1 de noviembre de 2011

El problema del software libre

Hoy he visto en menéame la n-sima portada sobre las opiniones de Richard Stallman sobre Apple el software libre y demás. No entiendo muy bien como salen a una portada semanal con la misma información, pero lo bueno es que las opiniones de este hombre siempre dan lugar a debate. He escrito un comentario que ha sido muy bien acogido, pero nadie me ha contestado. Así pues he decidido escribir aquí mi postura al respecto, como defensor del software libre que me considero, para ver si originamos un constructivo debate, o al menos un debate. 

Antes que nada mi presentación en este sentido: Yo soy físico, como ya sabréis algunos, investigador en el campo de la física cuántica. Descubrí Linux en la universidad y casi inmediatamente decidí dejar de usar Windows, que me parecía una porquería. Hace unos 8 años que uso exclusivamente Linux como sistema operativo tanto profesional como personal. En mi trabajo programo mucho en C, uso aplicaciones ofimáticas, programas de matemáticas como Mathematica y Matlab, editores de texto científicos como LaTex y demás cosas de uso cotidiano. Como usuario soy algo friki pero no llego al nivel de algunos de mis amigos, sin embargo uso la mayoría de las cosas usuales, veo películas, escucho música, uso p2p, mensajería, etc. Tengo 2 ordenadores, un portátil y un netbook sin contar el del trabajo, un Samsumg mini con Android y un Kindle. En general no me considero un analfabeto digital ni tampoco un usuario de nivel experto.

La cuestión es que hace un mes en mi instituto en Austria decidimos que había que actualizarme mi ordenador y, después de hablar con varios de mis compañeros he decidido que sea un Macpro   Macbook pro. Básicamente aquí quiero comentar como he decidido que mi instituto compre un ordenador de una de las empresas más cerradas en cuestión de software a pesar de ser usuario de software libre. Así que una vez echas las presentaciones vamos a ello. 

Lo primero es especificar la utilidad del ordenador. Aunque lo usaré también como ordenador personal no es esa la función del mismo, es un ordenador para desarrollar mi trabajo. Llevo haciendo ese trabajo en Linux ya 5 años con buenos resultados, por lo que está claro que no es imprescindible cambiar, ¿qué ocurre entonces? Lo que ocurre es una cuestión de funcionalidad y tiempo. En el mac prácticamente todo vale dinero y va como la seda, en el linux hay muchas cosas gratis (no todas, Mathematica por ejemplo vale lo mismo) y hay que dedicarle bastante tiempo a que todo quede como tú lo necesitas. Por ejemplo al configurar el uso de LaTex en Inkscape me costó la vida hacerla, el Mathematica de vez en cuando se me cerraba sin previo aviso y sin guardar la información y así bastantes cosas más. En definitiva al final el trabajo se hacía y en su mayoría con la misma calidad que pueda hacerla con el mac, el problema es el tiempo que le debía dedicar. Es cierto que las licencias de software no son nada baratas, pero mi salario tampoco lo es y si tengo que dedicar horas y horas al mantenimiento de mi sistema operativo (SO en adelante) estamos malgastando mucho dinero público. Sinceramente pienso que lo más sensato por mi parte es usar la herramienta que mejor me permita hacer mi trabajo y hoy por hoy considero que es un mac con MacOS.  No se nos olvide que el tiempo también es dinero y tanto en lo profesional como en lo personal mucha gente prefiere pagar por ahorrar tiempo de trabajo. Habrá también quien alegue que todos esos problemas que menciono y los demás que tuve no los solucioné en un segundo porque soy un inútil y no porque sean  difíciles de solucionar, en cualquier caso me estarán dando la razón, con mis capacidades limitadas tengo que optar por la opción que sea más ventajosa. En cualquier caso considero que intentar extender el software libre a base de decir que el que no lo usa es un paleto, que es de lo más común como se puede ver en cualquier noticia al respecto en menéame, es una estrategia poco afortunada. 

Con esto por supuesto no estoy diciendo que siempre haya que comprarle mac a todos los trabajadores y demás. En esta supuesta guerra software libre VS software privativo se lleva mucho el "o estás conmigo o contra mi", que traducido es "o usas siempre software libre o eres un vendido a Apple y Microsoft". Yo pienso que en los colegios, institutos y universidades debe priorizarse el uso de software libre siempre que sea posible. A los estudiantes hay que enseñarles a usar un SO en cualquier caso, así que mejor que sea uno libre y que no le cueste un dineral al estado en forma de licencias. Otra cosa es que también se les enseñe un software privativo si se considera que lo van a necesitar en el futuro, como en la universidad me enseñaron a usa Mathematica. Otro ejemplo es cuando se usan ordenadores para una cuestión administrativa pública, como gestionar una base de datos, y tienen Windows. Esto es una manera horrible de tirar el dinero a la basura. Cambiándolo todo a Linux, con lo que nos ahorramos en licencias se podría crear una empresa pública que hiciera el software y lo dejara todo igual de funcional de modo que no se perdiera nada de productividad. Cada caso es diferente y depende del uso concreto del software y del número de ordenadores, claro está.

Otra cuestión es la de la coexistencia de software libre y el software privativo. Yo con mi mac puedo instalar Inkscape, Libreoffice y mucho más software libre. Con Macports puedo instalar casi todo lo que tengo en Ubuntu. Esto obviamente me abre muchas posibilidades y esto es lo que yo creo que es el futuro. Como ya he dicho antes lo del software libre y el software privativo es una guerra en la que tienes que escoger bando y no tiene por que ser así. Esperar que todo el software sea libre algún día es excesivamente utópico e improductivo en mi opinión. Hay muchas y muy buenas empresas que prefirirán echar el cerrojo antes que hacer software libre, y si se les obliga a ello estaremos cerrando la puerta a muchos y muy buenos productos. En el mundo de los videojuegos, por ejemplo, hay muy poco software libre (y ahora me lloverán ejemplos de videojuegos libres, pero todos sabemos que no tienen la misma calidad) y tampoco creo que si algún quiere gastarse su dinero en un megacerrado videojuego pues que haga lo que quiera. También se que los principales oponentes a esta coexistencia no son los desarrolladores de software libre, sino Apple y Microsoft que intentan hacer sus sistemas lo más cerrado que pueden. La cuestión es que si conseguimos que una masa crítica use programas libres estas empresas verán que oponerse les reporta más pérdidas que beneficios. 

A modo de conclusión sólo decir que si queremos que cada vez haya más software libre y menos DRM y restricciones semejantes tenemos que cambiar un poco el punto de vista. En general si vais a explicarle a alguien la ventaja de tener Linux en vez de Windows o MacOS la estrategia de primero decirle que no sabe usarlo porque es tonto y luego soltarle un sermón porque tiene un Iphone no es una buena estrategia. 


Edición: Tanto en menéame como en los comentarios se me ha comentado que el título no casa con el artículo en si, tras releerlo he visto que realmente no me he expresado muy bien. El problema del software libre que menciono se resume en lo siguiente: considerar que usar software libre es "bueno" y software privativo "malo" e intentar que la gente use exclusivamente el primero. La gente debe ser libre de usar el software que considere oportuno y si alguien por motivos personales o profesionales decide pagar por ahorrarse algo de tiempo, por comodidad o lo que sea, pues muy bien. El futuro del software libre es la coexistencia con el software privativo, no la derrota de este. Aparte un problema no del software libre en si, pero sí de muchos defensores de este es considerar que la gente tiene la obligación de instalar en sus ordenadores lo que a ellos les de la gana. Si usas Windows en vez de Linux, es que eres un idiota o un vendido al capital y blahblahblah. Tratemos a la gente como personas adultas y capaces que saben que es lo que más les interesa en cada momento, enseñémosle que hay otras opciones, y si después de verlas y sopesarlas deciden seguir con lo que tienen pues muy bien, ni los tratemos de idiotas ni los juzguemos.


Esta obra es de Daniel Manzano Diosdado y tiene una licencia Creative Commons Reconocimiento-CompartirIgual 3.0 Unported License.

lunes, 26 de septiembre de 2011

La Ciencia y Dios

Desde hace ya mucho tiempo no tengo ningún tipo de creencia religiosa. Pasé del cristianismo en la niñez al agnosticismo en la adolescencia y el ateísmo en la postadolescencia, al mismo tiempo que mi interés por la ciencia fue incrementando. Mucha gente me ha preguntado si hay alguna relación en mi caso sobre mi ateísmo y mi condición de científico y alguna hasta ha escuchado la respuesta. En cualquier caso sí que la hay y he decidido escribir un artículo al respecto. Como es un artículo largo lo he colgado también en mi web y os lo podéis bajar en distintos formatos.


La Ciencia y Dios
Daniel Manzano Diosdado
Instituto Carlos I de Física Teórica y Computacional, Universidad de Granada y
Institut für Teoretische Physik, Universitat Innsbruck.

Introducción.

El concepto de Dios y de la vida después de la muerte ha acompañado al ser humano durante milenios. Estas ideas han evolucionado durante la historia, comenzando con las religiones multiteístas y derivando en las religiones monoteístas, que son las más extendidas en el mundo occidental (cristianismo, islamismo y judaísmo). Por otro lado en las últimas décadas ha habido un crecimiento importante del ateísmo como opción religiosa (o como opción frente a la religión) [1]. Esto en parte puede deberse a la extensión del conocimiento científico al público general gracias a medios tales como la televisión o internet.

La primera cuestión a preguntarse al respecto es si realmente hay algún tipo de correlación entre el ateísmo y la ciencia. En 2007 un estudio sobre religión [2], reveló que el 37.6% de los científicos naturales de EEUU (incluyendo como tales a físicos, químicos y biólogos) definen sus creencias como “no creo en Dios” y un 29.4% las definieron como “no se si hay un Dios y no creo que haya manera de saberlo”. Este dato contrasta mucho con una sociedad, la norteamericana, donde sólo un 14% de la población no cree en Dios. Es evidente que sí hay correlación entre ateísmo-agnosticismo y ciencia.

Desde un punto de vista histórico también es evidente que la ciencia puede afectar al pensamiento religioso. Dos ejemplos son las revoluciones de Galileo y Darwin sobre el modelo Copernicano y la evolución de las especies mediante la selección natural. Estas dos revoluciones científicas contradijeron la doctrina religiosa oficial de su momento y lugar y forzaron un cambio en la misma. Actualmente la mayoría de los creyentes del mundo occidental no consideran que haya enfrentamiento entre estos hechos científicos y la idea de Dios. No es descartable que nuevos descubrimientos futuros vuelvan a modificar la doctrina religiosa, aunque es muy improbable que haya en el futuro próximo un descubrimiento que afecte directamente a la idea de Dios en si.

Un hecho sobre el debate ciencia-Dios es la falta de resultados empíricos. Aunque históricamente ha habido muchos hechos paranormales que se han asociado a distintas deidades (también llamados milagros), estos son siempre no concluyentes. Es sabido que estos hechos ocurrían con más frecuencia en el pasado, cuando no había manera de documentarlos, que en la actualidad. Muchos milagros han sido descartados por el conocimiento científico, como el de la Sábana Santa que es de construcción medieval y no pudo ser por lo tanto el sudario de Jesucristo [3]. Creo que es obvio que el concepto de Dios no puede ser considerado un hecho, sino en todo caso una teoría con la que explicar hechos tales como la existencia del universo.

Dios como teoría científica. Falsabilidad.

En el campo de la filosofía de la ciencia ha habido una intensa investigación para determinar cuando una teoría puede ser considerada científica. Aunque sigue siendo un campo abierto en la actualidad el criterio más usado en la actualidad sigue siendo el falsacionismo de Karl Popper [4]. Este criterio se esta usando en la actualidad, por ejemplo, en el debate sobre si la teoría de cuerdas debe ser considerada o no una teoría científica [5].

El falsacionismo se basa en la idea de que es imposible verificar la veracidad de una teoría científica, pero sí es posible refutarla. Así una teoría debe hacer predicciones claras que puedan ser comprobadas experimentalmente y así refutarla en caso de ser incorrecta. Mientras los hechos experimentales estén en acuerdo con las predicciones de la teoría esta se debe considerar provisionalmente correcta. Un solo hecho experimental que contradiga la teoría llevaría a la revisión de esta misma.

Es evidente que por el método falsacionista la idea de Dios nunca podrá ser considerada científicamente válida. Es evidente que partiendo de la hipótesis de que hay un ser superior y omnipotente no se puede concluir ningún efecto, pues todo estará a merced de la voluntad de este. Cualquier hecho empírico se podrá ajustar a esta teoría, como se hizo ya con el copernicanismo o el darwinismo y esta idea es de por si no falsable. Esto hace que la idea de Dios en si no pueda ser considerada científica.

Ateismo y agnosticismo, la Tetera de Russel.

Un argumento muy usado en la actualidad sobre el ateísmo y la ciencia es el siguiente: “Ya que no está probada la existencia de Dios, pero tampoco la no existencia, la postura científicamente correcta es el agnosticismo. Hay que mantenerse sin sacar conclusiones hasta que haya más argumentos en un sentido u otro.”

Este argumento ya fue fuertemente rebatido por Bertrand Russel en su famoso artículo “¿Hay un Dios?” [6]. su argumento se resume en el siguiente párrafo del artículo: “Si yo sugiriera que entre la Tierra y Marte hay una tetera de porcelana que gira alrededor del Sol en una órbita elíptica, nadie podría refutar mi aseveración, siempre que me cuidara de añadir que la tetera es demasiado pequeña como para ser vista aún por los telescopios más potentes. Pero si yo dijera que, puesto que mi aseveración no puede ser refutada, dudar de ella es de una presuntuosidad intolerable por parte de la razón humana, se pensaría con toda razón que estoy diciendo tonterías. Sin embargo, si la existencia de tal tetera se afirmara en libros antiguos, si se enseñara cada domingo como verdad sagrada, si se instalara en la mente de los niños en la escuela, la vacilación para creer en su existencia sería un signo de excentricidad, y quien dudara merecería la atención de un psiquiatra en un tiempo iluminado, o la del inquisidor en tiempos anteriores.”

A modo de sátira recientemente se han creado otros seres o dioses cuya existencia no puede ser refutada, como el Monstruo Volador Espagueti o el Unicornio Rosa Invisible [7], en los cuales nadie cree. Es evidente que la imposibilidad de probar la no existencia de algo no es motivo para la mayoría de la gente para mantenerse en el escepticismo, no es lógico hacer una excepción con el concepto de Dios en si.

La prepotencia del ateísmo.

También es usado en contra del ateísmo el argumento de la mayoría: “Ya que la inmensa mayoría de la población humana cree en algún tipo de Dios los ateos son prepotentes por creer que todos los demás están equivocados”.

Este argumento es muy fácilmente refutable, ya que es de sobra conocido que la verdad no es democrática. Si algo es cierto o no no es algo que sea decidido por la mayoría, sino por la realidad en si. A lo largo de la historia hay infinidad de ejemplos de creencias mayoritarias que fueron posteriormente refutadas. Durante mucho tiempo la mayoría de la población creía que la tierra era plana y no esférica y eso no hacía este hecho cierto. No es razonable considerar a gente como Eratóstenes o Galileo prepotentes por pensar en contra de la opinión de la mayoría, en todo caso fueron visionarios.

Vida después de la muerte.

Un ingrediente común a casi todas las religiones teístas es la creencia en una vida posterior a la muerte física. Esto se basa en la idea de separación de la conciencia del cuerpo físico que se produce después de la muerte. Esta idea es muy difícil de sostener debido a los últimos avances de la neurociencia que claramente indican que la conciencia se encuentra en el cerebro. Es bien sabido que modificaciones de la estructura física del cerebro llevan a modificaciones en la conducta de las personas, por lo que es evidente relaciona la conciencia con el cerebro.

La cuestión de una conciencia sin cerebro o ajena al este es difícilmente sostenible. Si la conciencia no es el cerebro en si habrá que cuestionarse porqué se ve afectada por este, y si es el cerebro es difícil creer que pueda seguir existiendo tras la desaparición de este. Más sencilla es la explicación de que la consciencia es un producto del cerebro y desaparece cuando desaparece este.

Referencias.
[2] E.H. Ecklun y C.P. Scheitle. Religion among Academic Scientists: Distinctions, Disciplines, and Demographics. Social Problems 54, 289 (2007).
[3] Damon, P. E.; D. J. Donahue, B. H. Gore, A. L. Hatheway, A. J. T. Jull, T. W. Linick, P. J. Sercel, L. J. Toolin, C. R. Bronk, E. T. Hall, R. E. M. Hedges, R. Housley, I. A. Law, C. Perry, G. Bonani, S. Trumbore, W. Woelfli, J. C. Ambers, S. G. E. Bowman, M. N. Leese, M. S. Tite. Radiocarbon dating of the Shroud of Turin, Nature 337, 611 (1989).
[4] Logik der Forschung. Karl Popper. (1934).
[5] The Touble with Physics. Lee Smolin (2007).
[6] Is there a God? Bertrand Russell, (1952).


Licencia de Creative Commons
Esta obra es de Daniel Manzano Diosdado y tiene una licencia Creative Commons Reconocimiento-CompartirIgual 3.0 Unported License.

El mayor genio de la historia

Una vez concluida la encuesta del blog podemos ver que Isaac Newton es considerado por mis lectores como el mayor físico de toda la historia, seguido de cerca por Albert Einstein. En mi opinión es una decisión acertada, ya que aunque Einstein fue un gran físico no llega al nivel del genio de los genios. De hecho en mi opinión Newton no es sólo el físico, sino también el científico en general más importante de la historia. Dejo la explicación de manos del gran Isaac Asimov:

A veces me preguntan cuál fue el científico más importante de la historia. Si me preguntan cuál fue el segundo más importante, me veo en problemas, porque tengo que decidir entre Albert Einstein, que desarrolló la Teoría de la Relatividad, Watson y Crick, que comprendieron la estructura del ADN, Darwin, que descubrió la evolución… Pero cuando me preguntan por el más importante, la respuesta es muy simple: Isaac Newton. Newton descubrió la gravedad, inventando de un plumazo la mecánica celeste y explicando los causas aún desconocidas de muchos fenómenos de la astronomía y la física. Newton inventó el cálculo integral, creando así las matemáticas avanzadas. Newton creó y perfeccionó el cálculo infinitesimal. Newton descubrió la propagación de las ondas, dando origen a la acústica. Newton fundó la óptica, descubriendo la descomposición de la luz. Newton inventó el telescopio reflector. Newton inventó el sextante. Newton es el fundador de la ciencia moderna. Sin él, el mundo que conocemos no hubiese existido nunca.

viernes, 29 de julio de 2011

Los grandes problemas de la física experimental actual

Como ya expliqué anteriormente los problemas que considero se encuentran en la vanguardia de la física teórica creo que es justo que haga lo mismo para nuestros compañeros los experimentales. Así que aquí está la lista de los problemas más interesante, en mi opinión, de la física del momento.


Ondas gravitacionales

Como ya hemos hablado en post anteriores la Relatividad General es una de las teorías más satisfactorias de la actualidad. Con ella se explican infinidad de sucesos experimentales, como la órbita de Mercurio, la dilatación temporal debido a la gravedad o las lentes gravitacionales. Sin embargo hay un fenómeno que la teoría  predice y que aún no ha sido observado, las Ondas Gravitacionales.

Según la teoría estas ondas se originarían cada vez que un cuerpo con masa se acelera y serán más grandes cuanto mayor sean la masa y la aceleración. Por supuesto los principales candidatos a generarlas serán estrellas u otros cuerpos en órbita. Igualmente se espera que la formación de un agujero negro origine unas ondas gravitacionales considerables. 

Ondas gravitacionales originadas por dos cuerpos masivos en órbita. Fuente: Muy Interesante.

Hay considerables esfuerzos ya en marcha para detectar este fenómenos. El más importante es, probablemente, el experimento LIGO en EEUU. Hay también proyectos en Europa (Geo600) y Asia (el TAMA300). 

Básicamente la detección de este fenómeno, de darse, vendrá dada por el siguiente hecho: las ondas gravitacionales varían el tamaño de los objetos cuando pasan a través de ellos. Para detectar esto se construyen enormes interferómetros con dos brazos perpendiculares y se intenta observar esa diferencia. Como estas ondas se origina muy lejos de la Tierra este efecto es muy pequeño (del orden de $10^{-18}$ metros, mucho menos que el tamaño de un átomo de hidrógeno) y es muy difícil de detectar.

Esquema para la detección de ondas gravitacionales. Fuente

Hasta la fecha todas las medidas directas han fallado, pero hay medidas indirectas que parece indicar la existencia de este fenómeno, como el cambio en la órbita de quásares que orbitan de manera muy rápida. En cualquier caso seguimos esperando la medición correcta.


Computación cuántica


Este es mi punto favorito, ya que es el que más tiene que ver con mi trabajo. Como ya expliqué en un post anterior los ordenadores cuánticos nos permitirían hacer cosas que hoy en día ni siquiera imaginamos, el problema es como construir ordenadores cuánticos. 

La principal dificultad viene del hecho de que las propiedades de los sistemas cuánticos, como la coherencia o el entanglement, son muy frágiles y desaparecen debido a la interacción del sistema con el entorno. Esto hace que no vivan lo suficiente como para poder hacer cálculos con ellas. 

Por ahora hay diferentes caminos que se toman para conseguir este propósito. Uno de los principales es el iniciado por el español Ignacio Cirac, junto con Peter Zoller, que consiste en manipular átomos individuales mediante láseres (para interesados este es el artículo que lo inició todo). Esta técnica consiste principalmente en crear un casi-vacío en una caja y atrapar unos pocos átomos mediante láseres, esto se denomina técnicamente optical lattice, luego a esos átomos mediante la aplicación de otros láseres se les cambia el estado para conseguir lo que uno quiera. 


Una optical lattice según la Wikipedia.

Otras aproximaciones que se hacen a este problemas es mediante el estado cuántico de los fotones, las partículas de la luz. En este campo es Anton Zeilinger uno de los principales investigadores. Básicamente en este caso hay que producir fotones de uno en uno y luego combinarlos y cambiarlos mediante diferentes combinaciones de cristales y espejos, finalmente hay que usar detectores que funcionen con un sólo fotón. Esto como es imaginable no es una labor sencilla. 

Tanto átomos como fotones tienen sus pros y sus contras, los primeros tienen una vida más larga y los segundos son más rápidos a la hora de transportarlos. Sin embargo el como conseguir un ordenador cuántico sigue abierto.

También hay otras posibilidades abiertas, como mediante resonancia magnética nuclear, puntos cuánticos  o superconductores. Cual será la tecnología final aún no lo sabemos. 


Bosón de Higgs y dimensiones extra

Estos dos asuntos son muy diferentes pero están también muy relacionados. El bosón de Higgs es la última pieza que falta por encontrar del rompecabezas del Modelo Estándar de la Física de Partículas. Este modelo está muy bien ensamblado y explica todas las partículas existentes pero aún no resuelve el problema de por qué tiene masa. Para esto se añadió una partícula más que es la que le da la masa a todas las demás. 

Ilustración del funcionamiento del bosón de Higgs. Esta partícula (aquí representada por un científico importante), aglutina toda la masa alrededor suya. Autor: David Miller. 
El segundo problema que menciono es el de las dimensiones extra. Como ya expliqué brevemente en el post sobre la teoría de cuerdas, muchas nuevas teorías unificadoras añaden más dimensiones al espacio de las que conocemos. Todo esto será puramente especulativo a menos que se descubran efectos de estas dimensiones o se observen directamente. Podéis preguntaros cual es la relación entre estos dos fenómenos, el bosón de Higgs y las dimensiones extra, pues es muy sencillo: de encontrarse se encontrarán en el mismo sitio, en un acelerador de partículas. 

Los aceleradores de partículas, como su propio nombre indica, sirven para acelerar partículas y luego hacerlas colisionar. La cuestión es que el bosón de Higgs (de existir) necesita una gran energía para detectarlo, por otro lado las dimensiones extra son muy pequeñas y para detectarlas (si existen también) hace falta una energía muy grande. Por eso en los aceleradores se espera descubrir ambas. 

Sólo mencionar que sin duda el acelerador más importante del momento es el LHC, construido en el CERN. Este está en un túnel circular de 27 km y se espera que consiga colisiones de protones de hasta 14 Tera-electronvoltios (muchísima energía). Aún no tiene ningún resultado definitivo, pero sin duda arrojará bastante luz sobre estos asuntos.

Parte del túnel del LHC


Materia oscura

Como ya expliqué en el post sobre los grandes problemas de la física teórica actual, la materia oscura es un asunto que sigue dando quebraderos de cabeza. La relatividad y la mecánica de Newton predicen que debe estar ahí, pero aún no he ha observado directamente. Obviamente este problema estará abierto hasta que no se detecte la materia oscura o se construya una teoría que no la necesite. 

La cuestión principal es que esta materia, si existe, debe interaccionar muy poco con el resto de la materia y la luz. Si interaccionara fuertemente la habríamos detectado ya hace mucho, así que los detectores deben ser muy grandes (para maximizar la probabilidad de alguna interacción) y deben esperar bastante tiempo. Un gran problema de estos detectores suele ser diferenciar las detecciones correctas de otras partículas tales como neutrinos o rayos cósmicos. Para reducir estos efectos al mínimo muchos laboratorios se encuentran bajo tierra. 


Definición de kilogramo

Este último problema puede parecer bastante simple y poco "cool" al lado de los demás, pero es muy importante. Si miramos en Wikipedia la definición actual de kilogramo nos encontramos con: "la masa que tiene el prototipo internacional, compuesto de una aleación de platino e iridio, que se guarda en la Oficina Internacional de Pesos y Medidas (BIPM) en Sèvres, cerca de París (Francia)."

Esta definición nos debe parecer rara si la comparamos, por ejemplo, con la de metro que es: "distancia que recorre la luz en el vacío durante un intervalo de 1/299.792.458 de segundo".

La diferencia es que mientras la definición de metro es objetiva y se basa en principios físicos verificables por cualquiera y universales, la de kilogramo se basa en una muestra. Esto es un problema por dos motivos, primero la muestra no está accesible a todos, por lo que se crearon diferentes modelos para cada país, a partir de estos se crean otros modelos y así sucesivamente por lo que hay un error que se va propagando. Además hay un problema más fundamental, esta muestra cambia con el tiempo, se desgasta por lo que un kilogramo de hoy no será un kilogramo dentro de 100 años y esto sí que es inadmisible (aquí una noticia al respecto). 

El Patrón Nacional de kilogramo de los Estados Unidos es el que actualmente rige como medida estándar en ese país. Se implantó en1889 y es revisado y vuelto a certificar de forma periódica a partir del estándar internacional primario, que se encuentra en la Oficina Internacional de Pesos y Medidas (Francia).  Fuente: Wikipedia.

Para solucionar esto se optó por explorar dos caminos diferentes, uno consiste en definir el kilogramo en función de la masa de un átomo natural. En esta dirección el problema se reduce a contar el número de átomos que tiene una esfera de aproximadamente un kilogramo de silicio o carbono y así relacionar la masa del átomo de silicio con el kilogramo. Esto puede parecer trivial pero no lo es en absoluto, está el problema de hacer la esfera perfecta, que no haya impurezas y que que no haya isótopos diferentes que contaminen la muestra. Hay para ello un proyecto denominado El Proyecto Avogadro

La segunda opción consiste en ponerlo como función de la constante de Planck o la masa del electrón. Con un dispositivo muy novedoso, llamado Balanza de Watts se puede medir un peso mediante esta definición y la medida de una corriente eléctrica. Recientemente en la  Conferencia General de Pesas y Medidas se consensuó que este es el mejor camino para redefinir el kilogramo, pero hasta que no se apruebe una nueva definición todas las opciones siguen abiertas.


La balanza de Watt del Instituto Nacional de Estándares y Tecnología (NIST).