miércoles, 30 de septiembre de 2009

Recomendación epistemomaniática: Slackware 13.0

Luego de un pequeño lapso de ausencia por exámenes y alguna otra situación que me mantuvo alejado de mis blogs, vuelvo con un pequeño resumen acerca de la última versión de la distribución GNU/Linux Slackware.

El pasado 27 de agosto vio la luz la tan esperada versión 13.0 de Slackware, la más antigua de las distribuciones de GNU/Linux que se mantiene aún en vigencia.
La primera versión de Slackware (1.0) se publicó en julio de 1993 y estaba basada en la distribución SLS Linux.

Slackware es un potente y avanzado sistema GNU/Linux, altamente estable y configurable, y con una baja tasa de cambios en su estructura de archivos y directorios entre versión y versión. Esto lo hace muy confiable, más que nada tomando en cuenta que, aunque trae algún que otro asistente de configuracion, la mayor parte de las personalizaciones que se hagan deben hacerse a mano, editando los archivos de configuración.

Logo de Slackware
Slackware no pertenece a la gama de distribuciones linux en las que encontramos las últimas versiones de cualquier software: su creador, Patrick Volkerding, prefiere sacrificar esto en beneficio de asegurarse que las versiones de los programas en Slackware sean altamente estables y confiables. Es por eso que recién en esta última versión, la 13.0, aparece la serie 4 del entorno de escritorio KDE (KDE 4.2.4), además del otro gran cambio: se inicia oficialmente una rama paralela de Slackware para arquitecturas de 64 bits.

Para los amantes de GTK, Slackware 13.0 incluye además la versión 4.6.1 de XFCE como entorno de escritorio alternativo y para los old-school trae WindowMaker, Fluxbox, Blackbox, fvwm y twm, al igual que lo hace desde hace ya varios años.

También aparece, como cambio importante a mencionar, un nuevo formato de paquetes: el txz, el cual propone una mejor compresión que su antecesor oficial, el tgz. Cabe destacar, además, que Slacware soporta el uso de paquetes rpm.

Además de los repositorios oficiales existen algunos sitios como Slacky.eu, en los que se pueden encontrar paquetes no oficiales y se indica las dependencias de cada uno, las cuales se pueden encontrar en el mismo sitio.

En lo personal estoy muy encariñado con esta distribución, ya que soy usuario de Slackware desde el año 2003, a partir de su versión 8.1 y este último mes, cuando el trabajo y la universidad me lo permitían, estuve haciendo algunas pruebas con mi nuevo juguete: el Slackware 13.0 de 64 bits.
Así que continuación detallaré algunos puntos acerca de mi experiencia con esta nueva versión, además de la experiencia que tuve utilizando por primera vez un sistema operativo de 64 bits.

El sistema se instaló en:
Intel Core 2 Duo E6550 (2 x 2.33)
2 GB RAM. DDR2 667
Nvidia GeForce 8500GT. 256 Mb
Disco de 160 Gb con 4 particiones: 2 ext4 y 2 NTFS


Patrick Volkerding, el creador de Slackware

Sistema:

El sistema, como siempre, es altamente estable. Muy potente, liviano y con pocos cambios en su estructura. Los archivos de configuración se mantienen siempre en el lugar y casi no hay que hacer cambios en los archivos de configuración para esta nueva versión. Noté que falta el asistente xorgconfig, con el cual se configuraba en modo texto y con un gran nivel de detalle el servidor X, en cambio se puede usar su versión alterativa xorgsetup. Ningún problema a la hora de detectar el hardware, todo funcionó sin problemas. Los asistentes fueron de gran ayuda en esta etapa.

El único detalle negativo que le encontré: ntfs-3g no soporta mi locale al montar las particiones. Como me encuentro en Uruguay y hablo castellano, tengo configurado mi locale como es_UY y hasta la versión 12.2, en fstab tenía estas opciones para montar las particiones ntfs:
umask=000,locale=es_UY
Esto lograba que ntfs-3g mostrara los caracteres de los nombres de archivos en mi locale pero no funciona en la versión 13.0.
Hice muchos intentos y lo que más cerca estuvo de ayudarme fue configurar lilo diciéndole que pase un append al kernel para que la consola soportara utf8 por defecto. Luego cambié mi locale por es_UY.utf8 y veía bien los nombres de archivos de ntfs, pero mal el resto de los nombres de archivo. Incluso algunos caracteres de los programas de consola, como mc, también se veían mal.

Asistentes:

Configuración de red: netconfig.
Configuración del sonido: alsaconf.
Configuración del servidor X: xorgsetup
Configuración del ratón en modo texto: mouseconfig.
Configuración de la zona horaria: timeconfig.
Muchos de ellos se ejecutan durante la instalación, pero otros debemos correrlos a manos luego de la instalación o, como en el caso de netconfig, yo prefiero saltarme su configuración durante la instalación y correrlo a mano luego de que el sistema inició y detectó la tarjeta de red.

Modo gráfico:

KDE4 es visualmente espectacular. Aunque es muy personalizable, a mi parecer es mejor adaptarse a su nueva forma de trabajo, en el estilo "todo a un clic". Su entorno es muy llamativo, visualmente atractivo y trae su propio gestor de composite, evitando el tener que instalar compiz-fusion aparte.
Pero, más allá de todas esas ventajas, me resultó en extremo pesado. En muchas ocasiones colgó el servidor X, incluso logró que colapsara todo el sistema en varias oportunidades. Cualquier operación sencilla (copiar archivos de un lugar a otro, por ejemplo) le toma más tiempo del esperado. Amarok, que era un excelente reproductor y administrador de la colección de música hasta la versión 3, funciona bastante mal y hay que cerrarlo y volverlo a abrir en varias ocasiones para que reprodujera la música o para que pasara automáticamente a la siguiente pista. Su herramienta de organizar los archivos de música es más efectivo colgando la máquina que organizando los archivos, por lo que terminé escribiendo un script que hiciera eso.
El panel y el sistema de ventanas tiende a colgarse bastante seguido también, aunque la mayor parte de las ocasiones se vuelve a levantar automáticamente y sin demorar mucho.
Por otro lado XFCE (el que estoy usando en estos momentos), es muy extensible a través de los plugins que se pueden descargar desde su sitio de goodies. Además de que es también muy atractivo visualmente aunque, si te gusta el composite, deberás instalarte compiz-fusion, que se integra perfectamente con entornos GTK.

Multimedia:

Sin repetir lo ya hablado de Amarok, la versión 13.0 de Slackware dio un gran paso en lo que a multimedia se refiere y trae incluídos unos cuantos reproductores de vídeo y música:
- Dragon Player
- XMMS
- Audacious
- Xine
- MPlayer
Más que nada por el tiempo que llevo usándolo, mi camiseta es de los colores de Xine, pero en esta versión no he logrado que me levante los subs en formato .srt de ninguna peli, así que estoy usando mplayer que anda perfecto. Para la música, xmms o audacious, a cuál de los dos está mejor.
También trae, para diseñadores, la versión 2.6.6 de Gimp.

Desarrollo:

En esta versión de Slackware se incluyen:
- gcc 4.3.3 (con sus variantes fortran, objc, g++, etc)
- Perl 5.10.0
- Python 2.6.2
- PHP 5.2.10
- ruby 1.8.7
- MySQL 5.0.84
- SQLite 3.6.14.2

Redes:

- Apache httpd 2.2.13
- DHCPD 3.2.3
- Bind 9.4.3
- DNSmasq 2.4.9

Disponibilidad de software:

Para la versión de 32 bits, recomiendo no quemarse mucho la cabeza y entrar a http://slacky.eu, en la que se pueden encontrar cientos de paquetes no oficiales.
Te preguntarás por qué digo que esto es para la versión de 32 bits. Bueno, debo admitir que me llevé una gran sorpresa al descubrir que en http://slacky.eu no hay paquetes para la rama de 64 bits, así que antes que estar buscando otros repositorios no oficiales volví a los viejos tiempos de compílelo usted mismo. Dejo, entonces, una pequeña guía para la gente que no está acostumbrada a compilar su software y desean usar Slackware64.

Guía para compilar programas en Slackware64:

Antes que nada, esta guía es para instalar los programas bajo /usr. Si deseas instalar tus programas bajo /usr/local deberás configurar los directorios lib para que acepte el /usr/local/lib64 como un directorio de bibliotecas confiable.
Como Slackware64 soporta el uso de bibliotecas y programas de 32 bits, es conveniente mantener separado el software de 32 bits y el de 64. Es por eso que te encontrarás que hay dos directorios de bibliotecas: /usr/lib y /usr/lib64.
Para instalar programas de 64 bits en /usr/local deberás crear el directorio /usr/local/lib64 y agregarlo a /etc/ld.so.conf para que el linker busque ahí.

Tux con pipa, la mascota de Slackware
Ahora sí, la guía:

Cuando descargues el fuente de algún programa o librería, lo descomprimes y desde la vieja y querida consola debes entrar al directorio donde quedó el fuente ejecutas:


[propsycho@localhost:/home/propsycho/software/xarchiver-0.5.2/]$ ./configure --prefix=/usr --libdir=/usr/lib64


puedes además agregar cualquier opción de configuración propia del script configure del programa que estás compilando.
Luego de esto, si salió todo bien y no tienes ninguna dependencia que instalar ejecutas el make para que comience a compilarse el software:


[propsycho@localhost:/home/propsycho/software/xarchiver-0.5.2/]$ make


dependiendo del programa que quieras instalar esto puede llevarte mucho o poco tiempo.
Cuando el proceso de compilado de programa terminó, debes instalar el software en algún directorio que tu quieras y al que tengas acceso de escritura:


[propsycho@localhost:/home/propsycho/software/xarchiver-0.5.2/]$ make install DESTDIR=/home/propsycho/compiled/xarchiver-0.5.2


cuando el proceso de instalación termina vas al directorio donde el software quedó instalado e inicias sesión como superusuario:


[propsycho@localhost:/home/propsycho/software/xarchiver-0.5.2/]$ cd /home/propsycho/compiled/xarchiver-0.5.2
[propsycho@localhost:/home/propsycho/compiled/xarchiver-0.5.2/]$ su


y escribes la contraseña de root. Lo primero que debes hacer es cambiar el usuario y grupo de todos los archivos, esto se supone que se debería hacer automáticamente al crear el paquete pero por algún motivo no sucede, así que hay que hacerlo a mano:


[root@localhost:/home/propsycho/compiled/xarchiver-0.5.2/]$ chown -R root:root *


y ahora sí, a crear el paquete:


[root@localhost:/home/propsycho/compiled/xarchiver-0.5.2/]$ makepkg /tmp/xarchiver-0.5.2-x86_64-1.txz


esa es la nomenclatura estándar para los paquetes de Slackware: nombreprograma-version-arquitectura-numeroPaquete.tipoPaquete, en lo personal yo remplazo la forma de escribir la arquitectura (x86_64) por x64 para identificar cuáles son los paquetes compilados por mí y cuáles son los oficiales.
Cuando el paquete termina de crearse lo puedes instalar mediante el gestor de paquetes de Slackware con este comando:


[root@localhost:/home/propsycho/compiled/xarchiver-0.5.2/]$ installpkg /tmp/xarchiver-0.5.2-x86_64-1.txz


si deseas ser precavido y evitar instalar dos versiones del mismo paquete, puedes remplazar el comando anterior por este:


[root@localhost:/home/propsycho/compiled/xarchiver-0.5.2/]$ upgradepkg --install-new /tmp/xarchiver-0.5.2-x86_64-1.txz

esto actualiza un paquete existente y, si no existe, lo instala.

Con esta guía podrás instalar cualquier programa en Slackware64, en ocasiones te pueden complicar las dependencias, pero no es más que descargarlas, compilarlas e instalarlas previamente.

En resumen:
  • Slackware mantiene su estabilidad, su potencia y su estructura de directorios.
  • El entorno gráfico KDE4 es demasiado pesado, pero la alternativa XFCE es bienvenida.
  • Para la versión de 64 bits se debe compilar el software a mano.
  • Varias posibilidades entre las que elegir en programas multimedia.


Detalles básicos de Slackware 13.0:

Kernel: 2.6.29.6
glibc: 2.9
gcc: 4.3.3
KDE: 4.2.4
XFCE: 4.6.1

Links:

- Sitio oficial de Slackware
- Artículo de Slackware en Wikipedia

miércoles, 26 de agosto de 2009

Espectacular simulación del movimiento de las placas tectónicas

Todos sabemos que las placas tectónicas se encuentran en constante movimiento, que la distribución de los continentes en el mundo nunca ha sido igual a la que vemos hoy y que posiblemente nunca vuelva a serlo. Pero muy pocos hemos visto la forma en que las placas tectónicas se movieron a través de nuestro planeta y muchos menos cómo lo harán.
Hoy encontré este genial vídeo llamado 650 million years in 1 min 20 sec (650 millones de años en 1 minuto y 20 segundos) en el que se simula el movimiento de las placas tectónicas desde hace unos 400 millones de años hasta 250 millones de años en el futuro, cuando se calcula que ocurrirá la formación del tercer (o para algunos cuarto) supercontinente de la historia de la tierra. Realmente imperdible.


650 Million Years in 1 Min 20 Sec - The funniest home videos are here


Fuente: Metacafé

lunes, 24 de agosto de 2009

Morining Glory Clouds

Imagen captada por el fotógrafo Mick Petroff en las que se ven algunas Morning Glory Clouds cerca del Golfo de Carpentaria, Australia

Estos raros tipos de nubes son conocidos como Morning Glory Cloud (algo así como nube de gloria matinal), pueden alcanzar 1.000 kilometros de largo y se producen en altitudes de hasta dos kilómetros de altura.
A pesar de que nubes rodantes similares han sido vistas en lugares específicos de todo el mundo, los de Burketown, Queensland, Australia ocurren de forma predecible en cada primavera. Tubos de aire largos, horizontales y giratorios puede formarse cuando una corriente de aire húmedo y frío encuentra una capa de inversión, una capa atmosférica donde la temperatura del aire aumenta atípicamente con la altura. Estos tubos y el aire circundante podrían provocar turbulencias peligrosas para los aviones cuando el cielo está claro. Las Morning Glory Clouds, pueden alcanzar una velocidad de 60 kilómetros por hora en una superficie con poco viento apreciable.
Morning Glory Clouds cerca de Bacia de Campos, Brasil

Fuentes: NASA - Wikipedia

Invalidan una de las últimas teorías para viajar por encima de la velocidad de la luz

Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.

Concepción artística de la burbuja de Alcubierre: la nave se desplaza porque el espacio tiempo se contrae en la parte delantera y se expande en la trasera
Una investigación, con participación del Consejo Superior de Investigaciones Científicas (CSIC), señala dos obstáculos que parecen invalidar la propuesta teórica del motor de curvatura para viajar más rápido que la luz, a más de trescientos mil kilómetros por segundo. Esta hipótesis se basa en el movimiento del propio espacio tiempo que, en principio, puede contraerse y expandirse sin límite de velocidad. Las conclusiones del trabajo aparecen publicadas en la revista Physical Review D.

Paradójicamente, la teoría del motor de curvatura tiene su origen en la ficción: se trata del mecanismo que permite a los personajes de la serie de ciencia ficción Star Trek surcar el espacio más rápido que la luz, o a velocidades superluminares, mediante la distorsión del espacio tiempo.

Su salto al terreno científico tuvo lugar en 1994, año en el que el físico mexicano Miguel Alcubierre publicó un artículo en la revista Classical and Quantum Gravity titulado “El motor de curvatura: viaje hiperveloz en el marco de la Relatividad General”. Este trabajo aprovecha la flexibilidad de la geometría del espacio tiempo, que se curva en presencia de materia del mismo modo en que, por ejemplo, una pelota situada sobre una sábana tensada curva el tejido a su alrededor. En el Universo, los objetos de mayor masa producen curvaturas más acentuadas. Sobre esta base, Alcubierre diseñó un medio de transporte en forma de burbuja con paredes compuestas de materia exótica (un tipo de materia aún hipotético que tiene propiedades gravitatorias repulsivas) que producen una contracción del espacio tiempo en la proa y una dilatación en la popa similares a una ola en el mar.

El investigador del CSIC Carlos Barceló, del Instituto de Astrofísica de Andalucía, en Granada, explica: “Una nave dentro de la burbuja alcanzaría su destino sin moverse por la distorsión local del espacio tiempo, igual que un surfista situado sobre la cresta no ejerce un movimiento propio pero alcanza la orilla gracias al de la ola”. Según los autores, esta hipótesis matemática mostraba debilidades desde su publicación, aunque no se descartaba. Sin embargo, explican, hay un punto que no se había contemplado hasta el momento y que puede afectar al movimiento de esa burbuja: cómo actúan las fluctuaciones cuánticas ante las curvaturas.

De acuerdo con las estimaciones del trabajo, si la burbuja se desplaza a velocidad superior a la de luz, los tripulantes verán como las paredes anterior y posterior se comportan respectivamente como un horizonte negro y otro blanco, similares a los que tienen los agujeros negros. Así, si el astronauta de la nave mira hacia atrás no verá absolutamente nada, un horizonte negro, ya que se está desplazando a mayor velocidad que la luz y ninguna señal puede alcanzarle; en cambio, la proa de la nave recibirá todas las señales, y por ello se habla de horizonte blanco.

Dos horizontes problemáticos

Los autores calcularon cómo se comportan las fluctuaciones cuánticas en ambos horizontes cuando la burbuja se acerca a la barrera de la luz, y han hallado dos efectos que impiden el viaje. En ambos casos, el escollo se encuentra en el vacío del Universo. Según la teoría cuántica, en este estado la energía no es equivalente a cero, sino que de forma constante nacen y se aniquilan parejas de partículas tan rápido que resulta imposible detectar su presencia, y por ello se conocen como partículas virtuales. Sin embargo, bajo ciertas condiciones, como una fuerte distorsión del espacio tiempo, esas partículas pasan a ser reales. Esto es lo que ocurre en ambos horizontes de la burbuja ideada por Alcubierre, con consecuencias negativas.

En el horizonte negro, el astronauta se toparía con la radiación de Hawking, enunciada por Stephen Hawking en 1974. Se trata de un efecto conocido en los agujeros negros debido a la creación y destrucción de parejas de partículas: el enorme campo gravitatorio del agujero negro puede romper el par y absorber una de las partículas, mientras que la otra escapa. Así se produce un resplandor que procede del horizonte y que, en el caso de la burbuja, depende del grosor de la pared: una pared fina, más fácil de obtener en teoría, presentaría temperaturas muy altas que podrían destruir la nave que viajara en su interior.

Pero, aunque pudieran construirse paredes tan gruesas que la temperatura producida por la radiación de Hawking no fuera un obstáculo, el horizonte blanco supone un impedimento insalvable, según la investigación. La contracción del espacio tiempo en la parte delantera produciría igualmente la ruptura de pares de partículas, con la diferencia de que irían amontonándose en la pared. “Este fenómeno provocaría un crecimiento exponencial de energía incontrolable, y hace inconsistente la construcción porque tiende a autodestruirse”, apunta Barceló. “O inventamos una manera de contrapesar esa energía con una energía inversa, lo cual parece inverosímil, o simplemente hay que admitir que no podemos superar la velocidad de la luz por razonables periodos de tiempo”, añade el investigador del CSIC.

Otra opción consiste en no atravesar la barrera de la luz, de modo que no se produjeran horizontes, ni radiación de Hawking, ni altas temperaturas. Como los autores señalan al final del artículo, “quizá viajar al 99% de la velocidad de la luz no esté tan mal, después de todo”.

Fuente: SINC

miércoles, 19 de agosto de 2009

Trazan el mapa de la herencia genética de la población mexicana

Se trata de la primera vez que se cuantifica la composición genética de la población mexicana y que se analizan los resultados en relación con criterios geográficos e históricos. Hasta la fecha se sabía que la población mestiza (que constituye en México alrededor de un 93 por ciento de la población total) se había formado a partir de la mezcla de tres grandes grupos: los nativos americanos, los europeos –especialmente españoles-, y los africanos. Ahora, este grupo investigador ha demostrado que la composición genética de los mestizos mexicanos se distribuye siguiendo un modelo geográfico (con una mayor componente genética europea en el norte, e indígena en el sur), que se corresponde con el devenir histórico de estas poblaciones y que aún hoy en día sirve como reflejo de la densidad de la población indígena antes de la llegada de los españoles al Nuevo Continente.

Ejemplo de la diversidad genética de la población mexicana
Según explica Antonio González Martín, investigador de la Universidad Complutense de Madrid que ha participado en el proyecto, “una de las novedades más interesantes es la interrelación entre pasado y presente genético y demográfico”, ya que a través de la lectura de unos marcadores genéticos determinados (los STR o Short Tandem Repeats, utilizados habitualmente para la investigación forense) podemos conocer aspectos como la distribución o la densidad de la población en tiempos remotos. Así, continúa González Martín, “a través de análisis estadísticos hemos podido calcular la cantidad de genes de distintos orígenes que tiene la población actual y, a partir de ahí, inferir aspectos como la distribución y la densidad de la población indígena de los grupos prehispánicos del pasado”.

El estudio determinó que la población indígena que habitaba la región antes de la llegada de los españoles estaba distribuida desigualmente, de manera muy densa en el centro y sur, y más dispersa en el norte. “Esto –señala González Martín- es lógico si tenemos en cuenta que en el centro y sur del actual México se desarrollaron culturas sendentarias que dieron lugar a grandes urbes y complejos sistemas productivos y comerciales, mientras que el norte es una zona desértica y estuvo habitada por grupos de cazadores-recolectores, lo que conlleva una densidad de la población mucho más baja”.

La investigación también ha delimitado la herencia genética de la población africana presente en los mestizos mexicanos y, si bien la cantidad de información genética con este origen es mucho menor que la europea o la amerindia, arroja también datos interesantes, y es que en este caso la distribución geográfica se corresponde con una mayor carga genética africana en la costa caribeña, donde tuvo lugar la mayor parte del comercio de esclavos de la región.

Aplicaciones en política sanitaria o genética forense

Investigaciones como ésta permiten no sólo reconstruir el pasado biológico e histórico de una región o un continente entero, sino que además facilitan el diseño de una política sanitaria más eficaz. “Determinadas variaciones genéticas hacen que los individuos sean más o menos propensos a contraer algunas enfermedades o más sensibles a reaccionar ante un fármaco determinado. Si estas variaciones presentan una distribución geográfica según el origen de las poblaciones, las poblaciones mestizas derivadas de ellas tendrán distinta prevalencia de estos genes y, por lo tanto, mayor o menor sensibilidad a padecer esas enfermedades. Por ello esta información es muy valiosa para diseñar la estrategia sanitaria más adecuada en cada caso”, explica el investigador.

Los marcadores utilizados se usan habitualmente en genética forense, por lo que la caracterización genética de las poblaciones posibilita también la disposición de una base de datos de referencia para la resolución de casos como la identificación de personas desaparecidas o fallecidas, sospechosos, relaciones de parentesco, etc.

El trabajo ha sido publicado en el último número de la revista American Journal of Physical Anthropology, una de las publicaciones internacionales más prestigiosas en el campo de la antropología y la evolución.

Fuente: SINC

Etimología de miércoles 7 - Palimpsesto

El palimpsesto es un papiro cuya escritura se borra para poder volver a utilizarse. Generalmente los palimpsestos tienen huellas de la escritura anterior en la superficie del papiro.
El origen de la palabra palimpsesto es del griego palin (de nuevo) y psao (raspar, frotar), lo que se hacía para borrar lo que antes había escrito y reutilizarlo.

Codex ephremi, ejemplo de Palimpsesto
Esta práctica de economía es muy antigua pero fue muy frecuente en el siglo VII por las dificultades que ofrecía el comercio del papiro egipcio y se repitió en los cinco siglos siguientes por la escasez del pergamino, en vista de la gran demanda de comercio, y la falta de papel, artículo que apenas se conocía. Se logra restaurar la escritura antigua de los palimpsestos con técnicas especiales, siendo comunes en la antigüedad la aplicación de tintura de agallas mediante un pincel o la llamada tintura de Giobert de sulfidrato de amoníaco.

Uno de los más célebres palimpsestos es el que descubrió Nieburh en Verona en 1816 conteniendo las Institutas del célebre jurisconsulto romano Gayo imperfectamente raspadas para escribir encima las obras de San Jerónimo. Después en 1822 el orientalista milanés Angelo Mai, encontró bajo la escritura de diversos palimpsestos numerosos fragmentos de autores antiguos como Homero, Símaco, Dion, Cassio, cartas de Antonino y Marco Aurelio, el Tratado de la República de Cicerón y en 1853, gran número de fragmentos de los Santos Padres.

Fuente: Wikipedia

martes, 18 de agosto de 2009

Compuesto básico para la vida es hallado en un cometa

La exploración espacial continúa arrojando luz sobre los orígenes de la vida en nuestro planeta. Científicos de la NASA han confirmado la presencia de glicina, uno de los componentes fundamentales para la existencia de seres vivos, en muestras del cometa Wild 2 tomadas por la sonda Stardust.

Sonda Stardust atravesando la cola del cometa Wild 2
"La glicina es un aminoácido usado por los seres vivos para producir proteínas, y ésta es la primera vez que se ha encontrado en un cometa", declaró la doctora Jamie Elsila, del Centro de vuelos espaciales de la NASA en Goddard, Maryland. "Este descubrimiento apoya la teoría de que algunos de los ingredientes necesarios para la vida se formaron en el espacio y llegaron a la Tierra por impactos de cometas y meteoritos", afirmó Elsila.

La sonda Stardust pasó a través de la nube de gas y polvo que rodeaba el núcleo del Wild 2 en enero de 2004, y recolectó muestras del cometa. Para ello utilizó una rejilla de un nuevo material llamado Aerogel, un compuesto esponjoso formado en más de un 99% por espacio vacío. La rejilla estaba dentro de una cápsula que se desprendió de la Stardust y llegó a la Tierra en enero de 2006, para posteriormente ser analizada por los especialistas.


Vida en el espacio

Las proteínas son indispensables para la existencia de moléculas de vida, y están presentes en todo tipo de estructuras, realizando diferentes funciones básicas para los seres vivos. A partir de la combinación de 20 aminoácidos en diferentes composiciones, se constituyen millones de proteínas.

"El descubrimiento de glicina en un cometa apoya la idea de que los componentes fundamentales para la vida son comunes en el espacio, y fortalece el argumento de que la vida en el universo puede ser menos rara de lo que se cree", señaló el doctor Carl Pilcher, director del Instituto de Astrobiología de la NASA.

Tras los primeros análisis, los investigadores no pudieron confirmar que la glicina encontrada no fuese producto de la contaminación de las muestras desde la Tierra. Sin embargo, nuevas investigaciones utilizando análisis de isótopos, descartaron esta posibilidad y confirmaron el origen extraterrestre del aminoácido.

Fuente: elmundo.es

miércoles, 12 de agosto de 2009

Etimología de miércoles 6 - Chiquilicuatro

Según el diccionario de la Real Academia Española, un chiquilicuatro es un Zascandil, un mequetrefe.
A partir de estas dos definiciones podemos saber el verdadero significado de nuestra palabra de hoy:

Zascandil: Hombre despreciable, ligero y enredador.
Mequetrefe: Hombre entremetido, bullicioso y de poco provecho.

El hemisferio norte disfruta de las Perseidas

Hoy 12 de agosto, es el día pronosticado para el pico de máximo de actividad de las Perseidas o Lágrimas de San Lorenzo, la lluvia de estrellas provocada por el rastro de polvo dejado atrás por la cola del cometa 109P/Swift-Tuttle.

Esta lluvia de meteoros de actividad alta no es la mayor lluvia de meteoros, pero sí la más popular debido a que transcurre en agosto, mes de buen tiempo y vacacional en el Hemisferio Norte.

Meteorito perteneciente a las perseidas cayendo a la derecha de la vía láctea
Su período de actividad es largo y se extiende entre el 16 de julio y el 24 de agosto. Su máximo es el 11 de agosto con Tasa Horaria Zenital (THZ) 100, lo que le convierte en la 3ª mayor lluvia del año.
Son meteoros de velocidad alta (59 km/s) que radian de la constelación de Perseo o Perseus. Por tanto su alta declinación (+58º) no permite su observación en regiones meridionales, ya que desde el ecuador alcanza tan sólo los 32º de altura.

Las Perseidas son también conocidas con el nombre de lágrimas de San Lorenzo porque el 10 de agosto es el día de este santo. En la edad medieval y el renacimiento las Perseidas tenían lugar la noche en que se le recordaba, de tal manera que se asociaron con las lágrimas que vertió San Lorenzo al ser quemado en la hoguera, más concretamente en una parrilla.

El cuerpo progenitor de las Perseidas es el cometa 109P/Swift-Tuttle, descubierto por Lewis Swift y Horace Parnell Tuttle el 19 de julio de 1862, posee un diámetro de 9,7 kilómetros y su órbita alrededor del Sol dura un período de 135 años.

Su última aparición tuvo lugar en 1992 produciéndose en 1993 un pico de actividad con THZ 300. Desde entonces, la actividad ha descendido progresivamente hasta el nivel normal de la actualidad.

Las Perseidas tuvieron estallidos de actividad del nuevo máximo primario con tasas horarias de 400 meteoros por hora en 1991 y 1992. Las tasas de este pico de actividad disminuyeron a 100-120 hacia finales de los 90, y a partir de 2000 no se ha presentado más. Su reaparición no fue una sorpresa ya que se esperaban por el regreso al perihelio del cometa progenitor 109P/Swift-Tuttle en 1992.

Fuentes: Wikipedia - SOMYCE

martes, 11 de agosto de 2009

La inteligencia de los perros es equiparable a la de un niño de 2 años

No sólo es el mejor amigo del hombre, sino además un amigo inteligente. Ésta es la conclusión de Stanley Coren, psicólogo de la Universidad de la Columbia Británica, quien, tras revisar varios estudios, señala que los perros tienen capacidad para resolver problemas complejos, pueden contar y comprender hasta 150 palabras. También son capaces de engañar de forma intencionada a otros perros y personas para conseguir regalos. Basándose en varios análisis de comportamiento, Coren señala que las habilidades mentales de los perros se parecen a las de un niño de unos dos años. El investigador presentará su análisis en la Convención Anual de la Asociación Americana de Psicología.



Fuente: SINC

lunes, 10 de agosto de 2009

170 años del daguerrotipo

El daguerrotipo, construido por el pintor y decorador teatral Louis Daguerre y presentado en Francia el 10 de agosto de 1839, es un invento precursor de la fotografía moderna. Fue además un puente entre la cámara negra creada por Johann Zahn y retocada por Joseph-Nicéphore Niépce, y la cámara de objetivo del alemán Jozef Maximilián Petzval. Las publicaciones del momento dieron a conocer el nuevo aparato a la sociedad, pero supuso sobre todo una revolución en el mundo de la información ya que permitió cubrir el seguimiento de la Guerra de Crimea y de la Guerra de Secesión estadounidense.

Daguerrotipo de Louis Daguerre
Para la obtención de la imagen se parte de una capa sensible de nitrato de plata extendida sobre una base de cobre. A partir de una exposición en la cámara, el positivo se plasma en el mercurio. Finalmente, la imagen se fija tras sumergir la placa en una solución de cloruro sódico o tiosulfato sódico diluido.

A finales del año 1840 se habían conseguido tres progresos técnicos en el daguerrotipo. En primer lugar, se consiguió una lente hasta 22 veces más brillante. Además, se aumentó la sensibilidad de las placas ante la luz al ser recubiertas por sustancias halógenas (aceleradores o sustancias rápidas), con lo que el tiempo de exposición se redujo. Finalmente, las placas se doraron para enriquecer los tonos.

Fuente: Wikipedia

viernes, 7 de agosto de 2009

Datos de cientos de niños adoptados aparecen en redes P2P

Los datos personales de un gran número de niños en proceso de adopción o adoptados y las correspondientes parejas de adoptantes, se hallaban en redes de intercambio de ficheros P2P; la información se contenía en dos bases de datos .mdb. La Agencia Española de Protección de Datos ha sancionado a la Asociación que estaba a cargo de estas adopciones, pero los ficheros podrían haber sido intercambiados por multitud de usuarios.

Adopción
Un caso más de aparición en este tipo de redes de documentos o bases de datos con información personal, confidencial o privada. Sin embargo en esta ocasión considero el asunto de especial gravedad, pues la información de los ficheros hace referencia a los datos personales de niños en fase de adopción o adoptados y sus adoptantes.

En concreto se trataba de 2 bases de datos de Microsoft Access, cuyos nombre de fichero eran “ecai-cmancha.mdb” y “ecai-madrid.mdb” (los cuales ya han sido eliminados).

¿Cómo se produjo la fuga de datos?

Parece que no fue la clásica torpeza infantil de instalar el eMule en el servidor de la Asociación y compartir C:\, sino que por el relato de los hechos se desprende que la esposa del programador de la base de datos se copió en un pen-drive dicha base de datos sin autorización de la Asociación, la volvió a copiar a su ordenador de casa y la estuvo compartiendo en el eMule. Pudo copiarla sin problemas porque era trabajadora de la Asociación, pero después de descubrir el asunto fue despedida.

Fuente: Samuel Parra

Diseñan sistema de medida 3D basado en cámaras de fotos de bajo coste

En ocasiones, la necesidad agudiza el ingenio. El origen fue un proyecto de investigación encargado por el Ministerio de Ciencia y Tecnología al grupo de investigación ponferradino para establecer un estándar para la construcción a través de un modelo probabilístico de cálculo de variaciones en placas de vidrio laminadas. "Era necesario hacer diferentes ensayos y medir las placas a través de técnicas de fotogametría, y pensamos que podíamos reducir costes empleando cuatro cámaras de fotos de consumo", explica Sanz Ablanedo a DiCYT.

Sistema de medidas 3D basado en cámaras fotográficas de bajo coste
El sistema de medida ideado, en el que participó personal de su grupo de investigación, del Departamento de Recursos Naturales e Ingeneria Medioambiental de la Universidad de Vigo y del Departamento de Construcción e Ingeniería de Fabricación de la Universidad de Oviedo, consistía en una estructura ajustable de cuatro cámaras montada sobre un trípode. Las cámaras eran incluidas en brazos extensibles de entre 40 a 70 centímetros en dos ejes ortogonales. Estos brazos podían rotar libremetne y su ángulo era ajustable entre 10 a 90 grados sobre la horizontal. Toda esta flexibilidad en la red fotogramétrica creada permitía el registro de las imágenes en 3D. Las cámaras montadas eran cuatro Pentax Optio A40, en el mercado desde hace dos años y con un precio aproximado actualmente de 150 euros. Las cámaras pueden realizar fotografías de hasta 12 megapíxeles, control manual del focus, y, lo más importante, posibilidad de sincronización y de apertura de diafragma.

"El coste total del equipo se aproximó a 1.000 euros, cuando si acudes a la industria se puede elevar a entre 4.000 y 6.000 euros", explica el ingenierio. Su investigación, publicada en el último número de la revista científica Sensors, recoge que "los resultados han demostrado claramente la capacidad de un sistema de medida múltiple de cámaras de bajo coste con precisición submilimétrica". No en vano, las pruebas realizadas sobre placas de vidrio y registradas con este sistema mostraban variaciones en micras o micrómetros (una millonésima parte de un metro). El nuevo dispositivo de cámaras de bajo coste permite la sincronización de la fotografía, algo que otros ingenios desarrollados con los mismos materiales en países como Japón, Alemania o Estados Unidos no proporcionaban.

Fotogametría

La técnica utilizada por el especialista para reconstruir una realidad tridimensional a partir de fotografías (imágenes en dos planos) se denomina fotogametría. A través del conocimiento de las dimensiones y posición de objetos en el espacio, de la medida o medidas realizadas a partir de la intersección de dos o más fotografías, o de una fotografía y el modelo digital del terreno correspondiente al lugar representado, se puede reconstruir el objeto fotografiado.

El trabajo forma parte de la tesis doctoral de Sanz Ablanedo en Ingeniería de Minas, presentada el 29 de mayo en Ponferrada y que obtuvo la calificación de sobresaliente cum laude. Los codirectores de la tesis fueron José Ramón Rodríguez, de la Universidad de León, Pedro Arias, de la Universidad de Vigo, y María Jesús Lamela, de la Universidad de Oviedo.

Fuente: SINC

jueves, 6 de agosto de 2009

Hallan el mayor meteorito de marte hasta el momento

El Vehículo de exploración Opportunity ha descubierto el mayor meteorito hallado en la superficie de Marte hasta el momento. Es un fragmento de hierro, del tamaño de un balón de playa y los investigadores esperan encontrar signos de corrosión que aporten indicios sobre la historia del agua en el planeta rojo.

Block Island, el mayor meteorito hallado en marte hasta el momento
El 18 de julio el Opportunity avistó la roca en Meridiani Planum, una llanura cubierta de arena que ha estado explorando desde su llegada al planeta rojo en enero de 2004. El llano está plagado de pequeñas rocas que se creen procedentes del impacto del meteorito que originó el cráter Victoria, de unos 800 metros de diámetro.

El fragmento ha sido bautizado como 'Block Island', en honor una isla de Nueva Inglaterra, y tiene una altura de más de medio metro y una anchura de 30 centímetros. Los investigadores utilizarán un espectrómetro de rayos alfa para confirmar su composición y procedencia. Pese a estar cubierto de polvo, la roca es brillante en las zonas más limpias.

Otro fragmento, llamado 'Heat Shield Rock', era el más grande hallado en el planeta, con una altura de 30 centímetros, y fue encontrado en la misma región que 'Block Island', por lo que se cree que ambos formaron parte de un mismo meteorito.

Según explicó la NASA, la parte izquierda de 'Block Island' es muy similar a 'Heat Shield Rock', mientras que la derecha es más irregular. Aunque ambos fragmentos presentan diferentes niveles de níquel, los científicos afirman que las diferencias entre ambos se deben a las condiciones químicas y atmósfericas.

Fuente: elmundo.es

miércoles, 5 de agosto de 2009

Etimología de miércoles 5 - Canícula

Los días de las canículas (o de la canícula) son la temporada del año en que es más fuerte el calor, tanto en el hemisferio Sur como en el Norte.

Coincide con el solsticio de verano, el 21 de junio, cuando al amanecer, el sol nace por un punto situado en la eclíptica / ecuador celeste, con el mayor alejamiento de un punto central. Indicando el momento en que se halla más lejos del ecuador terrestre, cuando alcanza la mayor declinación positiva entre los ecuadores: 90 grados. Entonces, el sol hace su recorrido durante el día por encima del ecuador terrestre.

La estrella Sirio, perteneciente a la constelación Can Mayor

Aproximadamente a partir de este día, cuando el sol a mediodía está a la máxima altura sobre el horizonte empiezan los días de más calor. O sea que es cuando empieza el tiempo de mayor calor / empieza la "canícula" / el tiempo de "perros".

Esta expresión es derivada de canes / perros, y su alusión al fenómeno del calor abrasivo, tiene un fundamento astronómico: alude a la constelación Can Mayor / Canícula y su estrella Sirio “La Abrasadora”, cuyo orto helíaco coincidía con el fenómeno del calor abrasivo.

Lo ratifica el astrónomo Joachim Herrmann Monster en (1986, 148): "su primera salida, es decir su reaparición como estrella visible en el cielo de la mañana después de su período de invisibilidad, coincidía hace algunos siglos con los días más calurosos. De ahí proviene el calificativo de «días perros». Sin embargo, debido a la precesión del eje terrestre, actualmente reaparece Sirio en el cielo matutino a principios de septiembre.”

Fuente: Wikipedia

Top 25: Fotos de astronomía

Navegando la red encontré esta genial recopilación en vídeo hecha por la gente de La aldea irreductible, en la que listan las mejores 25 fotos de astronomía, celebrando que el 2009 es el año de la astronomía.

Un trabajo excelentemente hecho y que merece ser compartido, con muy buena música de Tyrad de fondo y en HD. La calidad de las imágenes es estupenda y la selección está muy bien hecha.

El vídeo está publicado bajo Creative Commons, al igual que la música de Tyrad.



Fuente: La aldea irreductible

martes, 4 de agosto de 2009

Condorito cumple 60 años

Sesenta años después de que apareciera robando gallinas en una tira cómica de la revista chilena Okey, Condorito está presente en 77 diarios de América Latina y EEUU, y sigue haciendo reír mientras reivindica la astucia de los chilenos en historias centradas en el ya célebre Pelotillehue.

Condorito

El aniversario 60 es recordado por una edición especial de la revista que salió a la venta este martes en Chile y que compila los mejores chistes y parte de la historia del personaje, creado por el caricaturista René Ríos Boettiger, mejor conocido como Pepo.
Con rostro de cóndor -el ave emblema de Chile-, de carácter pícaro y con sólo dos enormes dedos en cada pie, Condorito nació como una respuesta a unos personajes latinoamericanos de la película 'Saludos Amigos' de Walt Disney, según contó su creador.

"El personaje nace como un representativo del pobre chileno, marginal, que llega de la provincia a vivir a las márgenes de la ciudad capital", explicó a la AFP Hernán Montealegre, autor de Historia del Humor Gráfico en Chile.
"Además incorpora varios de los símbolos chilenos. El cóndor, que está en el escudo nacional del país, su camiseta con el color de la selección y sus pantalones negros de campesino", agregó.

Jefe caníbal, pintor de líneas de carreteras, millonario de zapatos brillantes y hasta loco con ojos en espiral, Condorito siempre ha desarrollado sus aventuras en Pelotillehue.
Montealegre precisó que el sufijo 'hue' en lengua mapuche (etnia original chilena) significa 'donde abunda algo' o 'lugar de', y eso se suma al 'pelota', que alude al tonto. Entonces Pelotillehue significaría pueblo de tontos.

Condorito y su perro Washington. Estatua en parque Esculturas de comic en San Miguel
En este lugar están el bar 'El Tufo', el restaurante 'El Pollo Farsante' el santo 'San Guchito' y el diario 'El Hocicón', cuyo lema es 'pobre pero honrado' y fue fundado el 15 de noviembre de 1943, según se lee en su portada.
En Pelotillehue viven Yayita -la curvilínea y eterna novia de Condorito- y Doña Tremebunda, la madre de ésta; sus amigos como el borracho 'Garganta de Lata', el servicial Don Chuma, el inocente Ungenio y Huevoduro, entre otros.

Pelotillehue creció además con la modernidad: la clásica bebida 'Tome Pin y haga Pun' es ahora 'Tome Pin Zero, Zero Pun'.
Desde Chile, el 'pajarraco' -como lo llama su archirrival, el petulante Pepe Cortisona-, llega hoy a 13 países, incluido Estados Unidos.

Para su internacionalización lentamente fue dejando de lado los modismos chilenos, aunque se mantiene la esencia del personaje. "Ahora tiene un lenguaje neutro que permite que se lea en un país latinoamericano sin mayores problemas", considera Montealegre.
Para el historietista chileno Pedro Peirano nunca "Condorito provocó carcajadas pero por alguna razón siempre fue imposible dejar de leerlo".

"Nunca se manejó en el terreno de lo que denominamos 'humor inteligente', pero su autenticidad y gentil incorrección lo hacían irresistible", señala.
Condorito partió en las pequeñas editoriales Zig-Zag o Pincel.

Poco antes de la muerte de Pepo, en 2000, la edición de la revista de Condorito pasó a Televisa Chile, mientras las tiras cómicas de diarios, el merchandising y las producciones audiovisuales recaen sobre Inverzag en Chile y World Editors, que tiene los derechos a nivel internacional.
En la revista trabajan una decena de dibujantes y guionistas que dan vida a unas seis ediciones mensuales en distintos formatos que llegan a unos 80 millones de lectores, según Peirano.

Un total de 77 diarios publican las tiras cómicas en América Latina y Estados Unidos. En EEUU está presente en 26 diarios, algunos de ellos en inglés.

Fuente: Montevideo comm

El insecto que se hace pasar por hormiga

En biología es bien conocida la amistad que une a acacias y hormigas: se suele utilizar como ejemplo de mutualismo, esto es, una relación que beneficia a ambas especies. Las plantas proporcionan alimento y cobijo a las hormigas en sus espinas, vaciadas por dentro, y éstas a cambio le protegen de visitas no deseadas, atacando con ferocidad a cualquier intruso que se acerque a la planta.

Insecto que se hace pasar por hormiga para alimentarse de las acacias

Susan Whitehead, de la Universidad de Colorado, descubrió con asombro una excepción a esta regla: un insecto de la familia Coreidae campaba a sus anchas por las ramas de las acacias sin ser atacado por las hormigas. Intrigados por este fenómeno, ella y su equipo decidieron investigar qué hacía el insecto para resultar prácticamente invisible a las hormigas. Tras probar varias hipótesis, la solución vino cuando lavaron al insecto con un disolvente químico, ya que en cuanto volvió a la planta, las hormigas corrieron a atacarle. La clave, según Whitehead, reside en los químicos del exoesqueleto del insecto. “Los insectos imitan los hidrocarbonos que producen las hormigas, para que no les reconozcan como un elemento extraño”, señala Whitehead. Sus conclusiones se presentan en el Encuentro Anual de la Sociedad Ecologista de América, que se celebra del 3 al 7 de agosto en Albuquerque (Nuevo México, EE UU).

Fuente: SINC

lunes, 3 de agosto de 2009

El cerebro aprende más de los aciertos que de los errores

Equivocarse es humano pero no nos sirve de mucho, porque de lo que aprendemos es de los aciertos. Esto es lo que sugieren los resultados de una investigación sobre el cerebro realizada por científicos del MIT, en la que se constató que dos regiones cerebrales concretas se activan sólo cuando hacemos las cosas bien, y no cuando las hacemos mal. Dado que las áreas activas están vinculadas con el aprendizaje y la memoria, los científicos afirman que sólo aprenderíamos de los aciertos.

Tropezar dos veces en la misma piedra es, al parecer, inevitable, al menos desde el punto de vista del cerebro. Esto es lo que sugieren los resultados de una investigación realizada por científicos del Picower Institute for Learning and Memory del MIT.

Imágenes utilizadas en el experimento, y que fueron mostradas a los monos para que éstos miraran a derecha o izquierda a cambio de una recompensa
Earl K. Miller, profesor de dicho instituto, y sus colaboradores, Mark Histed y Anitha Pasupathy, consiguieron generar por vez primera una instantánea del proceso de aprendizaje de unos monos.

En esta imagen se pudo ver cómo las células individuales del cerebro no responden igual ante la información sobre una acción correcta que ante la información sobre una acción errónea.

Según explica el profesor Miller en un comunicado emitido por el MIT, lo que se ha demostrado es que las células del cerebro, cuando una acción genera un buen resultado, se sincronizan con lo que el animal está aprendiendo. Por el contrario, después de un error, no se produce ningún cambio en el cerebro ni se transforma en nada el comportamiento de los animales.

Esta investigación ayudaría a comprender mejor los mecanismos de plasticidad neuronal activados como respuesta al entorno, y tendría implicaciones para el entendimiento de cómo aprendemos, y también en la comprensión y el tratamiento de los trastornos de aprendizaje. La plasticidad neuronal es la capacidad del cerebro de cambiar a partir de la experiencia.

Cómo se hizo

A los monos estudiados se les asignó la tarea de mirar dos imágenes alternantes en la pantalla de un ordenador. Cuando aparecía una de ellas, los monos eran recompensados si giraban su mirada hacia la derecha; cuando aparecía la otra imagen, los monos eran recompensados si miraban a la izquierda.

Los animales fueron tanteando, por el sistema de “prueba y error”, para descubrir qué imágenes exigían mirar en qué dirección.

Gracias a las mediciones realizadas entretanto en sus cerebros, los investigadores descubrieron que, dependiendo de si las respuestas de los monos eran correctas o incorrectas, ciertas partes de sus cerebros “resonaban” con las implicaciones de sus respuestas, durante algunos segundos.

Así, la actividad neuronal que seguía a una respuesta correcta y su recompensa correspondiente ayudaban a los monos a realizar mejor la siguiente tarea.

Por tanto, explica Miller, justo después de un acierto, las neuronas procesaban la información más deprisa y más efectivamente, y el mono tendía más a acertar la siguiente respuesta.
Sin embargo, después de un error no había mejoría alguna en el desempeño de las tareas. En otras palabras, sólo después del éxito, y no de los fracasos, tanto el comportamiento de los monos como el procesamiento de información de los cerebros de éstos mejoraron.

Dos regiones cerebrales implicadas

Según explican los científicos en la revista especializada Neuron-9 , para aprender de la experiencia se necesita saber si una acción pasada ha producido un buen resultado.

Se cree que la corteza prefrontal del cerebro y los ganglios basales juegan un importante papel en el aprendizaje de las relaciones entre estímulo y respuesta.

La corteza prefrontal del cerebro dirige los pensamientos y las acciones de acuerdo con objetivos internos, mientras que los ganglios basales están relacionados con el control motor, la cognición y las emociones.

Gracias a la presente investigación se sabe ahora, además, que ambas áreas cerebrales cuentan con toda la información disponible para llevar a cabo las conexiones y ordenaciones neuronales necesarias para el aprendizaje.

Por otro lado, hasta ahora se sabía que los ganglios basales y la corteza prefrontal están conectados entre sí y con el resto del cerebro, y que nos ayudan a aprender las asociaciones abstractas mediante la generación de breves señales neuronales, cuando una respuesta es correcta o incorrecta.

Pero, hasta ahora, no se había podido entender cómo esta actividad transitoria, que se produce en menos de un segundo, podía influir en acciones realizadas a continuación.

Más información transmitida

Gracias a este estudio, los investigadores descubrieron actividad en muchas neuronas dentro de ambas regiones del cerebro, como respuesta a la entrega o no de la recompensa. Esta actividad duró varios segundos, hasta la siguiente prueba.

Las respuestas de las neuronas de los monos fueron, por otra parte, más fuertes si en la prueba inmediatamente anterior habían sido recompensados, y más débiles si en la prueba anterior se habían equivocado.

Por último, tras una respuesta correcta, los impulsos eléctricos de las neuronas, tanto en la corteza prefrontal como en los ganglios basales, fueron más fuertes y transmitieron más cantidad de información.

Según Miller, esto explicaría porqué, en un nivel neuronal, tendemos a aprender más de nuestros aciertos que de nuestros fallos.

Tendencias 21

sábado, 1 de agosto de 2009

Identifican la relación entre el cannabis y la pérdida de memoria

La afectación de la memoria es una de las consecuencias negativas más destacables del consumo de cannabis, incluso cuando se administra en determinados casos como tratamiento terapéutico.

Ahora, un equipo de investigadores de la Unidad de Neurofarmacología, del Departamento de Ciencias Experimentales y de la Salud de la Universidad Pompeu Fabra, ha identificado uno de los mecanismos implicados en los efectos amnésicos de los cannabinoides. El trabajo ha sido dirigido por Rafael Maldonado, catedrático de Farmacología de la UPF y director de la Unidad.

Plantas de Cannabis sativa, a partir de la cual se produce la Marihuana
Este estudio ha sido el tema de la tesis doctoral de Emma Puighermanal, dirigida por Andrés Ozaita y Rafael Maldonado, y uno de los ámbitos de investigación de Arnau Busquets, investigador pre-doctoral de la Unidad y responsable de los estudios conductuales, todos ellos coautores del artículo “Cannabinoid modulation of hippocampal long-term memory is mediated by mTOR signaling”, que se publicará el 2 de agosto en la edición digital de la revista Nature Neuroscience.

Inducir los efectos amnésicos de los cannabinoides

Los receptores cannabinoides CB1, tanto si son estimulados por neurotransmisores endógenos como por sustancias exógenas al organismo, son los responsables de diversos efectos farmacológicos y fisiológicos en el cuerpo humano. Por ejemplo, la afectación cognitiva debido al consumo de cannabis, es una de las consecuencias negativas asociada a esta droga de abuso.

Este estudio demuestra que en los efectos amnésicos que producen los cannabinoides al activar los receptores CB1 interviene una vía de señalización intracelular llamada mTOR, que actúa en el cerebro a nivel de la zona del hipocampo, la región asociada al control de las respuestas cognitivas.

Utilizando ratones modificados genéticamente (knock-out), el estudio de los investigadores de la UPF ha puesto de manifiesto que el déficit cognitivo producido por la administración de D9-Tetrahidrocannabinol (THC), el principal componente psicoactivo de la marihuana, está mediado por los receptores CB1 y tiene lugar específicamente a nivel de las interneuronas gabaérgicas, un sistema de neuronas caracterizado por la presencia del ácido gammaaminobutírico o GABA, probablemente debido a un desequilibrio en la actividad producida por este neurotransmisor. El estudio también demuestra que los mencionados efectos amnésicos comportan una síntesis de nuevas proteínas a nivel del hipocampo.

Es la primera evidencia del papel funcional de los receptores CB1 en las neuronas GABA, así como de la implicación de la vía de señalización mTOR en los efectos en el sistema nervioso central de los agonistas de los cannabinoides. Estos resultados identifican la diana específica sobre la cual actúan los cannabinoides y también el mecanismo de acción para inducir sus efectos amnésicos y, por lo tanto, suponen un punto de salida para desarrollar nuevas estrategias terapéuticas para prevenir algunos de los efectos más perjudiciales del consumo de cannabis.

Fuente: SINC

Descubren población de estrellas y enanas marrones en Lupus

Un grupo de astrónomos europeos, entre ellos dos españoles, ha descubierto una nueva y numerosa población de estrellas y enanas marrones en las nubes de Lupus (el Lobo), una conocida región de formación estelar situada a unos 650 años luz de la Tierra, según publica la revista Astronomy & Astrophysics. Esta población se encuentra más dispersa y parece haber evolucionado de manera más rápida que los miembros conocidos hasta ahora, probablemente a causa de encontrarse en áreas más desprotegidas frente a la acción de estrellas masivas cercanas.

Descubierta nueva poblacion de estrellas y enanas marrones en Lupus
Para identificar la población, los investigadores han aplicado un nuevo método de análisis basado en propiedades que distinguen las estrellas jóvenes de baja masa de otras más viejas de similar color y temperatura. No se han aplicado los sesgos de las búsquedas tradicionales, que se suelen apoyar en indicadores que decaen rápidamente con el tiempo, como la presencia de discos de polvo en torno a los objetos.

Fuente: SINC

viernes, 31 de julio de 2009

Primera demanda a Amazon por retirar "1984" del Kindle

La semana pasada Amazon retiró a sus clientes el acceso al libro 1984, de George Orwell, obra en la que se crea el concepto de "Big Brother" como crítica de las técnicas modernas de vigilancia y por la que éstos clientes habían pagado. El motivo por el cual se canceló el acceso a dicho libro fue un problema de Copyright: Amazon no tenía derechos de distribución sobre la obra del escritor Indo-Británico.

Carátula del libro 1984
Al poco Amazon pidió disculpas comentando que retirar el libro fue una medida absurda pero el caso ha continuado dando de qué hablar.

Kindle
Ahora, un joven de 17 años oriundo de Michigan demandó a Amazon por la retirada de 1984 (libro que él como otros muchos compró), lo que le arruinó un trabajo que estaba haciendo sobre la obra usando las notas que el Kindle permite incrustar en los mismos.

Fuente: ALT1040

jueves, 30 de julio de 2009

Excelente charla sobre la educación, derechos y deberes de los menores y sus padres

Emilio Calatayud Pérez es el juez de menores de Granada, y es conocido en España por haber ejecutado algunas sentencias llamativas, por ejemplo:

  • Impartir 100 horas de clases de informática a estudiantes a un joven que había crackeado varias empresas granadinas provocando daños por 2000 €.
  • 100 horas de servicio a la comunidad patrullando junto a un policía local por haber conducido temerariamente y sin permiso.
  • 50 horas dibujando un cómic de 15 páginas, en el que cuenta la causa por la que le condenaban.
  • Visitas a la planta de traumatología de Granada por conducir un ciclomotor sin seguro.
Según parece, su fuerte es tratar de que el condenado tome conciencia de sus acciones y las consecuencias que provocan.

Cuando en Uruguay, desde donde se escribe este blog, está en discusión el tema de las leyes a aplicar con los menores infractores, me parece bastante acertado publicar una excelente charla que dio este juez, en la que nos recuerda un poco que la educación y la formación de valores comienza en casa. Además hace notar que hay que tener mucho cuidado con las leyes referentes a los menores, las cuales deben ser equilibradas en derechos y deberes.

En ciertas partes, cuando menciona que España es relativamente joven en democracia, me recuerda un poco a Uruguay, donde estamos en una situación parecida con sólo 20 años de democracia e intentado adaptarnos a las tendencias de un mundo que se desarrolló con otras libertades.

Primera parte de la charla



Segunda parte de la charla

El cuento de los tres cerditos, versión cañón vortex

En el reino unido existe un programa de televisión, perteneciente a la cadena BBC, llamado Bang goes the theory y que sería algo así como la versión británica de Mythbusters. Al igual que sus análogos norteamericanos, en este programa se dedican a demostrar de formas visualmente espectaculares la veracidad de algunos mitos.

En este caso, utilizando como base el cuento de los tres cerditos, se propusieron demostrar que una casa de paja, una de madera y una de ladrillos podrían ser derribadas utilizando sólo viento.
Para cumplir con este menester utilizaron un cañon vortex que provoca el movimiento de una pequeña masa de aire a gran velocidad.

La potencia y el efecto visual generados por este cañón son impresionantes y te queda poner play al vídeo para saber si es posible derribar las tres casas o no.



Fuente: ALT1040

miércoles, 29 de julio de 2009

Estudio indica que reduciendo la polución se viviría 14 meses más

Un estudio hecho en la ciudad de Barcelona, España, indica que si se redujera el nivel de partículas contaminantes en dicha ciudad hasta llegar al volumen aconsejado por la Organización Mundial de la Salud (OMS), habría 3.500 muertes menos al año, y la esperanza de vida aumentaría en 14 meses. Así lo demuestra un estudio publicado en Gaceta Sanitaria que ha calculado también los beneficios económicos anuales.

La disminución de la contaminación atmosférica en Barcelona comportaría sustanciales beneficios económicos y para la salud. Si se adecuara el nivel adecuado en los 57 municipios de Barcelona, los beneficios económicos rondarían los 6.400 millones de euros anuales.

Polución en Barcelona

El estudio, encargado por los Departamentos de Medio Ambiente y Vivienda, y de Salud de la Generalitat de Catalunya, y realizado por el Centro de Investigación en Epidemiología Ambiental (CREAL, en sus siglas en catalán), se ha centrado en la concentración de un tipo de contaminante, las partículas de diámetro inferior a 10 micras (PM10), y su reducción a los niveles aconsejados por la OMS y a los legislados por la Unión Europea.

En 2004, año en el que se realizó la investigación, el nivel medio de PM10 en el área metropolitana de Barcelona era de 43 µg/m3, entre el mínimo de la localidad de Abrera (35 µg/m3) y los máximos localizados en Barcelona y L’Hospitalet de Llobregat (56 µg/m3).

Reducción de los ingresos hospitalarios

Si los municipios del área metropolitana redujeran los niveles de este contaminante atmosférico al valor anual medio recomendado por la OMS, situado en 20 µg/m3, disminuirían en 1.800 los ingresos hospitalarios por causas cardiorrespiratorias en un año. Además de la reducción en el número de muertes y del aumento de la esperanza de vida, se producirían 5.100 casos menos de bronquitis crónicas en adultos, 31.100 casos menos de bronquitis agudas en niños, y 54.000 crisis asmáticas menos en niños y adultos.

Estas mejoras para la salud pública, junto a otros factores, conllevarían también importantes beneficios económicos, calculados en 1.600 euros al año por habitante.

El equipo de investigación ha valorado además los efectos de la reducción de la contaminación atmosférica al nivel anual medio legislado por la Unión Europea (40 µg/m3). En este supuesto, los beneficios se reducirían a una tercera parte, situándose en un total de 2.300 millones de euros.

Fuente: SINC

Etimología de miércoles 4 - Coturno

El coturno era un antiguo calzado alto de suela de corcho sujetos por cintas de cuero u otro material que se entrelazaban artísticamente cubriendo toda la pantorrilla. Era utilizado en el periodo de la antigua Roma y en Grecia.

El coturno era utilizado en las representaciones de la tragedia calzados por los actores en neta oposición al zueco (socco o soccus), reservado para la representación de la comedia. El nombre de este calzado va unido el recuerdo del poeta Esquilo, porque introdujo su uso en el escenario, figurando desde entonces como emblema de la tragedia, del mismo modo que la máscara, también inventada por él, representa simbólicamente la comedia.

Los coturnos tenían la función de proporcionar altura al actor que representaba personajes nobles elevándolo por encima del coro y equiparándolo a las grandes dimensiones de la máscara, convirtiéndolo así en un personaje enorme. De este modo, se acrecentaba también la impresión sobre el público. Su carácter esencial lo determinaba su altura en la base, conseguida por medio de la superposición de suelas de madera o de corcho, cuyo espesor no debía exceder de doce centímetros, ni aumentarse aquéllas del número de cuatro, reservado a los soberanos.

Melpómene, musa del teatro, calzada con coturnos
Melpómene, una de las dos musas del teatro se representa calzada con coturnos.

De este calzado y el uso que se le daba surje la expresión "de alto coturno", que se cita para designar el rango de una persona tomando en cuenta su apariencia exterior, se refiere a la clase social que parece ocupar el individuo.

martes, 28 de julio de 2009

Los primeros animales podrían haber vivido en lagos y no en el mar, como se creía

¿Y si los primeros animales no hubieran evolucionado en el mar, sino en un lago? Ésta es la hipótesis que ha sido postulada por investigadores de la Universidad de California en Riverside (EEUU) tras analizar los componentes químicos de los sedimentos en los que yacen los restos de los primeros animales.

Según el registro fósil, las primeras formas de vida compleja surgieron hace unos 600 millones de años, después de miles de millones de vida unicelular. A partir de ahí, se cree que hubo un florecimiento sin parangón de diversidad y disparidad de formas animales que se ha dado en llamar "la explosión del Cámbrico", pues ocurrió en torno a ese periodo geológico.

Los investigadores recogen muestras de roca en el sur de China
Pero la teoría más aceptada establece que tanto la vida original como su diversificación posterior hacia las primeras formas animales tuvo lugar en el mar. Ahora, esta nueva hipótesis, publicada en el último número del 'Proceedings of Natinal Academy of Science' ('PNAS'), lanza un desafío científico sugiriendo que dicha evolución no ocurrió en el mar, sino en los lagos.

De momento, lo que Thomas F. Bristow y colegas han podido comprobar mediante análisis químicos y sedimentológicos es que al menos las especies enterradas en la formación china de Doushantuo, que representan a los animales más antiguos hasta ahora conocidos, vivieron en medios lacustres en lugar de marinos.

La Formación de Doushantuo, en el sur de China, es una auténtica caja de sorpresas. Se trata del mayor 'cementerio' fósil de las primeras formas de vida compleja; lo que en paleontología se denomina un 'Konservat Lagerstätte', es decir, un yacimiento de "alta categoría", tanto por la diversidad de especies que concentra como por su buen estado de conservación.

En estas formaciones del Yangtzé se encuentran los animales más antiguos del mundo y, lo que es más espectacular aún, en forma de embriones. Pertenecen a la llamada "fauna" de Ediacara, considerada la forma animal más antigua (si bien algunos estudios sugieren que no se trata de fauna ni de flora, sino de un reino nuevo) y también a especies de los inicios del Cámbrico, en torno a la "explosión" de la vida animal. Allí, los investigadores tomaron muestras de los sedimentos que envolvían a los fósiles y encontraron un componente mineral incompatible en el medio marino.

"Nuestro primer hallazgo inesperado fue la abundancia de un mineral arcilloso llamado smectita", explica Bristow. "En rocas de esta edad, la smectita se transforma normalmente en otros tipos de arcilla. Sin embargo, la smectita en estas rocas no se transformó y tiene una composición química especial que ha requerido unas condiciones específicas en el agua; condiciones que se dan en lagos alcalinos y salinos", añade.

¿Se originó la vida misma en un lago?

"Todos nuestros análisis muestran que los minerales y la geoquímica de las rocas no son compatibles con su deposición en agua salada", continúa el principal autor del estudio. "Es más: hallamos smectita sólo en algunas zonas del sur de China, y no de forma uniforme como se podría esperar de depósitos marinos. Ése fue un indicador importante de que las rocas que albergan los fósiles no tienen un origen marino. Otras evidencias también indicaron que estos primeros animales vivieron en un lago".

Los investigadores no descartan, sin embargo, que otros organismos similares, o incluso más antiguos, vivieran en medios marinos, pero lo que muestra el presente hallazgo es que aquellos animales estaban adaptados a un medio distinto al oceánico; mucho más inestable y variable.

Tras estas evidencias, los investigadores llegan a preguntarse si la vida misma no se originó en un lago, contrariamente a lo establecido, y abren nuevas puertas en la teoría evolutiva: debido a que los lagos son entornos aislados, sin conexiones entre sí, los científicos especulan si no podría haber habido evoluciones paralelas entre los organismos, en lugar de un concepto más lineal que se suele tener de la evolución a lo largo del tiempo.

Fuente: elmundo.es

Primer uso de identificación mediante huella dactilar

Un 28 de julio como hoy, en 1858, comenzaba a usarse en la india el sistema de identificación mediante huellas dactilares. Un inglés, Sir William Herschel, principal magistrado del distrito de Jungipoor, utilizó huellas digitales en un contrato firmado con un hombre de negocios local llamado Rajyadhar Konaim porque, por un capricho hacia la identificación personal, este último utilizó la impresión de su mano en la parte posterior de un contrato.
La idea de Konaim era simplemente "asustar y no dar lugar a la posibilidad de negar su firma". Luego Herschel comenzó el hábito de requerir impresiones de la palma y, más adelante, simplemente las impresiones del índice derecho y los dedos medios en cada contrato que hizo con los locales. Dándole un mayor valor a la firma de los contratos realizados.

Huella digital impresa en tinta sobre papel
Durante la década de 1870 el Dr. Henry Faulds, británico y Cirujano en jefe del hospital de Tsukiji en Tokio, Japón, tomó el estudio de los surcos en la piel después de notar marcas de dedos en las piezas de cerámica antiguas.
El Dr. Faulds reconoció la importancia de huellas digitales como medios de identificación, ideando un método de clasificación.

En 1880, el Dr. Faulds remitió una explicación de su sistema de clasificación y envió una muestra de los métodos que él había diseñado para las impresiones entintadas y grabación de las huellas dactilares, a Sir Charles Darwin.
Darwin, de edad avanzada y mala salud, informó al Dr. Faulds que él no podría brindarle ninguna ayuda, pero prometió pasar los materiales recibidos a su primo, Francis Galton.

Sir Francis Galton, Antropólogo Británico y primo de Charles Darwin, comenzó sus investigaciones sobre las huellas digitales como medio de identificación en 1880. En 1892 publicó su libro Huellas digitales, estableciendo la individualidad y personalidad de dichas marcas. El libro incluyó el primer sistema de clasificación para las huellas digitales.

Huella digital
El mayor interés de Galton sobre las huellas digitales estaba basado en la ayuda para la determinación de la herencia y orígenes de razas. Al poco tiempo descubrió que las huellas digitales no ofrecían ninguna pista firme para determinar la inteligencia o la historia genética de un individuo, pero sí pudo afirmar que las huellas digitales no cambian en el transcurso de la vida de un individuo y que la posibilidad de encontrar dos huellas digitales exactamente iguales era imposible. Según sus cálculos, las probabilidades de dos huellas digitales individuales iguales eran 1 en 64 mil millones.

Galton identificó las características por las cuales las huellas digitales pueden ser identificadas. Estas mismas características (minucias) básicas todavía están en uso hoy, y se refieren a menudo como detalles de Galton.

En 1891, Juan Vucetich, funcionario de la Policía de Argentina, comenzó con los primeros archivos de huellas digitales basados en los tipos del patrón de Galton.
En 1892, Juan Vucetich hizo la primera identificación criminal con la huella digital utilizando sus archivos y los métodos de identificación de Galton.

Definición de los detalles de una huella digital

Huella dactilar:

Una huella dactilar o huella digital es la impresión visible o moldeada que produce el contacto de las crestas papilares. Depende de las condiciones en que se haga el dactilograma (impregnando o no de substancias de color distinto al soporte en que asiente), y de las características del soporte (materias plásticas o blandas, en debidas condiciones). Sin embargo, es una característica individual que se utiliza como medio de identificación de las personas.
La ciencia que estudia las huellas dactilares se llama dactiloscopía y dentro de ella existen dos grandes ramas con su propia clasificación de huellas.
En Sudamérica y parte de Europa se sigue la clasificación de Vucetich, mientras que en Estados Unidos y Gran Bretaña se usa la de Henry. El sistema de identificación dactilar en España fue creado por el doctor Federico Olóriz Aguilera.

Fuentes: eldeber.com.bo - Wikipedia

lunes, 27 de julio de 2009

Crean ratas con mutaciones genéticas hereditarias permanentes

Las primeras ratas con el gen de la inmunoglobulina noqueado de manera específica se han conseguido gracias a la tecnología de las nucleasas de dedos de cinc. Este hallazgo, publicado hoy en la revista Science, es fundamental para el desarrollo de la plataforma de anticuerpos monoclonales humanos. El ratón es el único animal genéticamente modificado a partir del cual se puede generar anticuerpos monoclonales humanos.

“La creación de una rata knockout ha sido el mayor desafío al que nos hemos enfrentado”, explica Roland Buelow, autor principal del artículo y director general de la empresa Open Monoclonal Technology (OMT). “La inactivación de la expresión de los anticuerpos endógenos de la rata es esencial para poder expresar los anticuerpos humanos en animales genéticamente modificados”.

Rata knockout
Antes eran necesarias células madre embrionarias o una clonación con transferencia nuclear para crear una rata knockout, técnicas que no están disponibles para la modificación genética de estos animales. Para resolver este problema, los investigadores exploraron una nueva aplicación de la tecnología de las nucleasas de dedos de cinc (ZFN, por sus siglas en inglés) que ha permitido desarrollar una técnica que podría revolucionar la ingeniería genética en los animales.

Las ZFN son proteínas diseñadas artificialmente que producen cortes de la doble cadena en sitios específicos del ADN de un organismo. Dichos cortes de la doble cadena pueden tener como consecuencia cambios en la secuencia del ADN específicos. Hasta ahora, las ZFN se han usado para modificar genes específicos en moscas de la fruta, gusanos, células cultivadas y embriones de peces cebra, pero éste es el primer ejemplo de modificación genética exitosa, permanente y hereditaria en un mamífero.

La creación de las primeras ratas knockout específicas, ratas con mutaciones genéticas hereditarias permanentes, “es un hito fundamental en el desarrollo de la novedosa plataforma de anticuerpos monoclonales humanos de la OMT”, apunta Buelow. “La tecnología de anticuerpos humanos es el resultado de un avance en la comprensión del desarrollo de los linfocitos B y de un novedoso enfoque de la inactivación de la expresión de anticuerpos endógenos”.

En el estudio, publicado en el número de hoy de la revista Science, los científicos noquearon un gen que codificaba la inmunoglobulina de la rata. Las mutaciones en la inmunoglobulina no tenían consecuencias inespecíficas en otros genes, y las crías de las ratas llevaban los genes mutados.

En un momento en que se espera que las ventas de anticuerpos alcancen los 50.000 millones en cinco años, muchas empresas se han introducido en el mercado biotecnológico mediante la adquisición de tecnologías de anticuerpos. Actualmente, el ratón es el único animal genéticamente modificado del que se puede disponer para generar anticuerpos monoclonales humanos, y ya hay permisos para muchos objetivos.

Fuente: SINC

Epistemomaniáticos ©Template Blogger Green by Dicas Blogger.

TOPO